Чат-боты с искусственным интеллектом могут вызывать ложные воспоминания. Это ошеломляющее откровение, в которое погружается Джим Картер в этом эпизоде "The Prompt."
Джим делится прорывным исследованием MIT и Калифорнийского университета в Ирвайне, которое показало, что чат-боты на базе ИИ могут создавать ложные воспоминания у пользователей. Представьте себе, что вы стали свидетелем преступления, а потом чат-бот ввел вас в заблуждение, заставив поверить в вещи, которые никогда не происходили. Страшно, правда?
В исследовании участвовало 200 человек, которые смотрели немое видео с камер видеонаблюдения вооруженного ограбления. Их разделили на четыре группы: контрольную группу, опрос с вводящими в заблуждение вопросами, заранее прописанный чат-бот и генеративный чат-бот, использующий модель большого языка.
Результаты? Генеративный чат-бот вызвал почти в три раза больше ложных воспоминаний по сравнению с контрольной группой. Что еще более удивительно, 36% ответов пользователей на генеративный чат-бот были ошибочными, и эти ложные воспоминания сохранялись не менее недели!
Джим исследует, почему некоторые люди более восприимчивы к таким ложным воспоминаниям, вызванным ИИ. Оказывается, люди, которые знакомы с ИИ, но не с чат-ботами, более склонны быть введенными в заблуждение. Кроме того, те, кто интересуется расследованием преступлений, более уязвимы, вероятно, из-за их высокой вовлеченности и обработки дезинформации.
Так почему же чат-боты "галлюцинируют" или генерируют ложную информацию? Джим объясняет ограничения и предвзятости в учебных данных, переобучение и природу моделей большого языка, которые отдают приоритет правдоподобным ответам, а не фактической точности. Эти галлюцинации могут распространять дезинформацию, подрывать доверие к ИИ и даже вызывать юридические проблемы.
Но не волнуйтесь, Джим не оставляет нас в подвешенном состоянии. Он делится практическими шагами по минимизации этих рисков, такими как улучшение качества учебных данных, комбинирование языковых моделей с системами проверки фактов и разработка систем обнаружения галлюцинаций.
Хотите быть в курсе последних достижений ИИ? Присоединяйтесь к группе Джима
Informations
- Émission
- Chaîne
- FréquenceDeux fois par semaine
- Publiée10 septembre 2024 à 12:00 UTC
- Durée5 min
- ClassificationTous publics