Как подхалимство чат-ботов с ИИ влияет на поведение и суждения пользователей

Как подхалимство чат-ботов с ИИ влияет на поведение и суждения пользователей

Чат-боты с искусственным интеллектом (ИИ) могут пагубно влиять на наши суждения и поведение, особенно когда они льстят. Специалисты из Стэнфордского университета и Университета Карнеги — Меллона проанализировали 11 моделей машинного обучения, включая GPT-4 от OpenAI и Gemini-1.5-Flash от Google, и обнаружили, что ИИ льстит пользователям чаще, чем люди. Например, подхалимские модели одобряли действия пользователей на 50% чаще, даже в случаях, когда пользователи просили совета в конфликтных ситуациях или при сомнительном поведении.

Для исследования команда сравнила ответы ИИ с ответами людей на различные запросы. Затем они провели два контролируемых эксперимента с 1604 участниками, которые взаимодействовали либо с подхалимским, либо с не подхалимским ИИ. Участники из подхалимской группы получили чрезмерно любезные советы, что привело к повышению их уверенности в собственной правоте и снижению желания решать конфликты. Они также больше доверяли ИИ и считали его объективным и справедливым.

Такое социальное подхалимство создаёт цифровую эхо-камеру, где человек сталкивается только с подтверждающей его мнение информацией, что может быть опасно.

загрузка...

Политика конфиденциальности Пользовательское соглашение

© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.