ИИ обучается социальным нормам: исследование коллективных предубеждений больших языковых моделей

ИИ обучается социальным нормам: исследование коллективных предубеждений больших языковых моделей

Новое исследование показало, что группы ИИ, таких как ChatGPT, могут создавать свои собственные социальные нормы. Учёные из университетов Лондона, Сент-Джорджа и Копенгагена выяснили, что большие языковые модели ИИ (LLM) не просто повторяют шаблоны, а могут самоорганизовываться и достигать согласия по языковым нормам, как люди в обществе.

Для эксперимента учёные использовали игру, похожую на «игру в имена». В ней агенты ИИ выбирали «имя» (букву или последовательность символов) из списка. Если оба агента выбирали одно и то же имя, они получали награду, если нет — штраф.

Агентам не давали полной информации о других участниках и не координировали их действия. Несмотря на это, в группе возникала общая система именования, как в человеческих обществах.

Учёным также удалось обнаружить, что ИИ проявляли коллективные предубеждения, которые не были присущи отдельным агентам.

загрузка...


© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.