Как модель GPT-4 имитирует человеческое поведение: результаты исследования
Модель GPT-4 от OpenAI ведёт себя как человек. В недавнем исследовании учёные обнаружили, что она старается быть последовательной в своих действиях и убеждениях.
Чат-боты могут казаться почти неотличимыми от людей, но на самом деле это не так: они лишь обрабатывают данные и не имеют эмоций или сознания. Однако результаты исследования заставляют задуматься о том, как работают эти технологии.
В эксперименте учёные попросили участников написать эссе в поддержку или против Владимира Путина, а затем наблюдали, как изменится мнение GPT. Результаты показали, что модель меняет свои взгляды сильнее, когда считает, что сама выбирает тему эссе.
Это похоже на то, как люди подстраивают свои убеждения под свои действия. Если мы считаем, что действовали добровольно, то это влияет на наше восприятие себя и мира. GPT, похоже, делает то же самое, имитируя некоторые черты человеческого самосознания.
© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.