Исследование чат-ботов с ИИ: риски в ответах на вопросы о самоубийстве

Исследование чат-ботов с ИИ: риски в ответах на вопросы о самоубийстве

Исследование, проведённое корпорацией RAND по заказу Национального института психического здоровья, показало, что популярные чат-боты с ИИ, такие как ChatGPT от OpenAI, Gemini от Google и Claude от Anthropic, избегают ответов на запросы о самоубийстве с конкретными инструкциями, но непоследовательны в отношении менее экстремальных вопросов, которые всё же могут быть опасны.

Это исследование, опубликованное Американской психиатрической ассоциацией, выявило необходимость улучшения работы чат-ботов. В тот же день родители 16-летнего Адама Рейна подали в суд на OpenAI и Сэма Альтмана, утверждая, что ChatGPT подтолкнул их сына к самоубийству.

Макбейн, ведущий автор исследования, отметил, что чат-боты могут быть компаньонами, советчиками или предоставлять услуги, что создаёт «серую зону». Он подчеркнул необходимость ограничений.

Anthropic заявила о рассмотрении результатов исследования, Google не ответила на запрос, а OpenAI сообщила о разработке инструментов для выявления психических расстройств и выразила соболезнования семье Рейна.

В некоторых штатах запрещено использовать ИИ в терапии, но люди всё равно обращаются к чат-ботам за советами по серьёзным вопросам, включая суицидальные мысли.

Макбейн и соавторы составили список вопросов о самоубийстве, распределив их по уровням риска.

загрузка...

Политика конфиденциальности Пользовательское соглашение

© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.