Чат-боты с ИИ распространяют ложную медицинскую информацию: как снизить риск ошибок

Новое исследование показало, что популярные чат-боты с искусственным интеллектом часто повторяют и распространяют ложную медицинскую информацию. Поэтому важно усилить меры безопасности, прежде чем доверять этим инструментам в здравоохранении.

Учёные также выяснили, что простое предупреждение может значительно снизить этот риск. Их результаты опубликованы в журнале Communications Medicine.

Поскольку всё больше людей обращаются к ИИ за медицинской помощью, исследователи хотели понять, будут ли чат-боты просто повторять неправильную информацию из вопросов пользователей. Они также хотели узнать, можно ли направить их на более точные ответы.

Ведущий автор исследования, доктор Махмуд Омар, сказал: «Чат-боты легко поддаются влиянию ложной информации, независимо от того, случайная она или преднамеренная. Они не только повторяют неверные данные, но и иногда создают убедительные объяснения для несуществующих заболеваний. Обнадёживает, что простое предупреждение может значительно снизить количество таких ошибок».

загрузка...

Политика конфиденциальности Пользовательское соглашение

© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.