Осторожность при использовании ИИ в медицинских консультациях: ограничения ChatGPT

Осторожность при использовании ИИ в медицинских консультациях: ограничения ChatGPT

Перед тем как использовать ChatGPT или другие мощные программы с искусственным интеллектом для самостоятельной диагностики проблем со здоровьем, стоит хорошо подумать.

Учёные провели исследование и обнаружили, что ChatGPT-4o, большая языковая модель от OpenAI, часто ошибается в ответах на вопросы о здоровье. В половине случаев его ответы были неправильными.

Для исследования учёные взяли почти 100 вопросов из медицинского экзамена и изменили их так, чтобы они подходили для вопросов ChatGPT. Затем они проверили ответы ИИ. Только 37% ответов оказались правильными. Остальные ответы были непонятными и для экспертов, и для обычных людей.

Например, ИИ ошибся в диагнозе сыпи на руках мужчины. Он предположил, что проблема в новом моющем средстве, но на самом деле сыпь вызвала латекс на перчатках, которые мужчина носил во время учёбы.

загрузка...

Политика конфиденциальности Пользовательское соглашение

© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.