Осторожность при использовании ИИ в медицинских консультациях: ограничения ChatGPT

Перед тем как использовать ChatGPT или другие мощные программы с искусственным интеллектом для самостоятельной диагностики проблем со здоровьем, стоит хорошо подумать.
Учёные провели исследование и обнаружили, что ChatGPT-4o, большая языковая модель от OpenAI, часто ошибается в ответах на вопросы о здоровье. В половине случаев его ответы были неправильными.
Для исследования учёные взяли почти 100 вопросов из медицинского экзамена и изменили их так, чтобы они подходили для вопросов ChatGPT. Затем они проверили ответы ИИ. Только 37% ответов оказались правильными. Остальные ответы были непонятными и для экспертов, и для обычных людей.
Например, ИИ ошибся в диагнозе сыпи на руках мужчины. Он предположил, что проблема в новом моющем средстве, но на самом деле сыпь вызвала латекс на перчатках, которые мужчина носил во время учёбы.
© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.