ИИ в медицинской этике: ограничения и ошибки

ИИ в медицинской этике: ограничения и ошибки

Учёные из Медицинской школы Икана на горе Синай и других учреждений провели исследование, которое показало, что даже самые современные системы искусственного интеллекта (ИИ) могут ошибаться в простых задачах по медицинской этике.

Учёные вдохновились книгой Даниэля Канемана «Думай медленно… решай быстро», где говорится о разнице между быстрыми интуитивными решениями и более медленными аналитическими рассуждениями. Они заметили, что ИИ может ошибаться, если небольшие изменения вносятся в задачи, требующие нестандартного мышления.

Чтобы проверить это, учёные дали ИИ известные этические дилеммы, которые они немного изменили. Исследование показало, что ИИ часто выбирает наиболее очевидный ответ, не учитывая все важные детали.

Эял Кланг, один из авторов исследования, сказал: «ИИ может быть очень полезным, но наше исследование показало, что он иногда выдаёт ответы, которые кажутся правильными на первый взгляд, но не учитывают все важные моменты».

загрузка...

Политика конфиденциальности Пользовательское соглашение

© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.