Метод повышения уверенности ИИ в ответах: новый подход учёных
В важных ситуациях, таких как медицинская помощь или участие в телевикторине «Своя игра», лучше признать «Я не знаю», чем дать неверный ответ. Однако многие приложения с ИИ всё равно дают потенциально неправильные ответы, не признавая неуверенность.
Учёные из Университета Джонса Хопкинса предложили новый метод, позволяющий ИИ тратить больше времени на обдумывание задач и использовать показатель уверенности для признания своей неуверенности. Это важно для медицины, юриспруденции и инженерии.
Исследование опубликовано на сервере препринтов arXiv и будет представлено на конференции Ассоциации компьютерной лингвистики в Вене.
Учёные обнаружили, что более длинные цепочки рассуждений повышают точность моделей, но даже при достаточном времени на обдумывание ошибки всё равно возможны, особенно при отсутствии наказания за них. Высокая планка надёжности и длительное обдумывание иногда снижают точность моделей.
© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.