ИИ и предвзятость: как обеспечить справедливость в использовании технологий

Исследователи утверждают, что предвзятость искусственного интеллекта (ИИ) не является исключительно техническим недостатком. Они считают, что ИИ может воспроизводить и усиливать существующие социальные предубеждения, поскольку он обучается на исторических данных.
В качестве примеров можно привести усиление гендерного неравенства при найме в Amazon и ошибочные обвинения мигрантов в мошенничестве. Если не обеспечить прозрачность и подотчётность в использовании ИИ, он может стать инструментом дискриминации.
Управление ИИ должно выходить за рамки ответственности разработчиков и включать вопросы политики и инклюзивности. Внедрение принципов справедливости в процесс создания ИИ с самого начала может помочь использовать его потенциал для позитивных изменений в обществе.
© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.