Проблема справедливости алгоритмов модерации контента в социальных сетях

Ранее в этом году крупные соцсети за рубежом отменили правила, запрещающие некоторые виды разжигания ненависти и оскорблений. Эти изменения усложняют для пользователей социальных сетей возможность избежать токсичных высказываний.
Это не значит, что социальные сети и другие онлайн-пространства отказались от масштабной задачи по модерации контента для защиты пользователей. Один из новых подходов основан на искусственном интеллекте. Инструменты для проверки контента с помощью ИИ могут анализировать контент в больших масштабах, избавляя людей от необходимости постоянно сталкиваться с токсичной речью.
Но модерация контента с помощью ИИ сталкивается с проблемой, говорит Мария Де-Артеага, доцент кафедры управления информацией, рисками и операциями в Техасском университете Маккомбса: она должна быть не только точной, но и справедливой. Алгоритм может быть точным в выявлении токсичной речи в целом, но он может не одинаково хорошо выявлять её во всех группах людей и во всех социальных контекстах.
© 2015-2025 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.