Симулятор атаки определяет недостатки в инструментах распознавания образов ИИ и смягчения киберугроз

Искусственный интеллект (ИИ) может обрабатывать большие объемы данных с высокой точностью, но может упустить важную внутреннюю функцию — альфа-канал, контролирующий прозрачность изображений. Исследователи из Техасского университета в Сан-Антонио разработали кибератаку AlphaDog, чтобы изучить уязвимости ИИ.

Атака заставляет людей видеть изображения иначе, чем машины, манипулируя прозрачностью. Исследователи создали 6500 изображений атак и протестировали их на 100 моделях ИИ. Они обнаружили, что AlphaDog может нарушать целостность изображений в различных сценариях, включая дорожные знаки и медицинские изображения.

Атака может привести к ошибочным диагнозам, угрозам безопасности дорожного движения и манипуляциям со страховыми выплатами. AlphaDog также может нарушить работу систем распознавания лиц.

загрузка...

Политика конфиденциальности Пользовательское соглашение

© 2015-2026 Сетевое издание «Фактом». Зарегистрировано в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Реестровая запись ЭЛ No ФС 77 - 67652 от 10.11.2016.