29.8 C
Kyiv
Середа, 9 Липня, 2025

Від авто залишилася купа брухту. У ДТП на Тернопільщині загинули четверо людей

Четверо людей на Тернопільщині внаслідок дорожньо-транспортної пригоди...

До трьох кредитних спілок застосовано заходи впливу

До трьох кредитних спілок застосовано заходи впливу...

Найден способ защитить искусственный интеллект от атак

ТехнологіїНайден способ защитить искусственный интеллект от атак

Специалисты из Массачусетского технологического института (MIT) и Иллинойсского университета в Урбане-Шампейне нашли способ защитить искусственный интеллект (ИИ) от атак.

Одной из наиболее сложных и нерешённых проблем в глубоком обучении является уязвимость систем к состязательным атакам. Они могут заставить систему выполнять задачи совершенно неправильно. То есть, по сути, состязательная атака — это способ обмануть нейросеть. Можно, например, добавить какой-нибудь стикер на знак «Стоп», и автопилот на машине воспримет его как другой знак.

Большинство таких атак фокусируются на системах распознавания изображений, но могут затрагивать и системы восстановления изображений, основанные на глубоком обучении.

Специалисты предложили новый метод обучения таких систем. Метод позволяет как бы «натравливать» друг на друга нейронные сети, ответственные за восстановление изображения, и те, что ответственны за генерацию состязательных примеров (намеренно изменённых версий исходных входных данных). Вторые нейросети пытаются обмануть первые, благодаря этому система восстановления изображений становится более гибкой и устойчивой к ошибкам.

Источник: ferra.ru

Останні новини