Бум искусственного интеллекта дал миру не только чат-ботов, но и новый вид цифровых фальсификаций – дипфейки. Это технологии, которые позволяют создавать крайне правдоподобные фальшивые фото, видео и аудиозаписи.
РБК-Украина рассказывает, как не попасться на фейковые фото, видео и аудио, со ссылкой на технологический сайт PCWorld.
Что такое дипфейк
Термин deepfake происходит от сочетания слов deep learning (глубокое обучение) и fake (подделка). Это может быть, например, видео, где лицо одного человека заменено на лицо другого, или аудио, где "известный голос" говорит то, чего никогда не произносил.
Раньше на создание таких фейков требовались ресурсы и навыки. Теперь же благодаря доступности ИИ-сервисов, даже онлайн, создать дипфейк может практически любой пользователь.
Зачем используют дипфейки
Создатели таких приложений часто позиционируют их как развлекательные. Но на практике они все чаще используются мошенниками:
- ИИ-имитация голоса родственника: злоумышленники звонят, сообщают об "аварии" и просят перевести деньги
- Поддельное видео с политиками – чтобы манипулировать общественным мнением
- Ложная реклама с "участием" звезд – когда человек не знал, что его лицо использовали в рекламе, а товар может быть некачественным или вовсе не доставляется.
Как распознать дипфейк
В первые годы распознать фейк можно было по визуальным и звуковым огрехам: странная мимика, неестественная интонация. Но технологии развиваются, и сейчас отличить подделку становится все труднее.
Сегодня в интернете доступны специальные ИИ-сервисы, которые анализируют изображения и видео. Один из самых продвинутых – Deepfake-o-Meter, разработанный лабораторией медиакриминалистики Университета Буффало (США).
Он объединяет 16 ИИ-систем, которые проверяют загруженные пользователем фото, видео или аудио и выдают вероятность подделки. Доступ к сервису бесплатный – после регистрации вы получаете 30 проверок.
Например, знаменитое фото Папы Римского Франциска в белом пуховике, созданное с помощью Midjourney, только две системы распознали как дипфейк с вероятностью более 50%. А вот портрет, сгенерированный Canva, был определен как ИИ-изображение в 7 случаях из 16.
На изображении Папы тень не совпадает с оправой очков, а крестик на цепочке висит только с одной стороны (фото: Reddit)
Сервис Sightengine (Франция) работает быстрее и дал 99% вероятности фейка для изображения женщины, сгенерированного ИИ. Однако по фото с Папой – только 53%.
Ни одна из программ распознавания, используемых в Deepfake-o-Meter, не определила изображение Папы Франциска в белом пуховике как достоверный дипфейк (фото: IDG)
На что обращать внимание вручную: 5 признаков дипфейков
Даже без специальных программ подделку можно распознать – достаточно внимательно присмотреться:
- у ИИ часто возникают ошибки с количеством или длиной пальцев, они могут быть лишними, короткими или сросшимися
- руки и ноги могут быть расположены странно или вовсе не "принадлежать" персонажу
- неестественный угол падения прядей волос, "пластиковый" вид
- асимметрия пуговиц, изломанные очки, незамкнутые цепочки
- неестественные тени, размытия, искажения
- шрифты выглядят как паукообразные, неразборчивые символы
- на заднем плане часто можно заметить неправильные тени или несоответствия в пропорциях.
Видео почти не отличить от реальности
С появлением видеогенератора Sora от OpenAI в 2024 году дипфейки вышли на новый уровень. Сотни реалистичных роликов, созданных этой системой, уже можно найти на YouTube. По качеству они порой не уступают профессиональной съёмке.
Распознать такие видео все сложнее, однако бесплатные онлайн-инструменты все еще существуют. Один из них – Deepware.ai, другой – Hive AI Detector. Первый полностью бесплатен, второй позволяет проверять видео длиной до 20 секунд в бесплатной версии.
При тестировании роликов, сгенерированных с помощью Sora, Deepware показал себя слабо – не распознал ни одного фейка. Зато Hive сработал значительно лучше: во всех случаях программа указала вероятность дипфейка 99%.
Признаки, по которым можно распознать дипфейк-видео
Даже без специальных программ некоторые признаки выдают поддельное видео:
- Нечеткие или "паукообразные" шрифты – текст на экране невозможно разобрать
- Неправильные тени – они отбрасываются в неожиданных направлениях или вовсе отсутствуют
- Несовпадение фона с остальной сценой – часто разрешение сзади хуже, чем у людей на переднем плане
- Неестественное поведение людей – движения замедленные, лица без мимики, моргание может отсутствовать
- Ошибки с волосами – пряди будто висят в воздухе и не соединены с головой.
Чтобы заметить многие из этих деталей, иногда достаточно замедлить видео.
Аудиодипфейки (все чаще используют в мошенничестве)
ИИ теперь способен имитировать голос человека всего по нескольким секундам записи. Программа вроде Real Time Voice Cloning может озвучить любой текст голосом другого человека.
Технология еще не идеальна – по исследованиям, в двух из трех случаев люди могут распознать фальшивку. Но уже сейчас преступники успешно используют дипфейк-голоса для "звонков от родственников" с просьбами о помощи.
Инструменты для распознавания фейковых голосов
Пока большинство решений ориентированы на англоязычный рынок:
- McAfee Deepfake Detector – проверяет видео и аудио на поддельные голоса. Доступен на ПК с процессорами Intel Core Ultra 200V
- Resemble.ai и AI Voice Detector – коммерческие решения для корпоративных клиентов
- Hiya AI Voice Detector – бесплатное расширение для Google Chrome, которое анализирует голосовые записи на сайтах.
Вас может заинтересовать:
- Meta начала процесс запуска персонального ИИ
- Модели ИИ начали заражать друг друга "агрессивными" данными
- Google интегрировал ИИ-видео на базе Veo в популярные приложения