ИИ-контент — новое оружие в информационных войнах

ИИ-контент превращается в «оружие нового поколения»
Созданные с помощью искусственного интеллекта фотографии, фальшивые голоса и deepfake-видео становятся «оружием нового поколения», способным дестабилизировать общества — от избирательных кампаний до зон боевых действий. Такой контент уже рассматривается экспертами как «один из самых эффективных и опасных инструментов» манипуляции и мошенничества.
По данным исследовательской компании Sensity AI, отслеживающей угрозы, связанные с ИИ, в ходе конфликта России и Украины создавались ролики, где украинских политиков и военных якобы заставляли «призывать к капитуляции» или «признавались в военных преступлениях».
В Тайване во время выборов распространялись видео с поддельными речами политиков, вымышленными скандалами и постановочными «оговорками», созданные с помощью китайских ИИ-инструментов. В Японии искусственный интеллект использовался для генерации фальшивых изображений стихийных бедствий — ядерных аварий и наводнений — с целью вызвать панику среди населения.
Почему распознать ИИ-подделку становится сложнее
Соучредитель Sensity AI Франческо Кавалли отмечает, что с развитием технологий всё труднее отличить поддельный контент от реального.
«ИИ-контент, особенно в низком разрешении или сжатом формате, может ускользать от человеческого глаза. Поддельные голоса теперь практически невозможно отличить от настоящих», — говорит Кавалли.
Он подчеркнул, что наибольшую угрозу представляют синтезированные голоса. Например, мошенник, сымитировавший голос госсекретаря США Марко Рубио, через мессенджер Signal установил контакт с главами МИД трёх стран, конгрессменом и губернатором.
Манипуляции выборами и военными конфликтами
Кавалли рассказал, что платформы Midjourney и Runway стали настолько совершенными, что даже специалисты могут быть введены в заблуждение. По его словам, ИИ уже использовался для:
- вмешательства в выборы
- организации фальшивых пресс-конференций
- продвижения мошеннических платформ
- распространения поддельных военных кадров для манипуляции общественным мнением
Примеры активного применения ИИ-пропаганды фиксировались в Китае, Японии и на Тайване, где технологии использовались для давления на противников и дестабилизации обществ.
Контроль и профилактика
Эксперт подчеркнул необходимость международного сотрудничества и проактивного контроля над ИИ-дезинформацией.
«Маркировка ИИ-контента сама по себе не решает проблему. Важно, как и в каком контексте используется технология. Платформы должны действовать на опережение, а не ждать пользовательских жалоб», — отметил Кавалли.
Sensity AI разработала четырехэтапные системы анализа, включающие:
- распознавание манипуляций с лицом
- выявление полностью сгенерированных изображений
- проверку синтезированных голосов
- судебную экспертизу
Эти методы уже применяются в официальных расследованиях и судах.
По мнению Кавалли, доверие к визуальным медиа стремительно падает, поэтому необходимо обучать людей рискам ИИ-подделок и обеспечивать компании, журналистов и исследователей инструментами для их выявления.
«В будущем "увидеть" больше не будет означать "поверить"», — заключил эксперт.
Свежие новости, советы и инсайды каждый день!