|
«Эти образы неотличимы от реальности» Дипфейки становятся все более совершенными и опасными. Как они влияют на мировую политику?
|
Еще несколько лет назад дипфейки воспринимались как технологическая экзотика, но сейчас они превратились в оружие информационных войн. С помощью дипфейковых видео политики дискредитируют оппонентов в избирательных кампаниях, а в ходе военных конфликтов противоборствующие стороны обвиняют друг друга в военных преступлениях и демонстрируют несуществующие победы на поле боя. А с учетом возросшего числа мошенничеств с использованием синтетического видео и голоса, люди начинают воспринимать любое видео как потенциальную подделку. В итоге доверие к политикам и СМИ падает, а выстраивать диалог между государствами становится все сложнее. О том, как дипфейки меняют логику современной политической борьбы, почему они стали инструментом давления и какое место эта угроза занимает в системе международной безопасности, — в разборе «Ленты.ру».
Технологии генерации изображений и голоса достигли такого уровня, что даже опытные специалисты не всегда способны отличить подделку от реальности.
Дипфейки — это синтетические аудио-, фото- и видеоматериалы, созданные с помощью алгоритмов глубокого обучения, которые позволяют правдоподобно имитировать внешность, голос и поведение реальных людей. По определению Merriam-Webster Dictionary, дипфейком считается изображение или запись, искусственно измененные либо полностью сгенерированные с использованием технологий искусственного интеллекта с целью ввести зрителя в заблуждение.
По данным Всемирного экономического форума, в 2025 году количество дипфейк-атак на бизнес и государственные структуры выросло в десятки раз. За первые месяцы года были зафиксированы сотни случаев подделки видео и аудио, которые затем использовались в мошеннических схемах и кампаниях дезинформации.
Технологии, которые еще недавно были доступны лишь исследовательским лабораториям, сегодня можно использовать прямо в браузере: платформы Synthesia или ElevenLabs генерируют реалистичную речь и видео за считаные минуты, даже без знаний программирования. Дипфейки можно сгенерировать и в других нейросетях — от Higgsfield до Sora 2.
Ситуацию усугубляют особенности социальных сетей: любой ролик может разойтись по всему миру быстрее, чем его успеют проверить.
Исследователи сервиса Reality Defender, специализирующегося на выявлении дипфейков, подчеркивают, что объектами манипуляций все чаще становятся политические кампании, избирательные штабы и СМИ.

Доцент кафедры компьютерных наук Университета Южной Калифорнии Хао Ли демонстрирует дипфейк с участием бывшего премьер-министра Великобритании Терезы Мэй во время 50-го ежегодного Всемирного экономического форума (ВЭФ) в Давосе, Швейцария, 22 января 2020 года
Фото: Denis Balibouse / Reuters
История дипфейков началась со скандала. В 2017 году на платформе Reddit появился пользователь под ником Deepfakes, который публиковал видео с заменой лиц актеров в порнофильмах на лица знаменитостей. Уже через несколько месяцев такие материалы были запрещены.
Именно тогда появился термин deepfake — от deep learning («глубокое обучение») и fake («подделка»)
Почти одновременно была выпущена программа FakeApp, позволявшая любому пользователю «вживлять» лицо другого человека в видео. Вскоре исследователи из Университета Вашингтона создали технологию, способную заставить бывшего президента США Барака Обаму произносить любые тексты с синхронизацией движений губ.
Уже в 2018-м издание The Guardian писало о дипфейках как о реальной угрозе.
В 2020 году в Габоне появилось видео, на котором президент Али Бонго выглядел тяжелобольным и говорил с трудом. Запись оказалась подлинной, но сомнения в ее достоверности спровоцировали попытку военного переворота.
В 2023-2025 годах число дипфейков удваивалось каждые шесть месяцев, и более половины из них создавались не для развлечения, а для дезинформации
Технология дипфейков формирует атмосферу недоверия, отметила в беседе с «Лентой.ру» доктор политических наук, профессор кафедры мировых политических процессов МГИМО МИД России Елена Зиновьева. По ее словам, она уже сейчас способна подрывать архитектуру международной стабильности.
Синтетический контент используется для искажения исторической правды, подрыва доверия к государственным институтам и манипулирования общественным мнением. Это делает дипфейки полноценным инструментом информационно-психологического воздействия и элементом гибридных стратегий

Владелец компании Polymath Synthetic Media Solutions Дивьендра Сингх Джадун демонстрирует потенциальным клиентам дипфейк с участием премьер-министра Индии Нарендры Моди, Аджмер, Индия, 15 мая 2024 года
Фото: Himanshu Sharma / dpa / Globallookpress.com
Сейчас один вирусный ролик способен спровоцировать дипломатический скандал, вызвать панику или повлиять на ход боевых действий.
Во время войны Израиля и ХАМАС в 2023-2025 годах в соцсетях распространялись десятки ложных видео атак, заявлений политиков и журналистов. По данным издания Time, именно дипфейки стали одним из ключевых источников паники и разжигания ненависти.
Вирусный ролик, на котором толпа иранцев якобы скандирует «Мы любим Израиль!», успел вызвать международный резонанс, прежде чем было доказано, что он полностью сгенерирован нейросетью
Похожие случаи фиксировались и в других конфликтах. На Украине весной 2022 года появилось поддельное видео, на котором президент Владимир Зеленский призывал военных сложить оружие.
В 2023-2024 годах в России выявили десятки политических дипфейков, которые распространялись в сети с целью посеять панику
В июне 2023-го появилось фейковое радиообращение Владимира Путина о введении военного положения в приграничных регионах. Позже были зафиксированы видео с участием бывшего губернатора Курской области Алексея Смирнова и губернатора Приморского края Олега Кожемяко, им приписывались заявления, которых они никогда не делали.
Отдельным инструментом давления стали дипфейки с «предсмертными заявлениями» глав регионов. Так, фейковый ролик о «самоубийстве» губернатора Самарской области Вячеслава Федорищева сопровождался подписью «источник подтверждает смерть», после чего чиновнику пришлось публично опровергать собственную «гибель».
В Сирии в 2023-2024 годах распространялись синтетические видео «ракетных ударов» и «химических атак». Одно из них, якобы снятое в Идлибе, набрало сотни тысяч просмотров. Анализ AFP Fact Check показал, что видео было полностью искусственным.
Широкое распространение также получил дипфейк с «заявлением» одного из полевых командиров, в котором он якобы призывал к эскалации конфликта. По данным BBC Verify, видео было создано с использованием модели, обученной на его предыдущих интервью. Эксперты отмечали неестественную артикуляцию, ошибки в синхронизации голоса и несоответствие мимики аудиоряду.
Количество дипфейков растет в геометрической прогрессии — это уже не маргинальное явление, а системный фактор мировой политики

Произральские демонстрации в Иране, фрагмент сгенерированного искусственным интеллектом видео
Кадр: AAP / Facebook
Жертвами дипфейков все чаще становятся СМИ. Американское издание CBS News признало, что лишь около десяти процентов новостных видео проходят первичную проверку без подозрений на синтетическую природу. Остальные требуют дополнительной верификации, что замедляет работу редакций и усиливает эффект информационного тумана.
Одновременно дипфейки стали инструментом кибермошенников
По оценкам экспертов, за последний год поддельные голоса руководителей все чаще использовались для требований перевода крупных сумм, а реалистичные видеозвонки вводили сотрудников компаний в заблуждение.
Так, в феврале международная инженерная компания Arup Group стала жертвой масштабной мошеннической схемы. Злоумышленники использовали поддельные видео и аудиозаписи с участием топ-менеджеров, пытаясь убедить сотрудника перевести 25 миллионов долларов. Схема выглядела безупречно: звонок в Zoom, синхронные изображения лиц, уверенные голоса — и ни одного очевидного признака фальсификации.
При этом только технологический гигант Google сообщил регулятору Австралии, что в период с апреля 2023 по февраль 2024 года получил более 250 жалоб со всего мира на предполагаемый контент, созданный с помощью искусственного интеллекта, включая видео и изображения, изображающие терроризм, экстремизм и насилие.
В июле Международный союз электросвязи (МСЭ) выступил с официальным призывом к компаниям и платформам активнее внедрять инструменты выявления и предотвращения дипфейков. В своем докладе организация заявила, что на фоне роста манипуляций с видео и аудио генеративные дипфейки стали одной из ключевых угроз для информационной безопасности, доверия к медиа и стабильности демократических процессов.
Доверие к социальным сетям значительно снизилось, потому что люди не знают, что правда, а что фейк

Президент США Джо Байден у Белого дома, Вашингтон, США, 16 августа 2024 года
Фото: Elizabeth Frantz / Reuters
Количество выявленных дипфейков в мире продолжает расти.
Только в России за первые девять месяцев 2025 года выявили более 60 поддельных видео — в 2,5 раза больше, чем за аналогичный период годом ранее. Большинство из них касались политически и социально чувствительных тем.
В 2024-2025 годах дипфейки активно использовались в избирательных кампаниях в разных странах. В США, Канаде и Индии фиксировались случаи публикации поддельных роликов с участием кандидатов, а в Европе — «заявлений», которых политики никогда не делали. Такие дипфейки нередко публиковались от имени «независимых изданий», а их вирусное распространение обеспечивали сети ботов в социальных сетях.
Показательный случай произошел в феврале 2024 года в США. Злоумышленники разослали миллионы аудиозаписей с поддельным голосом Джо Байдена, призывающим избирателей не приходить на предварительное голосование. Его голос был настолько реалистичен, что многие приняли его за настоящий.
В октябре в ходе избирательной кампании в Венгрии лидер оппозиционной партии «Тиса» Петер Мадьяр подал заявление о возбуждении уголовного дела после появления в соцсетях дипфейкового видео, на котором он якобы говорил о намерении «урезать пенсии». Ролик длительностью около 38 секунд был опубликован на официальной странице советника премьер-министра Виктора Орбана.
Ситуация становится опасной: появляется видео, в котором Петер Мадьяр говорит то, чего он никогда не говорил

Фото: PW Photograph / Shutterstock / Fotodom
На фоне массового распространения дипфейков в мире формируется кризис аутентичности: люди начинают воспринимать любое видео или изображение как потенциальную подделку.
Дипфейки стали инструментом психологической и информационной войны — как в зоне вооруженных конфликтов, так и в мирное время. Они рассчитаны на мгновенный эффект: даже если опровержение появляется спустя час, эмоциональная реакция уже произошла.
Дипфейки из интернет-феномена превратились в универсальное информационное оружие, а их массовость делает практически невозможным привычное различие между правдой и ложью
В России, Китае и Европейском союзе уже разрабатываются законопроекты, предусматривающие уголовную ответственность за создание и распространение поддельных видео, способных нанести репутационный или политический ущерб.
Верховный суд предложил квалифицировать дипфейки в агитации как административное правонарушение.
Кроме того, в ноябре депутаты от партии «Справедливая Россия» предложили поправки к федеральному закону «Об информации, информационных технологиях и о защите информации». Они предполагают обязательную маркировку видео, созданных с применением искусственного интеллекта, как визуально, так и на уровне метаданных. В случае принятия инициативы Россия станет второй страной, где предусмотрены штрафы за публикацию дипфейков без маркировки. Ранее аналогичные ограничения были введены в Китае.
Сегодня искусственный интеллект способен создавать визуальные образы, неотличимые от реальности. Без маркировки это превращается в инструмент манипуляции и подмены фактов
Несмотря на существующие риски, дипфейки вряд ли приведут к прямой военной эскалации, считает политолог Елена Зиновьева.
Политики и дипломаты уже осознают его потенциал и закладывают в свои алгоритмы управления кризисами элемент времени на проверку
По ее словам, дипфейки действительно формируют атмосферу недоверия между государствами, что напрямую отражается на международной безопасности. «Их сила — в скорости, вирусности и эмоциональном воздействии», — подчеркивает эксперт.
В этих условиях противодействие дипфейкам в России становится долгосрочной задачей в сфере национальной безопасности, требующей конкретных законодательных решений. Не менее важно повышать цифровую грамотность граждан и развивать сотрудничество с ключевыми партнерами по БРИКС и Шанхайской организации сотрудничества (ШОС), резюмирует политолог.
Ответ России должен быть системным: развитие технологий детекции и маркировки контента на уровне государства, поддержка независимых каналов верификации информации на международном уровне и на уровне СМИ