В 2025 году дипфейки стали почти неотличимы от реальности, и дальше будет только хуже
В 2025 году дипфейки стали почти неотличимы от реальности, и дальше будет только хуже
3 часа назад 46 Источник изображения: Tom Kotov / unsplash.com

За 2025 год качество дипфейков — создаваемых при помощи искусственного интеллекта медиафайлов — значительно повысилось. Лица, голоса и движения тела, которые ИИ генерирует, имитируя реальных людей, превзошли ожидания многих экспертов; эти материалы всё чаще используются, чтобы обманывать людей, предупреждает Gizmodo.

Во многих повседневных ситуациях, будь то видеозвонки низкого разрешения или медиаконтент в соцсетях, качество ИИ-дипфейков уже достаточно высоко, чтобы обмануть простых людей, которые не являются экспертами. Качеством всплеск дипфейков не ограничивается: в 2023 году таких материалов было 500 тыс., а в 2025 году их стало около 8 млн, подсчитали в DeepStrike, и темпы роста составляют около 900 % в год.

Резкому росту показателей способствовали несколько технических прорывов. Во-первых, генерируемые ИИ материалы отличаются согласованностью по времени: люди в кадре правдоподобно движутся, люди легко узнаются, а содержание видео остаётся осмысленным в каждом кадре. Модели отделяют информацию, связанную с представлением личности человека, от информации о движении: одно и то же движение может сопоставляться с разными личностями, а одна и та же личность — с несколькими типами движений. Изображения лиц не мерцают, не искажаются и не имеют деформаций, которые раньше явно указывали на дипфейки. 

Во-вторых, качество клонирования голоса уже преодолело условный порог неразличимости. Чтобы создать убедительную имитацию голоса, достаточно нескольких секунд — у клона будут естественная интонация, ритм, акцент, эмоции, паузы и даже шум дыхания. И это огромное пространство для крупномасштабного мошенничества. Субъективные признаки, которые раньше выдавали синтетические голоса, в значительной степени исчезли.

В-третьих, технический барьер для работы с генераторами контента, снизился практически до нуля — с OpenAI Sora 2 и Google Veo 3, а также с моделями некоторых стартапов любой желающий может сформулировать идею, составить подробный сценарий при помощи OpenAI ChatGPT или Google Gemini и в считанные минуты сгенерировать качественный контент. Автоматизировать весь процесс можно при помощи ИИ-агентов. В итоге возможность создавать связные дипфейки с сюжетами в больших масштабах уже демократизировали.

Источник изображения: Mark Farías / unsplash.com

Источник изображения: Mark Farías / unsplash.com

Выявлять неотличимые от реальных людей дипфейки в социальных сетях становится крайне непросто, тем более, что внимание пользователей платформ уже фрагментировано, и материалы распространяются быстрее, чем их можно проверить. Дипфейки используются для дезинформации, преследования людей и финансовых махинаций, и люди не успевают понять, что вообще происходит.

Траектория на следующий год представляется очевидной — дипфейки движутся в сторону генерации контента в реальном времени. Видеоролики максимально точно имитируют нюансы внешности человека и оказываются способны обходить системы обнаружения. Граница смещается от статического визуального реализма к согласованности по времени и поведению — контент будет появляться в реальном времени, и предварительно отрисованными клипами дело уже не обойдётся. Результат выйдет за рамки простого узнавания человека — персонажи на роликах будут вести себя как их реальные прототипы. Участники видеозвонков смогут синтезироваться в реальном времени — их лица, голоса и манеры будут мгновенно адаптироваться к запросам, и вместо записанных видеороликов мошенники станут показывать своим жертвам подобные ИИ-аватары.

Субъективное восприятие уже не поможет людям защититься от подобных дипфейков — потребуются технические средства защиты, например, криптографическая подпись подлинных материалов и маркировка средств ИИ-редактирования. Тщательного изучения картинки на уровне пикселей может оказаться уже недостаточно.

Как за пять минут научиться различать дипфейки: объяснили эксперты
В исследовании без какой-либо подготовки люди правильно распознавали лица, созданные ИИ, лишь в 31% случаев, а особенно внимательные участники — в 41%.

Ученые из университетов Рединга, Гринвича, Лидса и Линкольна выяснили, что всего пятиминутная краткая тренировка существенно повышает способность людей отличать настоящие лица от сгенерированных искусственным интеллектом, что особенно актуально в наша время. Исследование опубликовано в журнале Royal Society Open Science.

Обнаружение поддельных лиц

В эксперименте участвовали 664 человека, которым предлагалось определить, какие изображения являются реальными, а какие созданы программой StyleGAN3, одним из самых передовых инструментов генерации лиц. Без подготовки люди с обычными способностями правильно распознавали дипфейки лишь в 31% случаев, а особенно внимательные участники — 41%. Для сравнения, если участники угадывали вслепую, точность была около 50%.

После пятиминутного инструктажа, который объяснял, на какие ошибки компьютерной генерации обращать внимание, точность участников заметно возросла. Им показывали типичные признаки дипфейков: странные линии волос, странное освещение, необычное количество зубов, легкую асимметрию глаз или слишком ровные контуры лица. Особенно внимательные участники после обучения достигли 64% точности, а участники с обычными способностями — 51%.

«Сгенерированные компьютером лица представляют реальную угрозу безопасности. Их используют для создания фальшивых аккаунтов в соцсетях, обхода систем проверки личности, подделки документов и фейковых новостей.

Современные технологии искусственного интеллекта делают лица настолько реалистичными, что иногда люди воспринимают их как более настоящие, чем реальные», — отметила доктор Кэти Грей из Университета Рединга, ведущий автор исследования.

Как работает тренировка

Фото: The Royal Society 2025
На изображении показаны четыре категории лиц: лица, созданные ИИ, женские (a), лица, созданные ИИ, мужские (b), настоящие женские лица (c) и настоящие мужские лица (d). В нижнем ряду (e) приведены примеры лиц, созданных ИИ, использованных в обучающем упражнении. На этих примерах выделены ошибки рендеринга, чтобы участники могли их заметить. Например, на первом изображении волосы выглядят неестественно, а на втором — вместо четырех зубов показаны только три.

Ключевой аспект тренировки заключается не в том, чтобы участники просто видели больше лиц, а в том, чтобы научиться замечать характерные особенности генерации. В инструкции рассказывалось, что компьютер часто допускает мелкие, но заметные несоответствия: 

  • неестественные волосы – отдельные пряди могут «плавать» в воздухе, а прическа иногда выглядит размыто или нарушает форму головы.
  • странные зубы или рот – зубы могут быть неправильного размера или формы, а улыбка выглядит неестественной.
  • асимметрия глаз и лица – глаза, брови и уши могут быть слегка искажены или не совпадать по высоте.
  • искажения фона и теней – предметы за человеком или вокруг головы иногда «плывут» или имеют странные контуры.
  • неестественная кожа – переходы света и тени на лице могут быть слишком гладкими, без естественных морщин или пятен.
  • микромимика – движения губ, глаз и щек иногда не синхронизированы с выражением лица или с речью.

«Наша процедура обучения короткая и легко реализуемая», — добавила доктор Грей. «Она показывает, что сочетание базовой тренировки с естественными навыками суперраспознавателей помогает решать реальные задачи, такие как проверка личности онлайн».

Обучение одинаково улучшало результаты как у обычных участников, так и у суперраспознавателей, что говорит о том, что люди используют разные визуальные подсказки при распознавании синтетических лиц. Это открывает путь к созданию адаптивных методов обучения и подготовки специалистов, способных выявлять дипфейки в профессиональной среде.

Применение результатов

Результаты исследования имеют важное значение для онлайн-безопасности. Создание фальшивых профилей, использование дипфейков для мошенничества или обмана систем проверки личности становится все более распространенным. Тренировка позволяет людям быстрее идентифицировать поддельные лица, снижая риск обмана и повышая общую цифровую грамотность.

Исследователи также отмечают, что навыки людей, которые очень внимательны к лицам могут быть полезны в сочетании с программами автоматического выявления дипфейков.

«В будущем мы хотим изучить, насколько долго сохраняется эффект обучения и как подготовленные люди могут дополнить инструменты ИИ, создавая более надежные системы защиты», — подчеркнула доктор Грей.

Практические советы

  • Перед тем как доверять изображению или профилю, проверьте фон и свет – слишком ровная или размытая среда может быть сигналом дипфейка.

  • Обратите внимание на детали лица, которые трудно сымитировать ИИ: ресницы, уши, зубы, родинки.

  • Используйте сравнение с другими фото того же человека: несовпадения в структуре лица или особенностях внешности могут быть признаками подделки.

  • Пробуйте медленно просмотреть короткое видео человека, если есть возможность. Движения, моргание и мимика часто выдают подделку.

Ученые также подчеркивают, что даже пять минут подготовки помогают развить внимательность и тренируют глаз на обнаружение распространенных ошибок визуализации, что поможет распознавать реальность от фейка.

Цифровой двойник: как распознать дипфейк и не стать жертвой мошенников 

Технологии искусственного интеллекта подарили миру не только умных помощников и реалистичных роботов, но и новую, почти неотличимую от реальности форму мошенничества — дипфейки. Поддельные видео- и аудиозаписи, где знакомый человек с экрана умоляет о срочной финансовой помощи, становятся инструментом массового обмана. Чтобы понять, как защитить себя и своих близких от этой угрозы, мы обратились к Василию Шутову, преподавателю кафедры КБ-1 «Защита информации» РТУ МИРЭА.

Дипфейк — это продукт машинного обучения, где нейросеть, изучив тысячи изображений и записей голоса конкретного человека, учится генерировать его цифровой аватар. «Мошенники используют видео, фото и информацию, которую находят в открытых источниках — сайтах, социальных сетях, различных обучающих видеозаписях», — поясняет Василий Шутов.

Чем больше цифрового материала человек оставляет о себе в сети, тем качественнее и правдоподобнее получится его дипфейк-двойник. Искусственный интеллект накладывает смоделированные черты лица и голос на тело актера, создавая иллюзию, которую мозг воспринимает как подлинную. «Изображение и звук настолько реалистичны, что отличить его от записи реального пользователя довольно сложно», — предупреждает эксперт.

Мифы и реальность: почему нас обманывает собственный мозг

Главное заблуждение жертв дипфейков — уверенность в том, что их никогда не обманут. Многие считают, что всегда смогут отличить подделку по неестественности изображения. Однако современные технологии уже преодолели этот барьер. «Технологии не стоят на месте и, к сожалению, качество поддельных изображений и голосовых сообщений тоже постоянно улучшается, так что распознать их становится все сложнее», — констатирует Шутов.

Ключевой инструмент мошенников — это не технологическое превосходство, а психологическая манипуляция. Они создают ситуацию, где важность и срочность просьбы (например, «помоги, я в беде, нужны деньги на лечение») подавляют критическое мышление. Человек, видя на экране панику близкого, действует на эмоциях, а не на логике. Именно на этот человеческий фактор и делают ставку злоумышленники.

Практическое применение: инструкция по цифровой самозащите

Защита от дипфейков — это многоуровневая система, начинающаяся с профилактики. Первое правило — цифровая гигиена. Ограничьте объем личной информации в открытом доступе, особенно видео, где вы говорите прямо в камеру.

Если вы получили подозрительное сообщение с просьбой перевести деньги, будьте особо бдительны: «Обращайте внимание на частоту моргания глаз, совпадение звуков и открывания рта человека на видео, а также на освещение, тени и предметы вокруг», — советует эксперт. Тусклые, плохо прорисованные глаза и зубы, размытые контуры — все это тревожные сигналы. Используйте видеоредакторы, чтобы увеличить изображение и рассмотреть детали. Самый надежный способ проверить подлинность в реальном времени — позвонить обратно и задать контрольный вопрос, который не был запрограммирован в сценарии мошенников.

Никогда не переходите по ссылкам из таких сообщений и не вводите данные на незнакомых сайтах. Проверяйте адресную строку браузера на наличие значка «замка», означающего SSL-сертификат. «Позвоните в организацию или человеку, от имени которых пришло сообщение, и уточните информацию», — это золотое правило, которое спасет ваш бюджет.

0 комментариев
Архив