Отправьте статью сегодня! Журнал выйдет ..., печатный экземпляр отправим ...
Опубликовать статью

Молодой учёный

Deepfake и способы его распознавания

Научный руководитель
Юриспруденция
07.12.2025
Поделиться
Аннотация
В статье рассматриваются вопросы, связанные с влиянием искусственного интеллекта на развитие криминалистики. Проявлением подобной тенденции является создание и распространение «дипфейков», ставших особенно популярными в среде кибермошенничества и киберпреступности в целом. В статье раскрыты основные принципы работы дипфейк-технологий, сформулированы предложения по борьбе с их распространением, также выделены основные отличительные признаки, идентифицирующие наличие дипфейк-контента в информационном поле.
Библиографическое описание
Загурский, Я. Д. Deepfake и способы его распознавания / Я. Д. Загурский, С. Н. Когут. — Текст : непосредственный // Молодой ученый. — 2025. — № 49 (600). — URL: https://moluch.ru/archive/600/130908.


The article discusses issues related to the influence of artificial intelligence on the development of forensic science. This trend is manifested in the creation and dissemination of «deepfakes», which have become particularly popular in the context of cyber fraud and cybercrime. The article explores the fundamental principles of deepfake technology, provides suggestions for combating its spread, and highlights the key characteristics that identify the presence of deepfake content in the information landscape.

Keywords: artificial intelligence, IT technologies, deepfakes, forensics, cybercrime, cyberfraud, information protection, digitalization.

На рубеже XIX и XX столетий произошло зарождение и формирование криминалистики как фундаментальной науки, закладывающей принципы для формирования современной научно-исследовательской методологии в сфере раскрытия преступлений. В настоящее время криминалистика представляет собой не только дисциплину, направленную на разработку методов борьбы с преступностью, но и многоаспектную научную область, которая включает в себя: исследование закономерностей сбора, систематизации, аналитической обработки данных, оценку судебных доказательств и улик. Охватывает изучение механизмов возникновения и методов сбора информации о преступлениях, их участниках и обстоятельствах их совершения. [4]

Выделим этапы становления и развития криминалистики:

  1. Первый — становление криминалистики в дореволюционной России.
  2. Второй (1917–1930 гг.) — разработка и систематизация научных положений криминалистики, накопление эмпирического материала.
  3. Третий (1940–50-е гг.) — стал периодом активного формирования теоретических основ криминалистики.
  4. Четвертый (1960–80-е гг.) — характерно формирование и развитие методологии криминалистики.
  5. Пятый (с 1990-х гг.) — связан с распадом СССР, активным ростом преступности.

На сегодняшний момент времени одной из основных тенденций развития российского общества является повсеместная цифровизация всех сфер жизни и деятельности населения, как посредством введения государственных программ, таких как Национальный проект «Экономика данных, и цифровая трансформация государства», так и посредством распространения в открытых источниках инструментов искусственного интеллекта, перехода пользователей на электронный документооборот, развития социальных сетей.

Все вышеуказанное говорит о создании новой виртуальной реальности, в которой спроецированы ранее существовавшие, общественные, политические и финансовые институты, что также является сигналом о трансформации преступности в киберпреступность, которая с каждым годом увеличивает свои масштабы. По данным МВД, в 2024 году было совершено 84,8 % преступлений с использованием интернета, это четыре из пяти. Зарегистрировано 649,1 тысяч таких случаев, что превышает показатели предыдущего года на 23 %. [5]

Таким образом, вполне логично говорить о новом этапе развития криминалистики, связанным с значительным ростом кибермошенничества, одним из проявлений которого является распространение «дипфейков», как на уровне бытового мошенничества, так и в политико-пропагандистских целях, что имеет особую актуальность в условия проведения специальной военной операции.

На сегодняшний день можно привести многочисленные примеры противоправного использования дипфейк-технологий в России. Так, в сентябре 2021 г. пользователей Интернета удивил дипфейк — мошенники прорекламировали фейковые «Тинькофф Инвестиции», наложив на человека в кадре лицо основателя TCS Group Олега Тинькова. По голосу он не был похож на российского предпринимателя, да и визуально легко было понять, что это фейк. Другим примером может служить скандал, разгоревшийся вокруг главного исполнительного директора компании Dbrain Дмитрия Мацкевича. Мошенники сделали дипфейк-копию видео с рекламой Мацкевича, в котором он рассказывает об инвестициях с доходом в 360 % годовых, при этом ссылка под роликом вела на сайт, к которому Мацкевич не имел никакого отношения. Очевидно, что в результате подобных действий могли пострадать не только лица, попавшиеся на мошенническую уловку, но и сам Дмитрий Мацкевич, чья внешность и голос были использованы преступниками.

Термин «deepfake» ( «дипфейк») происходит от сокращенного английского сочетания «deep learning» («глубокое обучение») и «fake» («подделка»). По своей сути это технология синтеза медиаконтента с помощью алгоритмов искусственного интеллекта, преимущественно нейросетей. Главная задача «дипфейка» — перенести сгенерированные характеристики, такие как голос, мимика, внешний облик на существующую модель, которой могут быть как люди, так и животные и даже неодушевленные предметы. Последние две модели часто используются для создания развлекательного медиа контента в социальных сетях, однако злоумышленники зачастую данные реальных людей при создании фото и видео файлов, что может представлять угрозу безопасности личности, обществ и государству.

Достаточно долгое время эти технологии были известны лишь ограниченному кругу специалистов. Но в 2009 году появился фильм «Аватар», который был достаточно убедительной демонстрацией таких технологий. Затем, в 2014 году, с помощью аналогичных технологий молодая британская актриса Одри Хепберн, стала ключевой фигурой в рекламе шоколада — ее лицо было перенесено на лицо другой актрисы при помощи специализированного программного обеспечения, Одри Хепберн скончалась в 1993 году в возрасте 63 лет. В 2019 году вышел фильм «Ирландец», в котором лица актеров очень сильно были омоложены при помощи искусственного интеллекта. [6]

Технология создания дипфейков постепенно эволюционировала и совершенствовалась. Ещё несколько лет назад артикуляционная мимика и другие элементы синтезированных видео были заданы программным путем — в подавляющем большинстве случаев это требовало личного участия программиста, работавшего с каждым участком изображения, аудио и видео дорожки, сейчас же основную работу выполняют самообучающиеся нейросети, ускоряя и облегчая процесс создания дипфейков многократно. Они обучаются на сотнях или даже тысячах примеров лиц и голосов, с ними связанными. После этого ИИ показывает весьма впечатляющие результаты.

Процесс создания «дипфейка». Стоит отметить, что «дипфейки» бывают различными в зависимости от генерируемого контента, так в основе ложной информации может быть только аудио или только видео, а также полностью сведённые в один ряд аудио и видеодорожки. В целом процесс создания можно представить в следующем виде:

Сбор обучающих данных. Алгоритм получает сотни или тысячи изображений, или видеозаписей с лицом определенного человека, чтобы «научиться» особенностям его мимики, движений, ракурсов и освещения.

Генерация подделки. Сеть-генератор пытается создать поддельное изображение или видео, имитируя лицо нужного человека. Сеть-дискриминатор «оценивает» качество фейка и даёт обратную связь.

Постоянное обучение. В ходе многократного обрабатывания данных дипфейк становится всё более реалистичным — до тех пор, пока фейк невозможно отличить от оригинала без специального анализа.

Для того, чтобы создать убедительный дипфейк, требуются большие объемы видео, статические изображения, голосовые записи, а иногда даже сканирование головы реального актера с последующим анализом в качестве обучающих вводных данных. Стоит отметить, что «дипфейки» могут быть созданы с использованием различных по своей природе алгоритмов и технологий, что затрудняет разработку методики их выявления. В научной литературе практические вопросы использований при исследовании генеративного контента рассматриваются пока в наиболее общем виде. Каких-либо конкретных алгоритмов действий при исследовании дипфейка ученые не предлагают, чаще всего статьи заканчиваются обзором некоторых дипфейк-программ. Более того, пока специалисты пытаются разработать методические подходы к выявлению дипфейков, созданных при помощи одних нейросетей, появляются десятки новых, которые уже учли «ошибки» предыдущих разработчиков. [4]

При создании «дипфейков» наиболее часто встречаются 5 основных техник:

1. Face-swapping. «Пересадка» лиц. Обычно дипфейками именуют ролики, созданные с помощью этой техники.

2. Lip syncing. Буквальное значение «синхронизация губ». Губы объекта на видео двигаются синхронно с подменённой аудиодорожкой. Как дубляж.

3. Puppet master. Буквальное значение «кукловод». В идеале, полная передача характеристик исходного лица на лицо объекта. Такую технику использовали в фильме «Аватар» при создании «людей» племени Нави.

4. Face Synthesis and Attribute Editing. Буквальное значение «синтез лиц и редактирование атрибутов». Работа с одним лицом позволяет его состарить, омолодить, изменить цвет, причёску, дорисовать очки, шляпу и т. п.

5. Audio deepfakes. К этому разделу относятся всё, что связано с аудио, однако его условно можно разделить на 3 категории: искажение голоса, синтезаторы, клонировщики.

Актуальным и эффективным способом борьбы с распространением дипфейк-материалов, нарушающим права и свободы граждан, может стать разработка технологий искусственного интеллекта, направленных на выявление следов применения дипфейк-технологий. Так, уже существует механизм фактчекинга (англ. fact checking — проверка сообщений и выявления фейков), его основное предназначение — сдерживать распространение дипфейков посредством инструментов оперативного тестирования информационных сообщений, аудио и видеозаписей на предмет их подделки, доступных не только медиаплатформам, но и частным лицам, просматривающим ту или иную информацию, а также пересылающим ее другим пользователям. [5] Вместе с тем, необходимо развитие программных платформ и инструментов фактчекинга, применение которых должно быть бесплатным, простым, не требующим специального образования и серьезных специальных навыков в сфере IT-технологий. Наряду с фактчекингом, необходимо создание автоматизированных инструментов для обнаружения дипфейков, способных определить дату, время и происхождение содержимого дипфейка, а в случае наличия признаков потенциальной опасности — остановить их размещение. Целесообразно в социальных сетях и мессенджерах ввести обязательное обозначение создателями генерируемого контента, а также о применении искусственного интеллекта при создании определенного материалов. Также необходимо создать нормативную базу, предусматривающую ответственность за создание и распространение дипфейк-материалов, которые могут нанести ущерб интересам личности, общества и государства.

И все же, как обнаружить дипфейк-контент. Несмотря на стремительное развитие технологий создания генерируемого контента, постоянно повышающих его качество, дипфейки нельзя назвать совершенными. Они обладают рядом характеристик-маркеров, которые выдают применение искусственного интеллекта, именно их обнаружение может позволить пользователям, не имеющим специальных навыков в сфере IT-технологий и искусственного интеллекта защитить себя от злоумышленников, распространяющих дипфейки.

Неправдоподобные глаза. Сгенерированные компьютером лица часто имеют глаза разного цвета. В реальной жизни это явление встречается крайне редко. Также как правило разное расстояние от края радужной оболочки до центра зрачка, полное отсутствие бликов в глазах, из-за чего взгляд выглядит тусклым и неживым, редкое моргание или его полное отсутствие.

Тени и пятна на лице. Еще одна проблемная зона при генерации изображений — границы щек и носа. При наложении маски на лицо реального человека возникают затемнения по внешнему контуру щек, на крыльях носа, по краям переносицы.

Неестественный тон кожи . Неравномерный тон или отличие в оттенках лица и других частей тела (например, шеи, рук) — еще одна отличительная черта поддельных фото и видео.

Не прорисованные зубы. Каждый зуб не прорисовывается в отдельности, а зубной ряд выглядит как сплошное белое пятно. Чаще встречается в дипфейках первого поколения. Современные программы научились более детально воссоздавать элементы лица, включая зубной ряд.

Нарушение пропорций тела. Как правило, речь идет об изменении масштабов лица. Происходит из-за того, что для воссоздания изображения используется видео с камер, которые установлены под разными углами.

Разное качество участков видео. Если лицо на видео имеет низкое качество, в сравнении с другими элементами, это повод заподозрить дипфейк. Такое встречается, если к телу одного персонажа «прикрепили» голову другого.

Отсутствие синхронизации между речью и движением губ. Говорит о том, что на видео заменили оригинальный текст, а голос, похожий на героя ролика, был сгенерирован при помощи искусственного интеллекта. Также подделку может выдать мимика, не соответствующая смыслу сказанного.

Разное освещение в соседних кадрах . Если вы заметили изменения освещения на протяжении одного ролика, это повод усомниться в его подлинности. Есть вероятность, что видео склеили из нескольких разных файлов.

Таким образом, можно сделать вывод, создают и используют в своих вредоносных целях всё большее количество злоумышленников. В настоящий момент требуется создание нормативно-правовой базы, предусматривающей ответственность за создание и распространение дипфейк-материалов. Кроме того, необходимо повышать цифровую грамотность пользователей, для того чтобы люди научились распознать дипфейк.

Правоохранительным органам необходимо направить свои усилия на снижение количества распространяемых дипфейков, с целью защиты интересов граждан Российской Федерации и российского общества в целом.

Литература:

1. Федеральный закон «О контроле за деятельностью лиц, находящихся под иностранным влиянием»: Постановление Правительства Российской Федерации от 22.11.2022 № 2108 // [Электронный ресурс] КонсультантПлюс: сайт. URL: https://www.consultant.ru/document/cons_doc_LAW_421788/ (Дата обращения 10.09.2025)

2. Федеральный закон «О противодействии экстремистской деятельности»: № 114-ФЗ: принят Гос. Думой 27 июня 2002 года: одобрен Советом Федерации 10 июля 2002 года: послед. ред. // [Электронный ресурс] КонсультантПлюс: сайт. URL: https://www.consultant.ru/document/cons_doc_LAW_37867 (Дата обращения 11.08.2025)

3. Федеральный закон «О средствах массовой информации»: Закон Российской Федерации от 27.12.1991 № 2124–1: ред. от 13.06.2023 // [Электронный ресурс] КонсультантПлюс:сайт.URL:https://www.consultant.ru/document/cons_doc_LAW_1511 (Дата обращения 09.07.2025)

4. Иванов В. Г., Игнатовский Я. Р. Deepfakes: перспективы применения в политике и угрозы для личности и национальной безопасности // Вестник Российского университета дружбы народов. Серия «Государственное и муниципальное управление». — 2020. — № 4. — С. 379–386.

5. Капитонова Е. А. Шантаж «нюдсами» и смежные деяния: проблемы уголовно-правовой квалификации // Уголовное право. — 2021. — № 6. — С. 19–27.

6. Киселёв А. С. О необходимости правового регулирования в сфере искусственного интеллекта: дипфейк как угроза национальной безопасности // Вестник Московского государственного областного университета. Серия «Юриспруденция». — 2021. — № 3. — С. 54–64.

7. Клюева А. А., Белов Д. А. Актуальное правовое исследование deepfake-технологий и новые вызовы для российской правовой системы // Вопросы российской юстиции. — 2021. — № 14. — С. 601–609.

Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью

Молодой учёный