Нейросети в современном мире очень быстро развиваются, в следствие этого они оказывают всё большее влияние на современное общество из-за того, что с их помощью всё легче работать почти во всех сферах деятельности — от учёбы до работы. В связи с этим злоумышленники начали использовать нейросети во вред другим людям.
Актуальность обусловлена ростом преступлений и правонарушений, совершаемых с помощью нейросетей.
Цель исследования — раскрыть как с помощью нейросетей можно причинить вред людям и какое наказание можно понести за это.
Задачи: рассказать, как с помощью нейросетей причиняют вред и ущерб людям, как можно это предотвратить и какое наказание понесут злоумышленники за вред и ущерб, причинённый ими же.
Значимость: с помощью данной статьи люди могут понять, как их могут обмануть, чтобы не понести материальный или моральный ущерб.
Нейросеть — программа, которая работает по аналогии с человеческим мозгом — обучается, ‹‹принимает решения››. Она состоит из множества ‹‹нейронов››, благодаря которым она и работает. В настоящее время нейросети не могут ‹‹думать››, как думают многие, они лишь собирают информацию из Интернета по запросу пользователя, сокращает её до оптимальных размеров — чтобы не терялась суть, но не было слишком много текста. Так же нейросети могут не только генерировать текст и решать задачи, но и делать музыку, рисовать картины и т. д., но он не может создать что-то новое или улучшить уже существующие картины, или музыку, или создаёт их подобие, но что-то новое нейросети создать не могут. В связи с этим стали появляться люди, которые начали это использовать для собственной выгоды либо для обмана людей.
Далее идут примеры как можно использовать нейросети для получения выгоды злоумышленниками и наказание за их неправомерное использование.
Создание и распространение контрафакта: если человек создаёт музыку, книгу или изображение в стиле автора оригинала с помощью нейросетей, продаёт и выдаёт за оригинал то, что создал, то это считается нарушением авторских и смежных прав.
Использование нелегального контента для обучения: если компания использовала для обучения своей нейросети пиратские базы данных с книгами, фильмами или музыкой без разрешения правообладателя, то это основание для иска. Пример — суды против Stability AI, Midjourney и DeviantArt от художников.
Нарушение лицензии сервиса: Используя коммерческую нейросеть (например, ChatGPT, Midjourney), вы соглашаетесь с ее правилами. Если вы нарушаете эти правила (например, генерируете контент в коммерческих целях, когда это запрещено тарифом), компания может заблокировать ваш аккаунт и подать иск о нарушении договора.
Наказание: в некоторых случаях возможна и административная (ст. 7.12 КоАП РФ) [1] и даже уголовная ответственность (ст. 146 УК РФ) [2] за плагиат в крупном размере.
Создание и распространение фейков (deepfakes):
— Политические фейки: Создание видео, где политик говорит то, чего он не говорил, чтобы повлиять на общественное мнение или выборы. Фейки об армии и государственных органах (ст. 207.3 УК РФ) [2]. По данным Судебного департамента при Верховном Суде РФ [4], в 2023 году по статье 207.3 УК РФ было осуждено более 680 человек.
— Клевета (диффамация): Создание компрометирующих фото или видео с участием конкретного человека (например, якобы он участвует в незаконных действиях). Это попадает под ст. 128.1 УК РФ «Клевета» [2]. Прямой официальной статистики, выделяющей дела о клевете, совершенные исключительно с помощью технологий deepfake или нейросетей, в России не публикуется. Такие случаи учитываются в общей массе дел по статье 128.1 УК РФ “Клевета” [2]. Однако резкий рост числа deepfake-материалов в мире и внимание правоохранительных органов к этому явлению дают понять, что этой технологией всё больше пользуются для клеветы.
Генерация запрещенного контента:
— Призывы к экстремизму, терроризму, разжигание ненависти. Публичные призывы к экстремизму, терроризму, разжигание ненависти (ст. 205.2, 280, 282 УК РФ) [2]. Прямой официальной статистики, детализирующей количество преступлений, совершенных исключительно с использованием технологий искусственного интеллекта (deepfake, генеративных нейросетей), не существует. Такие дела учитываются в общих массивах по соответствующим статьям УК РФ. Однако общая динамика и экспертные оценки указывают на рост технологизации противоправного контента.
Мошенничество и нарушение финансовой сферы
— Фишинговые кампании: Нейросети позволяют создавать грамотные и персонализированные письма для выманивания логинов, паролей и данных банковских карт. Это мошенничество (ст. 159 УК РФ) [2]. Официальной статистики по фишинговым компаниям с использованием нейронных сетей не существует, но это довольно распространённое явление. Мошенники с помощью нейросетей создают поддельные сайты, которые в точности копируют оригинальные.
— Голосовые фейки (Voice cloning): Мошенники могут клонировать голос человека (например, родственника) и позвонить с просьбой перевести деньги из-за «проблем». Это также подпадает под ст. 159 УК РФ [2]. По данным Центробанка РФ [5] (2023): Общий ущерб от дистанционного мошенничества в России составил ~14 млрд рублей
— Манипуляция на финансовых рынках: Создание фейковых новостей о компании через нейросети для искусственного изменения цены ее акций. ст. 185.3 УК РФ «Манипулирование рынком» [2]. По данным Судебного департамента при Верховном Суде РФ [4], в 2023 году по данной статье были осуждены 15 человек. Это итог по всем делам, независимо от способа совершения преступления.
Нарушение закона о персональных данных. Если вы используете нейросеть для обработки баз персональных данных (например, для анализа клиентов), вы должны делать это в соответствии с законом № 152-ФЗ «О персональных данных» [3]. Неправомерная обработка, передача данных в сервис, который не обеспечивает их надлежащую защиту, может привести к блокировке сайта и крупным штрафам от Роскомнадзора. Отдельной статистики по «ИИ-нарушениям» закона о ПДн нет, но общий тренд ясен: массовое внедрение нейросетей создает системные риски нарушения базовых принципов 152-ФЗ [3].
Неправомерный доступ к информации (взлом). Использование нейросетей для поиска уязвимостей в программном обеспечении, подбора паролей или обхода систем защиты (капч) является уголовным преступлением (ст. 272, 273 УК РФ) [2]. Прямой официальной статистики, детализирующей долю кибератак, в которых исключительно или ключевым инструментом выступали технологии искусственного интеллекта (ИИ), в России не публикуется. Такие инциденты учитываются в общих массивах преступлений по статьям 272, 273 УК РФ [2] и др. Однако аналитические отчеты ведущих компаний, специализирующихся на кибербезопасности, и заявления регуляторов фиксируют взрывной рост использования ИИ в арсенале злоумышленников.
Литература:
1. Кодекс об административных правонарушениях Российской Федерации (КоАП РФ) // КонсультантПлюс URL: https://www.consultant.ru/document/cons_doc_LAW_34661/ (дата обращения: 15.12.2025)
2. Уголовный кодекс Российской Федерации (УК РФ) // КонсультантПлюс URL: https://www.consultant.ru/document/cons_doc_LAW_10699/ (дата обращения: 15.12.2025)
3. Федеральный закон «О персональных данных» (152-ФЗ) // КонсультантПлюс URL: https://www.consultant.ru/document/cons_doc_LAW_61801/ (дата обращения: 15.12.2025)
4. Судебный департамент при Верховном Суде РФ // Судебный департамент при Верховном Суде РФ URL: https://cdep.ru (дата обращения: 15.12.2025)
5. Центральный банк Российской Федерации (ЦБ РФ) // Центральный банк Российской Федерации URL: https://cbr.ru (дата обращения: 15.12.2025)

