19-летняя москвичка Анастасия искала информацию об известном блогере, жене рэпера Джигана Оксане Самойловой. Наткнулась на Telegram-канал с лаконичным названием «Оксана Самойлова». Подобных каналов в мессенджере было много, вспоминает девушка, но она остановилась на том, где было объявление о лёгком заработке по нехитрой схеме.

ИА Регнум

«Заработок путём вложения денег для покупки в Китае и последующей перепродажи в России оборудования для майнинга. Схема была простая: чем больше вкладываешь, тем больше зарабатываешь», — рассказала Анастасия.

Девушку предложение заинтересовало. Сначала она перевела 90 тысяч рублей. При этом Анастасию не смутило, что адресатом перевода была не Оксана Самойлова, а некий Мехроджиддин, на которого зарегистрирована банковская карта.

«Потом она перевела ещё 50 000 рублей, но операцию заблокировал банк. Тогда мошенники предложили перевести деньги на другую карту, зарегистрированную на Адолат Х. Анастасия перевела 60 тысяч и попросила предоставить отчёт. После этого переписка была удалена, а аккаунт с именем Оксана Самойлова перестал отвечать», — рассказал ИА Регнум источник, знакомый с ситуацией.

Анастасия обратилась в полицию с заявлением о мошенничестве. Проводится проверка.

Редакция ИА Регнум нашла тот самый аккаунт и решила узнать, как фейковая «Оксана Самойлова» убеждает жертв расстаться с деньгами. Через пару сообщений после знакомства мошенники раскрыли схему, где было расписано, какой доход гарантирует та или иная вложенная сумма денег.

Для убедительности мошенники скинули видео с паспортом Самойловой, на фоне которого якобы она сама говорит: «Вот мой паспорт. Я Оксана. Даю стопроцентную гарантию, что вы заработаете без каких-либо рисков».

Подобные фейковые каналы в Telegram ведутся и от имени других знаменитостей. В этом «авторам» помогает технология дипфейк — «глубокого обмана».

От порно до «воскрешения родных»

Дипфейк — методика синтеза изображения или голоса, основанная на искусственном интеллекте. Используя данные, человека «воссоздают» в цифровом пространстве.

Как и следовало ожидать, технологию взяли на вооружение кибермошенники.

15 августа 2024 года Банк России выпустил предупреждение, что ситуация с мошенническим использованием дипфейков угрожающе развивается. С помощью нейросетей злоумышленники синтезируют реалистичное изображение и голос человека, от имени которого жертв вынуждают расстаться с деньгами.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса. Полученный образ рассылают друзьям и родным человека, с просьбой перевести на определенный счет деньги. Нередко также мошенники создают дипфейки работодателей, сотрудников государственных органов.

Массовое использование технологии началось еще в 2017 году. Тогда появились сгенерированные искусственным интеллектом порноролики со звёздами музыкальной сцены и Голливуда — Тейлор Свифт и Скарлетт Йоханссон. На сегодняшний момент в Сети выявлено более 280 тысяч подобных видео — с разными героями и героинями.

В то же время голосом «Жириновского» с россиянами разговаривает автомобильный навигатор, другие узнаваемые голоса участвуют в озвучке видеоигр и даже записывают подкасты. Кроме того, нейросети используют для утешения близких умерших людей, «воскрешая» их в виртуальной реальности.

В 2017 году американский журналист Джеймс Влахос, узнав, что у его престарелого отца рак в последней стадии, начал записывать с ним интервью. Получилась практически книга — более 200 страниц: истории из жизни, семейные байки, анекдоты, песни и афоризмы. Не будучи программистом, Влахос воспользовался общедоступными инструментами по созданию чат-ботов (PullString), чтобы продолжить «общаться» с отцом после его кончины.

Актриса Ким Кардашьян получила в подарок от мужа на юбилей встречу с отцом, который скончался за 17 лет до этого. Голографический Роберт Кардашьян выглядел как живой, эмоционально говорил, живо двигался и был невероятно похож на покойного.

Впрочем, нельзя сказать, чтобы подобные вещи были востребованы: психологически довольно сложно включиться в общение с «фейковым» близким человеком.

Еще одна легальная сфера использования дипфейков — рекламный бизнес и кинематограф. Товарищ Сталин вполне может заговорить в современном фильме практически своим голосом. А в июле в интернете появился «политический диспут» между Владимиром Лениным и Николаем II — собеседники эмоционально обсуждали ситуацию на фронтах Первой мировой.

Следите за качеством и просьбами собеседника

Сегодняшние нейросети и специальные программы позволяют создать дипфейк по записи голоса буквально за 3–5 секунд. Достаточно нескольких голосовых сообщений в мессенджере или даже видео из леса, где герой собирает грибы.

Руководитель направления сервисов защиты облачного провайдера Nubes (НУБЕС) Александр Быков в беседе с ИА Регнум рассказал, как распознать дипфейк — на что следует обращать внимание в первую очередь.

Если цель создателей — реклама товара или услуги, это становится очевидно при просмотре контента, отмечает Быков: «честные» дипфейки не пытаются запутать пользователя, рассчитывая скорее удивить и привлечь внимание.

Насторожиться нужно, когда вас начинают побуждать к немедленным действиям, акцентируя внимание на эмоциях: перевести куда-то деньги, ввести персональные данные, сообщить конфиденциальную информацию. Так всегда работают мошенники: дипфейк в данном случае — лишь еще один инструмент.

«Отличить мошеннические дипфейки можно также по качеству контента. У злоумышленников оно, как правило, низкое, это видно по задержкам в видеопотоке и появляющимся на изображении артефактам», — отмечает собеседник ИА Регнум.

В свою очередь эксперт по информационной безопасности компании Axenix Евгений Качуров отмечает, что дипфейк легче всего распознать в режиме реального времени. Например, если вам позвонил «знакомый» или «родственник» с нетипичной для него просьбой, не стоит сразу её выполнять — лучше перезвонить собеседнику самостоятельно, а если он не отвечает — связаться с его близкими и уточнить ситуацию, советует Качуров в беседе с ИА Регнум.

Примечательно, что мошеннические дипфейки зачастую используются именно для атак на россиян, говорит специалист по информационной безопасности «Ростелекома» Дмитрий Строганов. Его брат живёт в Японии, работает программистом и ни разу даже не слышал о подобных случаях в стране.

«Понятно, что идёт целенаправленная атака кибермошенников на Россию. По времени она совпала с началом боевых действий на Украине», — заявил Строганов ИА Регнум.

Реальность и виртуальность смешиваются

Антрополог Марина Батасова в беседе с ИА Регнум сформулировала социальную опасность дипфейков. По её словам, переубедить человека может только другой человек — часто факты и теоретические доводы оказываются бессильны.

«Опыт и эмоции другого человека — самый сильный аргумент. Когда мы слышим сухие сводки с линии боевого соприкосновения, они не затрагивают нашу личность. А вот рассказы живых людей, как им пришлось под обстрелом в спешке покидать родной дом, вынося на носилках парализованную бабушку и посадив на плечо кота, пробирают насквозь, остаются в памяти навсегда, пробуждают сочувствие и желание помочь», — рассказала Батасова.

В то же время мы привыкли верить документальным свидетельствам. Казалось, что мир стал прозрачным, теперь всё на виду. Но технологии могут запутать так, что кажущиеся документальными свидетельства очевидцев окажутся фейковыми. В этом случае мир переворачивается с ног на голову, отмечает антрополог: выясняется, что верить никому нельзя, люди перестают проявлять эмпатию, сочувствовать.

«Это касается личных звонков и сообщений от мошенников, из-за которых многие перестали брать трубку и откликаться на простые просьбы от знакомых.

Мне на днях прислал сообщение друг, которому нужно было положить 200 рублей на телефон: я засомневалась, но решила, что такой суммой могу пожертвовать даже для мошенников. А это и правда был хороший друг, у которого кончились деньги.

Складывается очень опасная ситуация, когда подрывается вера в человечество», — предупреждает собеседница ИА Регнум.

Сейчас общество находится лишь в самом начале процессов, когда смешиваются реальность и ее имитация. Несомненно, будут выработаны методы борьбы с мошенниками, в том числе технологические — уже ведётся работа над программным обеспечением, которое позволит вычислять дипфейки. А пока же всем нам остаётся быть бдительными и включать критическое мышление.