Мошенники в своих схемах научились использовать нейросети и дипфейки. Об этом 13 мая заявил РИА Новости ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов.

Иван Шилов ИА REGNUM
Мошенник

«Генеративные сети, связанные с картинками, голосом могут быть использованы, чтобы синтезировать доказательства того, чего не было, — дипфейков. И они вполне могут использоваться в мошенничестве», — сказал Тушканов.

Он отметил, что были случаи, когда злоумышленники создавали дипфейки для написания постов в соцсетях со ссылкой на мошенническую страницу.

По его словам, мошенники постоянно эволюционируют, потому что люди уже привыкли не доверять картинкам. Поэтому теперь начали создавать дипфейковые видео.

Эксперт подчеркнул, что на руку мошенникам играет и ажиотаж вокруг нейросетей. Например, при скачивании клиента ChatGPT люди получают «троян».

По мнению Тушканова, законодательно запрещать искусственный интеллект — не выход. «Нужно не регулировать саму технологию, а правильно её применять», — добавил он.

Как ранее сообщало ИА REGNUM, писатель, историк Юваль Харари заявил, что искусственный интеллект несёт угрозу для человеческой цивилизации, несмотря на то, что его можно использовать и в благих целях. По его словам, искусственный интеллект способен самостоятельно создавать уникальные музыку, тексты и изображения.