МОСКВА, 4 июл — ПРАЙМ. Мошенники научились использовать искусственный интеллект для обмана граждан в телефонных разговорах. Какие схемы используют кибераферисты, рассказал агентству "Прайм" эксперт направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко. 

Криптовалюта

Мошенники повторно обманывают россиян, пострадавших от фейковых криптобирж

Клонирование голоса

По словам специалиста, в данном случае речь идет не столько об искусственном интеллекте, сколько о нейросети с машинным обучением на основе искусственного интеллекта.

"Благодаря имеющимся технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота", — сказал эксперт.

Схема обмана та же: ИИ звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП. Кузьменко посоветовал сразу перезвонить своим родным и знакомым, от которых и была получена просьба. Еще лучше придумать кодовое слово, для своих, чтобы можно было понять: звонят родные, а не мошенники. 

Логотип Тинькофф Банка

"Тинькофф банк" выяснил, кто доверяет мошенникам чаще всего

Имитация образа

Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Технология называется "дипфейк" (от англ. deepfake — "подделка". — Прим. ред.).

За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.

Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков от "родственников", например, пожилым людям, предупредил эксперт Роскачества.

Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей.

Как распознать дипфейк:

 

  • Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций.
  • Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта.
  • Звук опережает картинку или не успевает за движениями персонажа.

 

Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. По словам Кузьменко, для обычного пользователя лучший способ защититься от дипфейков — быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.