Злоумышленники стали использовать дипфейки для дистанционного устройства на работу и кражи корпоративных данных

Технологии т. н. «дипфейков» позволяют использовать ИИ-решения для создания ложных персонажей. С их помощью можно смоделировать видео или тембр голоса практически любого человека. По данным Федерального бюро расследований (ФБР), данные технологии стали часто практиковаться злоумышленниками для прохождения онлайн-собеседований при устройстве на удалённую работу.

За короткое время технологии создания дипфейков стремительно эволюционировали, но наблюдательные зрители всё равно могут разглядеть подмену, например, несоответствие движений губ произносимым словам или звуки кашля и чихания, не совпадающие с мимикой человека на видео.

По данным ФБР, с использованием дипфейков злоумышленники уже пытались устроиться на позиции, связанные с информационными технологиями и программированием, работой с базами данных и прочими вакансиями, так или иначе связанными с ПО. Некоторые из этих позиций предусматривают доступ к информации о клиентах бизнеса, финансовых данных, тем или иным базам или иной конфиденциальной информации, имеющей ценность на чёрном рынке. Компаниям и другим жертвам подобной активности в США рекомендуется обращаться в ФБР. Не исключено, что в России и окружающих её странах соответствующие технологии вскоре тоже найдут широкое применение.