Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
В 2021 году в киберпространстве стал заметен новый способ обмана — дипфейки, или цифровые копии известных персонажей. Эксперты считают, что со временем подмена личности станет еще более изощренной.
Deepfake (дипфейк) — это, по сути, синтез изображения, основанный на искусственном интеллекте. Нейросети изучают реальные фото и видео объекта, а потом создают «двойника».
Первый известный дипфейк появился в 2017 году, когда в интернете получил распространение порноролик якобы с участием актрисы Галь Гадот. В реальности лицо актрисы «подставили» к чьему-то телу как раз с помощью этой технологии. Статистика и дальше остается пикантной: 96% «дипфейкового» видео — порнографическое, с участием звезд.
Самое известное нейтральное фейк-видео — в котором миллиардер Илон Маск якобы исполняет песню «Трава у дома» группы «Земляне». В TikTok недавно большое число просмотров набрал поддельный Том Круз, чье лицо с помощью deepfake наложил на свое один из пользователей. На нескольких видео он играл в гольф, показывал фокус с монеткой и рассказывал о встрече с Михаилом Горбачевым.
В начале этого года deepfake-копия появилась у основателя IT-компаний Flocktory и Dbrain Дмитрия Мацкевича. Мошенники выпустили два видео, в которых он рассказывал о системе заработка на основе искусственного интеллекта, приглашая на мастер-классы. Сам Мацкевич в комментариях к многочисленным публикациям по этой теме сообщал, что даже «благодарен такому пиару».
Отсутствие четкой налаженной схемы распознавания фейковых цифровых личностей способствует распространению этого вида мошенничества. В прошлом году Microsoft представила разработку, которая должна бороться с дипфейками. Инструмент Microsoft Video Authenticator использует собственный алгоритм для определения подлинности какого-либо изображения или видеоролика. Однако пока компания не рассказывала об успехах его использования.
Летом прошлого года Amazon, Facebook (принадлежит Meta Platforms Inc., — компания признана экстремистской организацией в РФ, деятельность запрещена) и Microsoft даже организовали международные соревнования по распознаванию дипфейков Deepfake Detection Challenge. В тройке лидеров оказалась российская NtechLab. Распознаванием видеофейков в России занялось и МВД. В мае ведомство заключило контракт с московским АО «Научно-промышленная компания «Высокие технологии и стратегические системы» на разработку продукта для выявления сфабрикованных видеороликов. Сумма контракта составила 3,55 млн рублей, к 30 ноября 2021 года он должен быть исполнен.
В российском Центробанке прямо называют применение мошенниками технологии deepfake существенным риском, например при услуге дистанционного открытия счетов. О дипфейках уже успел высказаться и пресс-секретарь российского президента Дмитрий Песков. Он назвал их «страшной угрозой».
Тем не менее дипфейки могут нести и «разумное, доброе, вечное». Например, в Музее Сальвадора Дали во Флориде в честь 115-летия художника его цифровая копия рассказывала посетителям истории о своих картинах и жизни и даже разрешала сделать с собой селфи.
Мнения экспертов:
Владислав Тушканов, старший исследователь данных в «Лаборатории Касперского»:
— Чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне. С другой стороны, надо понимать, что самые известные дипфейки, например «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, были сделаны профессионалами в области видеоэффектов, а в последнем случае еще и с помощью профессионального актера — двойника Круза. Поэтому, хотя при наличии достаточного большого количества фотографий человека сделать дипфейк с ним не очень сложно, действительно качественные дипфейки всё еще требуют высокой квалификации и профессионализма.
Есть случаи, которые показывают, что простота использования технологий для манипуляции с видео и аудио может быть на руку преступникам. К примеру, в 2019 году злоумышленники создали голосовой дипфейк, чтобы выдать себя за руководителя компании в Великобритании, и таким образом смогли убедить сотрудника этой организации перевести на их счет €220 тыс.
Основной способ борьбы с дипфейками — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности. Нужно быть внимательным. Если вы столкнулись с видео или голосовой записью, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете, не стоит сразу верить. Нужно скептически относиться к любым слишком заманчивым предложениям и проверять данные в разных источниках, прежде чем предпринимать какие-то действия.
Подобного рода мошеннические схемы работают так же, как и любые другие, например когда вам сообщают о выигрыше в лотерею или о возврате несуществующих налоговых переплат. Смысл видео в таком случае лишь в том, чтобы привлечь внимание потенциальной жертвы и повысить уровень доверия. В результате злоумышленники, скорее всего, попытаются завлечь вас на мошеннический сайт, чтобы выманить деньги или личные данные. Чтобы представить уровень ущерба, можно обратиться к статистике: только за прошлый год, по нашим данным, продукты «Лаборатории Касперского» заблокировали более 400 млн переходов на мошеннические страницы.
Михаил Левитин, R&D директор Qrator Labs:
— Бороться deepfake-копиями непосредственно — бесполезно: раз уже есть такая технология, кто-то точно будет ее использовать. Однако пользователи могут постараться обезопасить самих себя. Во-первых, нужно помнить, что в наше время можно подделать живого человека в интернете, причем подделать динамически, «на ходу». Поскольку deepfake требует исходных данных для тренировки моделей, нужно постараться самостоятельно ограничить возможность собирать аудио- и видеоданные для ее тренировки (ограничить доступ к видеороликам со своим изображением, голосом). Правда, для публичных персон это практически невозможно. А чтобы обезопасить себя от фейковых роликов тех самых публичных персон, нужно просто ежедневно соблюдать правила информационной гигиены: всегда проверять, по каким ссылкам предлагается осуществить переход, обращать внимание на появление красных восклицательных знаков в браузерах, означающих, что соединение не защищено или опасно, и всегда критически относиться к подобным предложениям заработка.
С технической точки зрения такую подделку изготовить относительно легко квалифицированным специалистам, обладающим достаточным для тренировки модели набором исходных данных (аудио- и видеороликов). Если эту технологию пытаются использовать для подделки биометрии, от этого может спасти только многомодальность: одновременное применение нескольких видов биометрии. Например, deepfake-копии подделывают одновременно и биометрию по лицу, и голос. Это означает, что нужна как минимум еще одна модальность (вид биометрии), которая позволит подтвердить, реальный ли человек перед вами, или нет.
Ущерб от таких акций сложно оценить в количественном выражении, поскольку пока это «экзотика» — не массовая история. Потенциально с этим явлением можно бороться со стороны дата-центров. Для построения deepfake-модели и последующей записи ролика нужны большие вычислительные ресурсы, притом довольно специфичные (gpu, специализированные AI процессоры). Такие ресурсы можно найти в ЦОДах. И если дата-центры смогут хотя бы примерно отслеживать модели того, что пытаются считать на их ресурсах, это поможет вычислять подобного рода мошеннические схемы.