Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
Новый проспект
Статьи

Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты

Прочитано: 1549
Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
В 2021 году в киберпространстве стал заметен новый способ обмана — дипфейки, или цифровые копии известных персонажей. Эксперты считают, что со временем подмена личности станет еще более изощренной. 
Deepfake (дипфейк) — это, по сути, синтез изображения, основанный на искусственном интеллекте. Нейросети изучают реальные фото и видео объекта, а потом создают «двойника». 

Первый известный дипфейк появился в 2017 году, когда в интернете получил распространение порноролик якобы с участием актрисы Галь Гадот. В реальности лицо актрисы «подставили» к чьему-то телу как раз с помощью этой технологии. Статистика и дальше остается пикантной: 96% «дипфейкового» видео — порнографическое, с участием звезд. 

Самое известное нейтральное фейк-видео — в котором миллиардер Илон Маск якобы исполняет песню «Трава у дома» группы «Земляне». В TikTok недавно большое число просмотров набрал поддельный Том Круз, чье лицо с помощью deepfake наложил на свое один из пользователей. На нескольких видео он играл в гольф, показывал фокус с монеткой и рассказывал о встрече с Михаилом Горбачевым.

В начале этого года deepfake-копия появилась у основателя IT-компаний Flocktory и Dbrain Дмитрия Мацкевича. Мошенники выпустили два видео, в которых он рассказывал о системе заработка на основе искусственного интеллекта, приглашая на мастер-классы. Сам Мацкевич в комментариях к многочисленным публикациям по этой теме сообщал, что даже «благодарен такому пиару». 

Отсутствие четкой налаженной схемы распознавания фейковых цифровых личностей способствует распространению этого вида мошенничества. В прошлом году Microsoft представила разработку, которая должна бороться с дипфейками. Инструмент Microsoft Video Authenticator использует собственный алгоритм для определения подлинности какого-либо изображения или видеоролика. Однако пока компания не рассказывала об успехах его использования.

Летом прошлого года Amazon, Facebook (принадлежит Meta Platforms Inc., — компания признана экстремистской организацией в РФ, деятельность запрещена) и Microsoft даже организовали международные соревнования по распознаванию дипфейков Deepfake Detection Challenge. В тройке лидеров оказалась российская NtechLab. Распознаванием видеофейков в России занялось и МВД. В мае ведомство заключило контракт с московским АО «Научно-промышленная компания «Высокие технологии и стратегические системы» на разработку продукта для выявления сфабрикованных видеороликов. Сумма контракта составила 3,55 млн рублей, к 30 ноября 2021 года он должен быть исполнен.

В российском Центробанке прямо называют применение мошенниками технологии deepfake существенным риском, например при услуге дистанционного открытия счетов. О дипфейках уже успел высказаться и пресс-секретарь российского президента Дмитрий Песков. Он назвал их «страшной угрозой».

Тем не менее дипфейки могут нести и «разумное, доброе, вечное». Например, в Музее Сальвадора Дали во Флориде в честь 115-летия художника его цифровая копия рассказывала посетителям истории о своих картинах и жизни и даже разрешала сделать с собой селфи.

Мнения экспертов:

Владислав Тушканов, старший исследователь данных в «Лаборатории Касперского»:

— Чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне. С другой стороны, надо понимать, что самые известные дипфейки, например «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, были сделаны профессионалами в области видеоэффектов, а в последнем случае еще и с помощью профессионального актера — двойника Круза. Поэтому, хотя при наличии достаточного большого количества фотографий человека сделать дипфейк с ним не очень сложно, действительно качественные дипфейки всё еще требуют высокой квалификации и профессионализма. 

Есть случаи, которые показывают, что простота использования технологий для манипуляции с видео и аудио может быть на руку преступникам. К примеру, в 2019 году злоумышленники создали голосовой дипфейк, чтобы выдать себя за руководителя компании в Великобритании, и таким образом смогли убедить сотрудника этой организации перевести на их счет €220 тыс.

Основной способ борьбы с дипфейками — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности. Нужно быть внимательным. Если вы столкнулись с видео или голосовой записью, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете, не стоит сразу верить. Нужно скептически относиться к любым слишком заманчивым предложениям и проверять данные в разных источниках, прежде чем предпринимать какие-то действия.

Подобного рода мошеннические схемы работают так же, как и любые другие, например когда вам сообщают о выигрыше в лотерею или о возврате несуществующих налоговых переплат. Смысл видео в таком случае лишь в том, чтобы привлечь внимание потенциальной жертвы и повысить уровень доверия. В результате злоумышленники, скорее всего, попытаются завлечь вас на мошеннический сайт, чтобы выманить деньги или личные данные. Чтобы представить уровень ущерба, можно обратиться к статистике: только за прошлый год, по нашим данным, продукты «Лаборатории Касперского» заблокировали более 400 млн переходов на мошеннические страницы.

Михаил Левитин, R&D директор Qrator Labs:

— Бороться deepfake-копиями непосредственно — бесполезно: раз уже есть такая технология, кто-то точно будет ее использовать. Однако пользователи могут постараться обезопасить самих себя. Во-первых, нужно помнить, что в наше время можно подделать живого человека в интернете, причем подделать динамически, «на ходу». Поскольку deepfake требует исходных данных для тренировки моделей, нужно постараться самостоятельно ограничить возможность собирать аудио- и видеоданные для ее тренировки (ограничить доступ к видеороликам со своим изображением, голосом). Правда, для публичных персон это практически невозможно. А чтобы обезопасить себя от фейковых роликов тех самых публичных персон, нужно просто ежедневно соблюдать правила информационной гигиены: всегда проверять, по каким ссылкам предлагается осуществить переход, обращать внимание на появление красных восклицательных знаков в браузерах, означающих, что соединение не защищено или опасно, и всегда критически относиться к подобным предложениям заработка.

С технической точки зрения такую подделку изготовить относительно легко квалифицированным специалистам, обладающим достаточным для тренировки модели набором исходных данных (аудио- и видеороликов). Если эту технологию пытаются использовать для подделки биометрии, от этого может спасти только многомодальность: одновременное применение нескольких видов биометрии. Например, deepfake-копии подделывают одновременно и биометрию по лицу, и голос. Это означает, что нужна как минимум еще одна модальность (вид биометрии), которая позволит подтвердить, реальный ли человек перед вами, или нет.

Ущерб от таких акций сложно оценить в количественном выражении, поскольку пока это «экзотика» — не массовая история. Потенциально с этим явлением можно бороться со стороны дата-центров. Для построения deepfake-модели и последующей записи ролика нужны большие вычислительные ресурсы, притом довольно специфичные (gpu, специализированные AI процессоры). Такие ресурсы можно найти в ЦОДах. И если дата-центры смогут хотя бы примерно отслеживать модели того, что пытаются считать на их ресурсах, это поможет вычислять подобного рода мошеннические схемы. 

IT высокие технологии
Другие статьи автора Читайте также по теме
Ярослав Соковнин, основатель петербургского Делового клуба «Эталон», который объединяет более 200 собственников бизнеса, рассказал «Новому проспекту» почему многие российские предприниматели выбирают для переезда Турцию и за сколько шагов можно открыть свое дело в этой стране.

Оптимистичный сценарий развития российского IT-рынка в этом году — это его падение на 10%. При негативном развитии событий провал может превысить 20%. Перспективы отрасли в условиях санкций и геополитики выглядят туманными. А предлагаемые властями меры стабилизации удивляют разработчиков.

Компания «Портэнерго», крупный резидент порта в Усть-Луге и одна из структур холдинга «Сибур», споткнулась о склоку разработчиков компьютерной программы. Уже шесть лет она пытается доказать, что законно пользовалась ноу-хау для управления железнодорожной автоматикой. Но пока точка в деле не поставлена.


"Улыбка радуги" откроет в Петербурге 28 магазинов на месте точек ушедшей Watsons
05.07.2022
Япония ввела эмбарго на импорт российского золота и персональные санкции
05.07.2022
Setl Group заключил договор со Сбербанком на 5,5 млрд рублей для строительства ЖК Univer City
05.07.2022
Сайт IKEA не выдержал старта финальной распродажи товаров в России
05.07.2022
Владелец брендов Reserved, Cropp, Mohito и Sinsay переписал российский бизнес на компанию из ОАЭ
05.07.2022
За трое суток мирных жертв в Украине стало больше на 521 человека
04.07.2022
Смольный перезапускает "мусорную реформу" — подготовлена новая схема работы
04.07.2022
В Петербурге объявили довыборы в муниципалитеты
04.07.2022
В Херсонской области сформировали правительство и назначили главу - выходца из ФСБ РФ
04.07.2022
Министерство финансов РФ предлагает сократить 1,6 трлн рублей расходов по госпрограммам
04.07.2022
Закрытым из-за спецоперации аэропортам выделили почти 1,3 млрд рублей
04.07.2022
В Москве решили назвать в честь ЛНР участок возле британского посольства
04.07.2022
Lego и BMW включены в список для "параллельного импорта"
04.07.2022
Balagan на Приморском рынке. В Петербурге открывается новый фуд-холл
04.07.2022
Водэн
VEREN
RBI
Строительный трест
InveStoreClub
РосСтройИнвест
РКС
Решение
Прайм Эдвайс
Питер
Петрополь
Петромир
Pen&Paper
Neva Coffee
Первая мебельная
Пепелаев
RRT
Colliers
Ильюшихин
Илоранта
Календарь событий

Метки