Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
Новый проспект
Статьи

Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты

Прочитано: 1902
Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
В 2021 году в киберпространстве стал заметен новый способ обмана — дипфейки, или цифровые копии известных персонажей. Эксперты считают, что со временем подмена личности станет еще более изощренной. 
Deepfake (дипфейк) — это, по сути, синтез изображения, основанный на искусственном интеллекте. Нейросети изучают реальные фото и видео объекта, а потом создают «двойника». 

Первый известный дипфейк появился в 2017 году, когда в интернете получил распространение порноролик якобы с участием актрисы Галь Гадот. В реальности лицо актрисы «подставили» к чьему-то телу как раз с помощью этой технологии. Статистика и дальше остается пикантной: 96% «дипфейкового» видео — порнографическое, с участием звезд. 

Самое известное нейтральное фейк-видео — в котором миллиардер Илон Маск якобы исполняет песню «Трава у дома» группы «Земляне». В TikTok недавно большое число просмотров набрал поддельный Том Круз, чье лицо с помощью deepfake наложил на свое один из пользователей. На нескольких видео он играл в гольф, показывал фокус с монеткой и рассказывал о встрече с Михаилом Горбачевым.

В начале этого года deepfake-копия появилась у основателя IT-компаний Flocktory и Dbrain Дмитрия Мацкевича. Мошенники выпустили два видео, в которых он рассказывал о системе заработка на основе искусственного интеллекта, приглашая на мастер-классы. Сам Мацкевич в комментариях к многочисленным публикациям по этой теме сообщал, что даже «благодарен такому пиару». 

Отсутствие четкой налаженной схемы распознавания фейковых цифровых личностей способствует распространению этого вида мошенничества. В прошлом году Microsoft представила разработку, которая должна бороться с дипфейками. Инструмент Microsoft Video Authenticator использует собственный алгоритм для определения подлинности какого-либо изображения или видеоролика. Однако пока компания не рассказывала об успехах его использования.

Летом прошлого года Amazon, Facebook (принадлежит Meta Platforms Inc., — компания признана экстремистской организацией в РФ, деятельность запрещена) и Microsoft даже организовали международные соревнования по распознаванию дипфейков Deepfake Detection Challenge. В тройке лидеров оказалась российская NtechLab. Распознаванием видеофейков в России занялось и МВД. В мае ведомство заключило контракт с московским АО «Научно-промышленная компания «Высокие технологии и стратегические системы» на разработку продукта для выявления сфабрикованных видеороликов. Сумма контракта составила 3,55 млн рублей, к 30 ноября 2021 года он должен быть исполнен.

В российском Центробанке прямо называют применение мошенниками технологии deepfake существенным риском, например при услуге дистанционного открытия счетов. О дипфейках уже успел высказаться и пресс-секретарь российского президента Дмитрий Песков. Он назвал их «страшной угрозой».

Тем не менее дипфейки могут нести и «разумное, доброе, вечное». Например, в Музее Сальвадора Дали во Флориде в честь 115-летия художника его цифровая копия рассказывала посетителям истории о своих картинах и жизни и даже разрешала сделать с собой селфи.

Мнения экспертов:

Владислав Тушканов, старший исследователь данных в «Лаборатории Касперского»:

— Чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне. С другой стороны, надо понимать, что самые известные дипфейки, например «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, были сделаны профессионалами в области видеоэффектов, а в последнем случае еще и с помощью профессионального актера — двойника Круза. Поэтому, хотя при наличии достаточного большого количества фотографий человека сделать дипфейк с ним не очень сложно, действительно качественные дипфейки всё еще требуют высокой квалификации и профессионализма. 

Есть случаи, которые показывают, что простота использования технологий для манипуляции с видео и аудио может быть на руку преступникам. К примеру, в 2019 году злоумышленники создали голосовой дипфейк, чтобы выдать себя за руководителя компании в Великобритании, и таким образом смогли убедить сотрудника этой организации перевести на их счет €220 тыс.

Основной способ борьбы с дипфейками — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности. Нужно быть внимательным. Если вы столкнулись с видео или голосовой записью, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете, не стоит сразу верить. Нужно скептически относиться к любым слишком заманчивым предложениям и проверять данные в разных источниках, прежде чем предпринимать какие-то действия.

Подобного рода мошеннические схемы работают так же, как и любые другие, например когда вам сообщают о выигрыше в лотерею или о возврате несуществующих налоговых переплат. Смысл видео в таком случае лишь в том, чтобы привлечь внимание потенциальной жертвы и повысить уровень доверия. В результате злоумышленники, скорее всего, попытаются завлечь вас на мошеннический сайт, чтобы выманить деньги или личные данные. Чтобы представить уровень ущерба, можно обратиться к статистике: только за прошлый год, по нашим данным, продукты «Лаборатории Касперского» заблокировали более 400 млн переходов на мошеннические страницы.

Михаил Левитин, R&D директор Qrator Labs:

— Бороться deepfake-копиями непосредственно — бесполезно: раз уже есть такая технология, кто-то точно будет ее использовать. Однако пользователи могут постараться обезопасить самих себя. Во-первых, нужно помнить, что в наше время можно подделать живого человека в интернете, причем подделать динамически, «на ходу». Поскольку deepfake требует исходных данных для тренировки моделей, нужно постараться самостоятельно ограничить возможность собирать аудио- и видеоданные для ее тренировки (ограничить доступ к видеороликам со своим изображением, голосом). Правда, для публичных персон это практически невозможно. А чтобы обезопасить себя от фейковых роликов тех самых публичных персон, нужно просто ежедневно соблюдать правила информационной гигиены: всегда проверять, по каким ссылкам предлагается осуществить переход, обращать внимание на появление красных восклицательных знаков в браузерах, означающих, что соединение не защищено или опасно, и всегда критически относиться к подобным предложениям заработка.

С технической точки зрения такую подделку изготовить относительно легко квалифицированным специалистам, обладающим достаточным для тренировки модели набором исходных данных (аудио- и видеороликов). Если эту технологию пытаются использовать для подделки биометрии, от этого может спасти только многомодальность: одновременное применение нескольких видов биометрии. Например, deepfake-копии подделывают одновременно и биометрию по лицу, и голос. Это означает, что нужна как минимум еще одна модальность (вид биометрии), которая позволит подтвердить, реальный ли человек перед вами, или нет.

Ущерб от таких акций сложно оценить в количественном выражении, поскольку пока это «экзотика» — не массовая история. Потенциально с этим явлением можно бороться со стороны дата-центров. Для построения deepfake-модели и последующей записи ролика нужны большие вычислительные ресурсы, притом довольно специфичные (gpu, специализированные AI процессоры). Такие ресурсы можно найти в ЦОДах. И если дата-центры смогут хотя бы примерно отслеживать модели того, что пытаются считать на их ресурсах, это поможет вычислять подобного рода мошеннические схемы. 

IT высокие технологии
Другие статьи автора Читайте также по теме
Говорят, что для лучшего взаимодействия с ChatGPT надо в вопросах и задачах писать ему «пожалуйста». Так ли это? В каких вещах умный чат действительно поможет предпринимателю и как правильно ставить задачу, «Новый проспект» разбирался на практике.
Отечественные IT-разработчики после закрытия западных рынков попытались попасть в Африку, но наладить там бизнес удалось немногим. Теперь у экспортеров высоких технологий появилась новая, гораздо более близкая и понятная цель — страны СНГ, Казахстан и весь Азиатский регион.
У крупнейшего российского IT-холдинга России Fplus появились новые совладельцы: инвестиционная компания «Икс 2» миллиардера Олега Барабанова купила 19% бизнеса, и еще 6% головной компании холдинга получил Александр Синяк. Cумма сделки могла достичь 65 млрд рублей.

Финляндия обнаружила на таможне канал поставок дронов в Россию
05.12.2023
Setl Group приступил к строительству 4-й очереди ЖК "Дворцовый фасад"
05.12.2023
В России заметно выросло количество работников с зарплатой от миллиона и выше
05.12.2023
Петербургский автозавод Hyundai продлил режим простоя еще на месяц
05.12.2023
Бренды с обозначением "№1" признали недопустимыми
05.12.2023
Lada сокращает долю на российском авторынке в пользу китайских брендов
05.12.2023
Доверительным управляющим компании "Конкорд" стал Павел Пригожин
04.12.2023
В Петербурге запустили горячую линию по качеству детских товаров к Новому году
04.12.2023
В Петербурге разворачивают дополнительные койки для больных COVID-19
04.12.2023
Петербург занял 23-ю строчку в рейтинге свободных от вредных привычек регионов
04.12.2023
За минувшую неделю с улиц Петербурга вывезли 220 тыс. м3 снега
04.12.2023
Путин заявил, что четверть населения России занимается волонтерством
04.12.2023
Валентина Матвиенко: "Государство точно не пойдет по пути запрета абортов"
04.12.2023
Петербургская компания Melon Fashion Group отсудил товарный знак у бренда Zolla
04.12.2023
Ученики петербургского лицея получили четыре медали в Китайской национальной олимпиаде по математике
04.12.2023
Владимир Машков сменил Александра Калягина на посту главы Союза театральных деятелей РФ
04.12.2023
"Адмиралтейские верфи" отправили в простой часть персонала до конца декабря
04.12.2023
В Ленобласти новая уполномоченная по правам ребенка - Татьяна Толстова
04.12.2023
Водэн
VEREN
RBI
Строительный трест
InveStoreClub
РосСтройИнвест
РКС
Решение
Прайм Эдвайс
Питер
Петрополь
Петромир
Pen&Paper
Neva Coffee
Первая мебельная
Пепелаев
RRT
Colliers
Ильюшихин
Илоранта
Календарь событий

Метки