Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
Новый проспект
Статьи

Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты

Прочитано: 1407
Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
В 2021 году в киберпространстве стал заметен новый способ обмана — дипфейки, или цифровые копии известных персонажей. Эксперты считают, что со временем подмена личности станет еще более изощренной. 
Deepfake (дипфейк) — это, по сути, синтез изображения, основанный на искусственном интеллекте. Нейросети изучают реальные фото и видео объекта, а потом создают «двойника». 

Первый известный дипфейк появился в 2017 году, когда в интернете получил распространение порноролик якобы с участием актрисы Галь Гадот. В реальности лицо актрисы «подставили» к чьему-то телу как раз с помощью этой технологии. Статистика и дальше остается пикантной: 96% «дипфейкового» видео — порнографическое, с участием звезд. 

Самое известное нейтральное фейк-видео — в котором миллиардер Илон Маск якобы исполняет песню «Трава у дома» группы «Земляне». В TikTok недавно большое число просмотров набрал поддельный Том Круз, чье лицо с помощью deepfake наложил на свое один из пользователей. На нескольких видео он играл в гольф, показывал фокус с монеткой и рассказывал о встрече с Михаилом Горбачевым.

В начале этого года deepfake-копия появилась у основателя IT-компаний Flocktory и Dbrain Дмитрия Мацкевича. Мошенники выпустили два видео, в которых он рассказывал о системе заработка на основе искусственного интеллекта, приглашая на мастер-классы. Сам Мацкевич в комментариях к многочисленным публикациям по этой теме сообщал, что даже «благодарен такому пиару». 

Отсутствие четкой налаженной схемы распознавания фейковых цифровых личностей способствует распространению этого вида мошенничества. В прошлом году Microsoft представила разработку, которая должна бороться с дипфейками. Инструмент Microsoft Video Authenticator использует собственный алгоритм для определения подлинности какого-либо изображения или видеоролика. Однако пока компания не рассказывала об успехах его использования.

Летом прошлого года Amazon, Facebook и Microsoft даже организовали международные соревнования по распознаванию дипфейков Deepfake Detection Challenge. В тройке лидеров оказалась российская NtechLab. Распознаванием видеофейков в России занялось и МВД. В мае ведомство заключило контракт с московским АО «Научно-промышленная компания «Высокие технологии и стратегические системы» на разработку продукта для выявления сфабрикованных видеороликов. Сумма контракта составила 3,55 млн рублей, к 30 ноября 2021 года он должен быть исполнен.

В российском Центробанке прямо называют применение мошенниками технологии deepfake существенным риском, например при услуге дистанционного открытия счетов. О дипфейках уже успел высказаться и пресс-секретарь российского президента Дмитрий Песков. Он назвал их «страшной угрозой».

Тем не менее дипфейки могут нести и «разумное, доброе, вечное». Например, в Музее Сальвадора Дали во Флориде в честь 115-летия художника его цифровая копия рассказывала посетителям истории о своих картинах и жизни и даже разрешала сделать с собой селфи.

Мнения экспертов:

Владислав Тушканов, старший исследователь данных в «Лаборатории Касперского»:

— Чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне. С другой стороны, надо понимать, что самые известные дипфейки, например «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, были сделаны профессионалами в области видеоэффектов, а в последнем случае еще и с помощью профессионального актера — двойника Круза. Поэтому, хотя при наличии достаточного большого количества фотографий человека сделать дипфейк с ним не очень сложно, действительно качественные дипфейки всё еще требуют высокой квалификации и профессионализма. 

Есть случаи, которые показывают, что простота использования технологий для манипуляции с видео и аудио может быть на руку преступникам. К примеру, в 2019 году злоумышленники создали голосовой дипфейк, чтобы выдать себя за руководителя компании в Великобритании, и таким образом смогли убедить сотрудника этой организации перевести на их счет €220 тыс.

Основной способ борьбы с дипфейками — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности. Нужно быть внимательным. Если вы столкнулись с видео или голосовой записью, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете, не стоит сразу верить. Нужно скептически относиться к любым слишком заманчивым предложениям и проверять данные в разных источниках, прежде чем предпринимать какие-то действия.

Подобного рода мошеннические схемы работают так же, как и любые другие, например когда вам сообщают о выигрыше в лотерею или о возврате несуществующих налоговых переплат. Смысл видео в таком случае лишь в том, чтобы привлечь внимание потенциальной жертвы и повысить уровень доверия. В результате злоумышленники, скорее всего, попытаются завлечь вас на мошеннический сайт, чтобы выманить деньги или личные данные. Чтобы представить уровень ущерба, можно обратиться к статистике: только за прошлый год, по нашим данным, продукты «Лаборатории Касперского» заблокировали более 400 млн переходов на мошеннические страницы.

Михаил Левитин, R&D директор Qrator Labs:

— Бороться deepfake-копиями непосредственно — бесполезно: раз уже есть такая технология, кто-то точно будет ее использовать. Однако пользователи могут постараться обезопасить самих себя. Во-первых, нужно помнить, что в наше время можно подделать живого человека в интернете, причем подделать динамически, «на ходу». Поскольку deepfake требует исходных данных для тренировки моделей, нужно постараться самостоятельно ограничить возможность собирать аудио- и видеоданные для ее тренировки (ограничить доступ к видеороликам со своим изображением, голосом). Правда, для публичных персон это практически невозможно. А чтобы обезопасить себя от фейковых роликов тех самых публичных персон, нужно просто ежедневно соблюдать правила информационной гигиены: всегда проверять, по каким ссылкам предлагается осуществить переход, обращать внимание на появление красных восклицательных знаков в браузерах, означающих, что соединение не защищено или опасно, и всегда критически относиться к подобным предложениям заработка.

С технической точки зрения такую подделку изготовить относительно легко квалифицированным специалистам, обладающим достаточным для тренировки модели набором исходных данных (аудио- и видеороликов). Если эту технологию пытаются использовать для подделки биометрии, от этого может спасти только многомодальность: одновременное применение нескольких видов биометрии. Например, deepfake-копии подделывают одновременно и биометрию по лицу, и голос. Это означает, что нужна как минимум еще одна модальность (вид биометрии), которая позволит подтвердить, реальный ли человек перед вами, или нет.

Ущерб от таких акций сложно оценить в количественном выражении, поскольку пока это «экзотика» — не массовая история. Потенциально с этим явлением можно бороться со стороны дата-центров. Для построения deepfake-модели и последующей записи ролика нужны большие вычислительные ресурсы, притом довольно специфичные (gpu, специализированные AI процессоры). Такие ресурсы можно найти в ЦОДах. И если дата-центры смогут хотя бы примерно отслеживать модели того, что пытаются считать на их ресурсах, это поможет вычислять подобного рода мошеннические схемы. 

IT высокие технологии
Другие статьи автора Читайте также по теме
Известный IT-эксперт Александр Исавнин рассказывает, как возникла идея дистанционного электронного голосования (ДЭГ), при чем тут главред «Эха Москвы» Алексей Венедиктов и в чём особенности применения ДЭГ на российской почве.
Из-за мирового дефицита чипы будут дорожать. Решением этой проблемы для IT-индустрии эксперты называют переход на облачные сервисы, однако многие потребители электронных компонентов всё ещё сомневаются в безопасности и надежности такого хранения информации.
Российская экономика страдает без IТ-специалистов. Прогнозы неутешительны: так будет еще лет десять. Но есть и хорошая новость. Найден ответ на вопрос «кому на Руси жить хорошо»: оказывается, тестировщикам.

Apple объяснила удаление приложения "Навальный" из App Store
17.09.2021
Венедиктов сообщил о ddos-атаках на московскую систему онлайн-голосования
17.09.2021
Дорожные работы перекроют все съезды на развязке КАД у Мурино
17.09.2021
Десятидневные новогодние каникулы ждут россиян в 2022 году
17.09.2021
Названы сроки начала производства нового российского истребителя Checkmate
17.09.2021
Набиуллина прогнозирует годовую инфляцию в сентябре "где-то в районе" 7%
17.09.2021
Генсек ООН призвал ввести исключения из некоторых санкций против талибов
17.09.2021
"Россeти Ленэнерго" возьмут новый кредит на 32 млрд рублей
17.09.2021
Все педагоги Петербурга получили единовременные выплаты в размере 10 тысяч рублей
17.09.2021
В Петербурге изменят границы некоторых районов
17.09.2021
РАД выставил на продажу часть здания Мытного двора
17.09.2021
В Ботаническом саду СПбГУ открылся "Японский сад"
17.09.2021
Суд отказал историку Соколову в общественном защитнике при апелляции
17.09.2021
Петербуржцы смогут подать документы на туристическую визу в Ирландию
17.09.2021
Фрагмент прижизненного портрета Екатерины I пополнил коллекцию "Царского Села"
17.09.2021
В Петербурге из-за всплеска ОРВИ на дистанционку отправили почти 50 классов
17.09.2021
Клим Шипенко рассказал о главной трудности в подготовке к космическому полету
17.09.2021
Кампус ВШМ СПбГУ расширят до Финского залива
17.09.2021
В конце сентября петербуржцы все-таки прочувствуют бабье лето
17.09.2021
Водэн
VEREN
RBI
Строительный трест
InveStoreClub
РосСтройИнвест
РКС
Решение
Прайм Эдвайс
Питер
Петрополь
Петромир
Pen&Paper
Neva Coffee
Первая мебельная
Пепелаев
RRT
Colliers
Ильюшихин
Илоранта
Календарь событий

Метки