Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
Новый проспект
Статьи

Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты

Прочитано: 2031
Нейросеть делает из людей фейки. Новый вид кибермошенничества набирает обороты
В 2021 году в киберпространстве стал заметен новый способ обмана — дипфейки, или цифровые копии известных персонажей. Эксперты считают, что со временем подмена личности станет еще более изощренной. 
Deepfake (дипфейк) — это, по сути, синтез изображения, основанный на искусственном интеллекте. Нейросети изучают реальные фото и видео объекта, а потом создают «двойника». 

Первый известный дипфейк появился в 2017 году, когда в интернете получил распространение порноролик якобы с участием актрисы Галь Гадот. В реальности лицо актрисы «подставили» к чьему-то телу как раз с помощью этой технологии. Статистика и дальше остается пикантной: 96% «дипфейкового» видео — порнографическое, с участием звезд. 

Самое известное нейтральное фейк-видео — в котором миллиардер Илон Маск якобы исполняет песню «Трава у дома» группы «Земляне». В TikTok недавно большое число просмотров набрал поддельный Том Круз, чье лицо с помощью deepfake наложил на свое один из пользователей. На нескольких видео он играл в гольф, показывал фокус с монеткой и рассказывал о встрече с Михаилом Горбачевым.

В начале этого года deepfake-копия появилась у основателя IT-компаний Flocktory и Dbrain Дмитрия Мацкевича. Мошенники выпустили два видео, в которых он рассказывал о системе заработка на основе искусственного интеллекта, приглашая на мастер-классы. Сам Мацкевич в комментариях к многочисленным публикациям по этой теме сообщал, что даже «благодарен такому пиару». 

Отсутствие четкой налаженной схемы распознавания фейковых цифровых личностей способствует распространению этого вида мошенничества. В прошлом году Microsoft представила разработку, которая должна бороться с дипфейками. Инструмент Microsoft Video Authenticator использует собственный алгоритм для определения подлинности какого-либо изображения или видеоролика. Однако пока компания не рассказывала об успехах его использования.

Летом прошлого года Amazon, Facebook (принадлежит Meta Platforms Inc., — компания признана экстремистской организацией в РФ, деятельность запрещена) и Microsoft даже организовали международные соревнования по распознаванию дипфейков Deepfake Detection Challenge. В тройке лидеров оказалась российская NtechLab. Распознаванием видеофейков в России занялось и МВД. В мае ведомство заключило контракт с московским АО «Научно-промышленная компания «Высокие технологии и стратегические системы» на разработку продукта для выявления сфабрикованных видеороликов. Сумма контракта составила 3,55 млн рублей, к 30 ноября 2021 года он должен быть исполнен.

В российском Центробанке прямо называют применение мошенниками технологии deepfake существенным риском, например при услуге дистанционного открытия счетов. О дипфейках уже успел высказаться и пресс-секретарь российского президента Дмитрий Песков. Он назвал их «страшной угрозой».

Тем не менее дипфейки могут нести и «разумное, доброе, вечное». Например, в Музее Сальвадора Дали во Флориде в честь 115-летия художника его цифровая копия рассказывала посетителям истории о своих картинах и жизни и даже разрешала сделать с собой селфи.

Мнения экспертов:

Владислав Тушканов, старший исследователь данных в «Лаборатории Касперского»:

— Чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне. С другой стороны, надо понимать, что самые известные дипфейки, например «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, были сделаны профессионалами в области видеоэффектов, а в последнем случае еще и с помощью профессионального актера — двойника Круза. Поэтому, хотя при наличии достаточного большого количества фотографий человека сделать дипфейк с ним не очень сложно, действительно качественные дипфейки всё еще требуют высокой квалификации и профессионализма. 

Есть случаи, которые показывают, что простота использования технологий для манипуляции с видео и аудио может быть на руку преступникам. К примеру, в 2019 году злоумышленники создали голосовой дипфейк, чтобы выдать себя за руководителя компании в Великобритании, и таким образом смогли убедить сотрудника этой организации перевести на их счет €220 тыс.

Основной способ борьбы с дипфейками — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности. Нужно быть внимательным. Если вы столкнулись с видео или голосовой записью, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете, не стоит сразу верить. Нужно скептически относиться к любым слишком заманчивым предложениям и проверять данные в разных источниках, прежде чем предпринимать какие-то действия.

Подобного рода мошеннические схемы работают так же, как и любые другие, например когда вам сообщают о выигрыше в лотерею или о возврате несуществующих налоговых переплат. Смысл видео в таком случае лишь в том, чтобы привлечь внимание потенциальной жертвы и повысить уровень доверия. В результате злоумышленники, скорее всего, попытаются завлечь вас на мошеннический сайт, чтобы выманить деньги или личные данные. Чтобы представить уровень ущерба, можно обратиться к статистике: только за прошлый год, по нашим данным, продукты «Лаборатории Касперского» заблокировали более 400 млн переходов на мошеннические страницы.

Михаил Левитин, R&D директор Qrator Labs:

— Бороться deepfake-копиями непосредственно — бесполезно: раз уже есть такая технология, кто-то точно будет ее использовать. Однако пользователи могут постараться обезопасить самих себя. Во-первых, нужно помнить, что в наше время можно подделать живого человека в интернете, причем подделать динамически, «на ходу». Поскольку deepfake требует исходных данных для тренировки моделей, нужно постараться самостоятельно ограничить возможность собирать аудио- и видеоданные для ее тренировки (ограничить доступ к видеороликам со своим изображением, голосом). Правда, для публичных персон это практически невозможно. А чтобы обезопасить себя от фейковых роликов тех самых публичных персон, нужно просто ежедневно соблюдать правила информационной гигиены: всегда проверять, по каким ссылкам предлагается осуществить переход, обращать внимание на появление красных восклицательных знаков в браузерах, означающих, что соединение не защищено или опасно, и всегда критически относиться к подобным предложениям заработка.

С технической точки зрения такую подделку изготовить относительно легко квалифицированным специалистам, обладающим достаточным для тренировки модели набором исходных данных (аудио- и видеороликов). Если эту технологию пытаются использовать для подделки биометрии, от этого может спасти только многомодальность: одновременное применение нескольких видов биометрии. Например, deepfake-копии подделывают одновременно и биометрию по лицу, и голос. Это означает, что нужна как минимум еще одна модальность (вид биометрии), которая позволит подтвердить, реальный ли человек перед вами, или нет.

Ущерб от таких акций сложно оценить в количественном выражении, поскольку пока это «экзотика» — не массовая история. Потенциально с этим явлением можно бороться со стороны дата-центров. Для построения deepfake-модели и последующей записи ролика нужны большие вычислительные ресурсы, притом довольно специфичные (gpu, специализированные AI процессоры). Такие ресурсы можно найти в ЦОДах. И если дата-центры смогут хотя бы примерно отслеживать модели того, что пытаются считать на их ресурсах, это поможет вычислять подобного рода мошеннические схемы. 

IT высокие технологии
Другие статьи автора Читайте также по теме

Этап Всероссийского чемпионата по профессиональному мастерству проходил в Петербурге на базе детского технопарка «Кванториум».

22.03.2024
EdTech-рынок в России вырос на треть в 2023 году. Однако уже в IV квартале стало ясно, что темпы роста значительно снижаются. Аналитики считают, что в 2024 году выручка проектов в области образовательных технологий упадет на 10–15%. Вся надежда остается на детский сегмент этого рынка.
Умные датчики и бортовые устройства помогли снизить расход топлива на 20%1, контролировать местонахождение и техническое состояние автомобилей2 в реальном времени и автоматизировать бизнес-процессы.
06.02.2024

"Дом.РФ" может выйти на IPO в следующем году
28.03.2024
Правительство одобрило проект строительства новой верфи возле Петербурга
28.03.2024
Уникальный водный беспилотник и троллейбус с автономным ходом. Что показали на «Экологии большого города»
28.03.2024
Власти Хельсинки хотят выкупить "Хартвалл арену" у Ротенберга и Тимченко
28.03.2024
На Петроградской стороне открывается новый большой коворкинг
28.03.2024
«Петербуржцы сдали 345 тонн опасных отходов». Цифра прозвучала на открытии форума «Экология большого города»
28.03.2024
Штаб Путина потратил на выборы 317 млн рублей
28.03.2024
Румыния впервые начнет оформлять гражданам РФ шенгенские визы
28.03.2024
На Васильевском острове объявили конкурс на устройство парка с фонтаном
28.03.2024
Эмин Агаларов ответил на претензии в адрес владельцев "Крокус сити холла"
28.03.2024
Аэропорты просят Минтранс не вводить запрет на вход в терминалы провожающих
28.03.2024
Беспилотники — эффективный инструмент решения экологических задач
28.03.2024
В Петербурге резко вырос объем продаж ипотечных квартир за долги
28.03.2024
Ленобласть увеличила бюджетные расходы за счет роста дефицита
28.03.2024
Петербургская товарно-сырьевая биржа расширит перечень торгуемых товаров
28.03.2024
Водэн
VEREN
RBI
Строительный трест
InveStoreClub
РосСтройИнвест
РКС
Решение
Прайм Эдвайс
Питер
Петрополь
Петромир
Pen&Paper
Neva Coffee
Первая мебельная
Пепелаев
RRT
Colliers
Ильюшихин
Илоранта
Календарь событий

Метки