Как распознать дип­фейк и защититься от обмана

Конспект доклада с конференции Т⁠—⁠Ж
Обсудить
Как распознать дип­фейк и защититься от обмана
Аватар автора

Алексей Малахов 🦣

специалист по кибербезопасности

Страница автора

В конце сентября 2024 года прошла вторая конференция журнала.

Я рассказал, как нас обманывают с помощью современных технологий, а потом ответил на вопросы слушателей. Выступление продлилось почти полчаса. Ключевые идеи — в этой статье.

Как нас обманывают с помощью дипфейков

С помощью нейросетей кто угодно может сделать виртуальную копию голоса или изображения человека. Такую копию называют дипфейком.

Еще в 2022 году для создания более-менее правдоподобного дипфейка требовались качественные видео- или аудиозаписи. Затем нейросеть приходилось десятки часов обучать и тренировать, чтобы она выдала минутный дипфейк.

В 2023 мы с командой подкаста «Схема» решили ради эксперимента сделать дипфейк моего голоса. У нас было восемь часов студийных записей и команда опытных программистов. Им пришлось арендовать мощный сервер, потратить почти сотню долларов и десять часов на обучение нейросети. В итоге получился роботизированный голос с явным английским акцентом: хороших русскоязычных моделей тогда не было. Результат можно послушать в восьмом выпуске второго сезона.

Мы пришли к выводу, что массовые дипфейки на русском появятся нескоро. И обычному человеку они не грозят, ведь для их обучения нужны часы аудио и видео студийного качества — мало у кого они есть в свободном доступе.

Мы ошиблись. Прошло всего полгода — и появились нейросети, которым достаточно буквально 15 секунд видео или аудио со смартфона, чтобы сделать цифрового двойника человека. Конечно же, этим воспользовались мошенники: они адаптировали старые схемы, чтобы сделать их более реалистичными.

Вот несколько популярных схем разводов, которые прокачали с помощью нейросетей.

«Дай в долг до завтра, это точно я». Этой схеме более 20 лет: первые хакеры взламывали ICQ и рассылали по всему контакт-листу просьбы одолжить вебмани или пополнить счет телефона. Затем так же взламывали другие мессенджеры и соцсети.

За десятилетия эта схема стала известна почти всем, ее высмеивают в скетчах и анекдотах. Мошенники поняли, что простым текстом никого не обмануть. Поэтому сейчас, взломав кого-нибудь, они ищут голосовые или видеосообщения. Затем «скармливают» их нейросети — и та выдает дипфейк.

Теперь друзья получают не скучный текст, а реалистичную просьбу голосом взломанного человека. Даже те, кто знает о схеме со взломом, считают, что запись сделал реальный собеседник, — и переводят деньги мошенникам.

Если хотите убедиться, что знакомого не взломали, попросите его что-то сделать на камеру. Скажем, встать и помахать руками перед лицом. Злоумышленник воспротивится: ведь он не сможет оперативно сделать реалистичный дипфейк по вашему запросу. Настоящий собеседник поймет ваше беспокойство и выполнит просьбу.

Если подозрения остались, свяжитесь с человеком лично, желательно по телефону или видеосвязи.

«Помоги победить в конкурсе». Хакеры не всегда просят денег. Порой им нужно что-то невинное: скажем, проголосовать в конкурсе. Но ссылка ведет на фишинговый сайт, где мошенники попытаются получить доступ к вашему мессенджеру или аккаунту в соцсети.

В случае успеха они будут искать что-то, чем можно шантажировать владельца аккаунта: например, интимные фотографии. Параллельно они поищут пароли от онлайн-банков и госуслуг: многие хранят их в заметках или в переписке с самим собой. А если успеют, сделают дипфейки с вами и разошлют вашим знакомым просьбы одолжить денег.

«Привет, я известный человек и дарю вам много денег». Чтобы сделать дипфейк знаменитости или политика, их даже не нужно взламывать: в сети легко найти сотни часов качественных видеозаписей с их участием.

В итоге рано или поздно вы наткнетесь на рекламу, где президент страны обещает выплатить вам часть доходов от продажи полезных ископаемых — если уплатите «налог». Или известный предприниматель объявит, что ему надоело быть богатым и он хочет поделиться деньгами с народом: достаточно отправить на специальный счет криптовалюту, а в ответ он пришлет в два раза больше.

Больше всего любят подделывать Илона Маска. Предприниматель и так известен любовью к криптовалюте. Поэтому дипфейк, где он предложит вложиться в очередной криптостартап, многим покажется записью с реальной конференции. Часто подделывают и президентов
Больше всего любят подделывать Илона Маска. Предприниматель и так известен любовью к криптовалюте. Поэтому дипфейк, где он предложит вложиться в очередной криптостартап, многим покажется записью с реальной конференции. Часто подделывают и президентов

Как распознать дипфейк

Лучше всего нейросети распознают другие нейросети. Например, банки давно используют нейросетевые технологии для анализа речи. Поэтому у меня вызывает смех популярный миф, что нельзя отвечать «да», если вам звонят с незнакомого номера. Мол, мошенники запишут голос, позвонят от вашего имени в банк, включат запись и каким-то образом украдут все деньги.

Банковские технологии защиты все вычислят, мошенникам не поможет даже качественный дипфейк голоса или лица. Такая «добрая» нейросеть называется liveness: она в режиме реального времени проверяет голос и видео человека по тысяче параметров. Например, анализирует, как он улыбается, поворачивает голову, щурит глаза, жестикулирует. Оценивает скорость реакции, движение мимических мышц и дефекты изображения: блики, рябь, размытие лица. Подробнее о том, как работают liveness, я рассказал в отдельной статье.

А вот простым людям пока что приходится вычислять дипфейки буквально на глаз. Вот несколько моментов, на которые стоит обращать внимание в первую очередь.

Артефакты изображения. Человек редко и медленно моргает, а движения губ не совсем совпадают с тем, что он говорит. Лицо излишне замыленное или пикселизированное. Засветы или слишком сильные тени, заметные различия тона кожи на лице, руках и шее.

Кадрирование. Чересчур приближенное изображение лица, толком не видно даже шею. Неестественное положение головы.

Проблемы с голосом. Он слишком монотонный или немного роботизированный. Неверные ударения и частые паузы. Излишне короткие фразы. Непривычные для человека выражения и манера общения.

Как распознать фейковые новости

С появлением нейросетей аферистам стало намного проще массово обманывать людей. Иногда они это делают просто веселья ради: например, генерируют фото Папы Римского в модном пуховике и рассылают его в информагентства. Но чаще мошенникам нужны деньги: после землетрясений в Турции жулики генерировали жалостливые картинки с пожарными, которые вытаскивают детей из-под завалов, и призывали жертвовать криптовалюту.

Вот несколько простых способов, которые помогут распознать обман.

Присмотритесь к фото. Сгенерированное изображение выдают странные руки, размытая линия роста волос, неровный контур лица, разный цвет глаз и их странная посадка, чересчур асимметричное лицо, плохо прорисованные или слишком белые зубы, искаженные аксессуары. Нейросетевые пейзажи и объекты часто выглядят слишком красочно. На портретах — только лицо, словно это фото на пропуск.

Задумайтесь, на какие чувства давит заголовок. Если он вызывает страх, шок, ненависть и желание тут же поделиться новостью, возможно, вами пытаются манипулировать.

Поищите информацию в других источниках. Если это резонансное событие, о нем наверняка напишут крупные СМИ. Они обычно указывают, откуда получили сведения.

Если новость разлетелась только по анонимным телеграм-каналам, а в крупных СМИ ничего подобного нет — скорее всего, причина не в том, что «власти замалчивают» или «есть секретная темка заработать». Вероятно, вас просто хотят обмануть.

На фейки ведутся даже ярые борцы с фейками. Например, в ходе предвыборной кампании 2024 года Дональд Трамп заявил, что его поддерживают фанаты певицы Тейлор Свифт. Оказалось, фото, на которое он ссылался, сгенерировала нейросеть
На фейки ведутся даже ярые борцы с фейками. Например, в ходе предвыборной кампании 2024 года Дональд Трамп заявил, что его поддерживают фанаты певицы Тейлор Свифт. Оказалось, фото, на которое он ссылался, сгенерировала нейросеть

Как мошенники автоматизируют схемы разводов

Нейросетевые чат-боты упростили работу мошенникам. Если раньше им приходилось вручную общаться с потенциальными жертвами, чтобы уговорить вложиться в криптовалюту, то теперь все можно поручить ChatGPT.

Это сильно расширило «воронку продаж» мошенников. На первом этапе чат-боты массово спамят в мессенджеры, завязывают разговоры на сайтах знакомств, оставляют комментарии в соцсетях. Если человек продолжает общение, то нейросеть дает сигнал мошенникам — и к разговору уже подключается живой оператор.

Если незнакомец пишет вам что-то похожее, скорее всего, вы общаетесь с нейросетью:

Если сталкивались с мошенниками, поделитесь своей историей с другими читателями