Как распознать дип­фейк и защититься от обмана

Конспект доклада с конференции Т⁠—⁠Ж
4
Как распознать дип­фейк и защититься от обмана
Аватар автора

Алексей Малахов 🦣

специалист по кибербезопасности

Страница автора

В конце сентября 2024 года прошла вторая конференция журнала.

Я рассказал, как нас обманывают с помощью современных технологий, а потом ответил на вопросы слушателей. Выступление продлилось почти полчаса. Ключевые идеи — в этой статье.

Как нас обманывают с помощью дипфейков

С помощью нейросетей кто угодно может сделать виртуальную копию голоса или изображения человека. Такую копию называют дипфейком.

Еще в 2022 году для создания более-менее правдоподобного дипфейка требовались качественные видео- или аудиозаписи. Затем нейросеть приходилось десятки часов обучать и тренировать, чтобы она выдала минутный дипфейк.

В 2023 мы с командой подкаста «Схема» решили ради эксперимента сделать дипфейк моего голоса. У нас было восемь часов студийных записей и команда опытных программистов. Им пришлось арендовать мощный сервер, потратить почти сотню долларов и десять часов на обучение нейросети. В итоге получился роботизированный голос с явным английским акцентом: хороших русскоязычных моделей тогда не было. Результат можно послушать в восьмом выпуске второго сезона.

Мы пришли к выводу, что массовые дипфейки на русском появятся нескоро. И обычному человеку они не грозят, ведь для их обучения нужны часы аудио и видео студийного качества — мало у кого они есть в свободном доступе.

Мы ошиблись. Прошло всего полгода — и появились нейросети, которым достаточно буквально 15 секунд видео или аудио со смартфона, чтобы сделать цифрового двойника человека. Конечно же, этим воспользовались мошенники: они адаптировали старые схемы, чтобы сделать их более реалистичными.

Вот несколько популярных схем разводов, которые прокачали с помощью нейросетей.

«Дай в долг до завтра, это точно я». Этой схеме более 20 лет: первые хакеры взламывали ICQ и рассылали по всему контакт-листу просьбы одолжить вебмани или пополнить счет телефона. Затем так же взламывали другие мессенджеры и соцсети.

За десятилетия эта схема стала известна почти всем, ее высмеивают в скетчах и анекдотах. Мошенники поняли, что простым текстом никого не обмануть. Поэтому сейчас, взломав кого-нибудь, они ищут голосовые или видеосообщения. Затем «скармливают» их нейросети — и та выдает дипфейк.

Теперь друзья получают не скучный текст, а реалистичную просьбу голосом взломанного человека. Даже те, кто знает о схеме со взломом, считают, что запись сделал реальный собеседник, — и переводят деньги мошенникам.

Если хотите убедиться, что знакомого не взломали, попросите его что-то сделать на камеру. Скажем, встать и помахать руками перед лицом. Злоумышленник воспротивится: ведь он не сможет оперативно сделать реалистичный дипфейк по вашему запросу. Настоящий собеседник поймет ваше беспокойство и выполнит просьбу.

Если подозрения остались, свяжитесь с человеком лично, желательно по телефону или видеосвязи.

«Помоги победить в конкурсе». Хакеры не всегда просят денег. Порой им нужно что-то невинное: скажем, проголосовать в конкурсе. Но ссылка ведет на фишинговый сайт, где мошенники попытаются получить доступ к вашему мессенджеру или аккаунту в соцсети.

В случае успеха они будут искать что-то, чем можно шантажировать владельца аккаунта: например, интимные фотографии. Параллельно они поищут пароли от онлайн-банков и госуслуг: многие хранят их в заметках или в переписке с самим собой. А если успеют, сделают дипфейки с вами и разошлют вашим знакомым просьбы одолжить денег.

«Привет, я известный человек и дарю вам много денег». Чтобы сделать дипфейк знаменитости или политика, их даже не нужно взламывать: в сети легко найти сотни часов качественных видеозаписей с их участием.

В итоге рано или поздно вы наткнетесь на рекламу, где президент страны обещает выплатить вам часть доходов от продажи полезных ископаемых — если уплатите «налог». Или известный предприниматель объявит, что ему надоело быть богатым и он хочет поделиться деньгами с народом: достаточно отправить на специальный счет криптовалюту, а в ответ он пришлет в два раза больше.

Больше всего любят подделывать Илона Маска. Предприниматель и так известен любовью к криптовалюте. Поэтому дипфейк, где он предложит вложиться в очередной криптостартап, многим покажется записью с реальной конференции. Часто подделывают и президентов
Больше всего любят подделывать Илона Маска. Предприниматель и так известен любовью к криптовалюте. Поэтому дипфейк, где он предложит вложиться в очередной криптостартап, многим покажется записью с реальной конференции. Часто подделывают и президентов

Как распознать дипфейк

Лучше всего нейросети распознают другие нейросети. Например, банки давно используют нейросетевые технологии для анализа речи. Поэтому у меня вызывает смех популярный миф, что нельзя отвечать «да», если вам звонят с незнакомого номера. Мол, мошенники запишут голос, позвонят от вашего имени в банк, включат запись и каким-то образом украдут все деньги.

Банковские технологии защиты все вычислят, мошенникам не поможет даже качественный дипфейк голоса или лица. Такая «добрая» нейросеть называется liveness: она в режиме реального времени проверяет голос и видео человека по тысяче параметров. Например, анализирует, как он улыбается, поворачивает голову, щурит глаза, жестикулирует. Оценивает скорость реакции, движение мимических мышц и дефекты изображения: блики, рябь, размытие лица. Подробнее о том, как работают liveness, я рассказал в отдельной статье.

А вот простым людям пока что приходится вычислять дипфейки буквально на глаз. Вот несколько моментов, на которые стоит обращать внимание в первую очередь.

Артефакты изображения. Человек редко и медленно моргает, а движения губ не совсем совпадают с тем, что он говорит. Лицо излишне замыленное или пикселизированное. Засветы или слишком сильные тени, заметные различия тона кожи на лице, руках и шее.

Кадрирование. Чересчур приближенное изображение лица, толком не видно даже шею. Неестественное положение головы.

Проблемы с голосом. Он слишком монотонный или немного роботизированный. Неверные ударения и частые паузы. Излишне короткие фразы. Непривычные для человека выражения и манера общения.

Как распознать фейковые новости

С появлением нейросетей аферистам стало намного проще массово обманывать людей. Иногда они это делают просто веселья ради: например, генерируют фото Папы Римского в модном пуховике и рассылают его в информагентства. Но чаще мошенникам нужны деньги: после землетрясений в Турции жулики генерировали жалостливые картинки с пожарными, которые вытаскивают детей из-под завалов, и призывали жертвовать криптовалюту.

Вот несколько простых способов, которые помогут распознать обман.

Присмотритесь к фото. Сгенерированное изображение выдают странные руки, размытая линия роста волос, неровный контур лица, разный цвет глаз и их странная посадка, чересчур асимметричное лицо, плохо прорисованные или слишком белые зубы, искаженные аксессуары. Нейросетевые пейзажи и объекты часто выглядят слишком красочно. На портретах — только лицо, словно это фото на пропуск.

Задумайтесь, на какие чувства давит заголовок. Если он вызывает страх, шок, ненависть и желание тут же поделиться новостью, возможно, вами пытаются манипулировать.

Поищите информацию в других источниках. Если это резонансное событие, о нем наверняка напишут крупные СМИ. Они обычно указывают, откуда получили сведения.

Если новость разлетелась только по анонимным телеграм-каналам, а в крупных СМИ ничего подобного нет — скорее всего, причина не в том, что «власти замалчивают» или «есть секретная темка заработать». Вероятно, вас просто хотят обмануть.

На фейки ведутся даже ярые борцы с фейками. Например, в ходе предвыборной кампании 2024 года Дональд Трамп заявил, что его поддерживают фанаты певицы Тейлор Свифт. Оказалось, фото, на которое он ссылался, сгенерировала нейросеть
На фейки ведутся даже ярые борцы с фейками. Например, в ходе предвыборной кампании 2024 года Дональд Трамп заявил, что его поддерживают фанаты певицы Тейлор Свифт. Оказалось, фото, на которое он ссылался, сгенерировала нейросеть

Как мошенники автоматизируют схемы разводов

Нейросетевые чат-боты упростили работу мошенникам. Если раньше им приходилось вручную общаться с потенциальными жертвами, чтобы уговорить вложиться в криптовалюту, то теперь все можно поручить ChatGPT.

Это сильно расширило «воронку продаж» мошенников. На первом этапе чат-боты массово спамят в мессенджеры, завязывают разговоры на сайтах знакомств, оставляют комментарии в соцсетях. Если человек продолжает общение, то нейросеть дает сигнал мошенникам — и к разговору уже подключается живой оператор.

Если незнакомец пишет вам что-то похожее, скорее всего, вы общаетесь с нейросетью:

Если сталкивались с мошенниками, поделитесь своей историей с другими читателями

  • AlexБессмысленно обсуждать, как распознать дипфейк. Это путь в тупик. Очевидно, что будут появляться все новые и новые по качеству дипфейки, и закладываться на то, что сможешь их распознать - значит заблуждаться. Предлагаю исходить из того, что дипфейк вообще неотличим от реальности. В итоге останутся только надежные методы подтверждения. 1. Например, Вы более-менее можете быть уверены с кем общаетесь по любому каналу связи, только если сами связываетесь по известным Вам заранее контактным данным человека или организации. Чтобы еще снизить вероятность обмана надо связываться самостоятельно по нескольким каналам связи. Чтобы убрать ее совсем - встречаться лично. 2. Старые добрые ответы на "необычные" вопросы. Кличка питомца, где вы вместе отдыхали 3 года назад или другие сложноустанавливаемые факты.3
  • Михаил ВанишевAlex, я уже просто исхожу из того, что даже друг мне не напишет просто "дай взаймы" в чат. Хотя бы позвонит как нормальный человек. Недавно правда один знакомый денег на самом деле просил. В ватсапе. Я ему так и написал "ты адекватный ваще? В наше время просто в чате денег просить" )))))))))))))))3
  • Андрейперепутал дипфейк с дикпиком, подумал - чего там распознавать то0
  • AlexМихаил, когда Вам просто пишут сообщение: "дай взаймы" - это не дипфейк. Дипфейк, это когда вам отправляют такое голосовое или даже видео сообщение, и там действительно изображен Ваш друг, который своим голосом просит денег. Но при этом друг Ваш такое не записывал и не отправлял2