Картинка

Авторские материалы Дипфейк-атаки: скоро – и на вас!

5 мая 2025, 18:09

Персоны

Десять россиян задержаны за участие в мошеннической группе, которая держала инфраструктуру для подмены номеров. Операция прошла в нескольких регионах, и ФСБ смогли изъять несколько десятков сим-боксов. Через аналогичные сети мошенники каждый день обзванивают миллионы россиян, рассылая в том числе дипфейки. С этой новой угрозой, по прогнозам, столкнется каждый второй гражданин нашей страны уже до конца года. Как распознать подделку и не поддаться фальшивым просьбам, отправив деньги мошенникам, разбирался автор телеграмм-канала, разоблачающего мошенников, «Без обмана» Александр Ельшевский.

Один из десяти задержанных дает показания. Это – один из тех, кто поддерживал целую сеть подпольных сим-ферм, обслуживал сим-боксы – устройства для десятков сим-карт, через которые мошенники меняют номера и совершают тысячи звонков из-за границы ежечасно. После усиления мер безопасности звонить напрямую они не могут и вынуждены держать инфраструктуру внутри России. И здесь спецслужбы вычисляют подельников, обрывая линии связи иностранных кол-центров.

Нынешнее задержание – большой удар, в ходе обысков в Москве, Московской и Владимирской областях изъяли 23 сим-бокса, более тысячи сим-карт, мобильные телефоны, крупные суммы денег и электронные носители. По данным Следственного комитета, преступники не только обманывали граждан, угрожая мнимыми уголовными делами и вымогая средства для «помощи в поимке преступников», но и рассылали ложные сообщения о минировании зданий, чтобы дестабилизировать работу государственных структур.

Организатор группы, 31-летний россиянин, создавший схему из Объединенных Арабских Эмиратов, объявлен в международный розыск и заочно арестован. Его сообщникам грозит до 10 лет колонии по статьям о создании преступного сообщества, пособничестве заведомо ложным сообщениям об акте терроризма и мошенничестве в особо крупном размере.

Однако борьба с сим-боксами – лишь часть системной работы для парирования угрозы мошенничества, которая вышла на национальный уровень. Уже сейчас эксперты подразделения MTS AI предупреждают: к концу этого года каждый второй россиянин может столкнуться с дипфейк-атаками. Если в прошлом году мошенники активно использовали «видеокружки» – короткие зацикленные ролики в мессенджерах, часто без звука и с размытым изображением, то к 2026 году технологии позволят им в реальном времени имитировать голос близкого человека. Например, злоумышленник сможет позвонить жертве, представившись «дочерью в беде» и используя клонированный голос, собранный из публичных записей. Например, вот одно из сообщений, пришедших посреди ночи.

"Пришли 26 тысяч до завтра!"

Голос неотличим, особенно спросонья или на ускоренном прослушивании. И это – результат взлома и работы с уже имеющимися на аккаунте и в переписках аудио.

"Меня взломали и стали рассылать, причем изучили, как именно и к кому обращаться".

Раньше для создания таких подделок требовались десятки часов работы и профессиональные навыки, но сегодня нейросети вроде DeepFaceLab или Resemble AI делают это за минуты. Известные личности и блогеры уже становятся жертвами такого.

"Я смотрю, что кто-то выкачивает мои видео, они вышли на новый уровень – берут звук, нужные слова и потом делают фальшивые обращения к подписчикам".

Главная опасность – в растущей незаметности подделок. Видеодипфейки требуют от мошенников «тренировки» нейросети на сотнях изображений жертвы: например, они разбивают видео из соцсетей на кадры, чтобы алгоритм «увидел» лицо под разными углами и при разном освещении.

Голосовые клоны сделать еще проще – достаточно нескольких минут аудиозаписи. Но результат часто получается «рваным», с неестественными паузами, что заставляет преступников генерировать десятки вариантов. Чтобы скрыть артефакты, они используют уловки: отправляют «кружки» низкого качества, маскируя размытостью артефакты движений губ, или вовсе лишают ролики звука, оставляя лишь текст вроде «Мама, срочно перезвони!»

Критическая уязвимость таких атак – невозможность проверить источник. В отличие от звонков, где есть определитель номера, «видеокружки» и голосовые сообщения в мессенджерах не позволяют узнать, созданы ли они внутри платформы или сгенерированы сторонними программами. Этим и пользуются мошенники: в 2024 году 70% поддельных видео загружались вручную через взломанные аккаунты. При этом жертвы, видя знакомый профиль, реже задают вопросы – срабатывает психологический эффект доверия к визуальному формату.

Пока, даже с развитием технологий, создание идеального дипфейка остается сложной задачей. Например, для реалистичного видео в высоком разрешении нужны сотни изображений, а голосовые модели часто «спотыкаются» на эмоциональных интонациях. Но технология шагает вперед. Уже есть проекты видеоинтервью известных личностей, где они беседуют на личные темы. К примеру, Лев Толстой говорит о том, почему бросил университет.

"Я был молод и сомневался в устоявшихся порядках, но искал учения. А не мертвых формул…"

Понятное дело, никто не выдает это за подлинный разговор, но перспективность технологии это отражает. Пока мошенники компенсируют недостаток качества массовостью атак, накрывая тысячи пользователей. Единственная защита – критическое мышление: перезванивать знакомым через проверенные номера, не переводить деньги без личного подтверждения. И помнить: любое внезапное «видео» или «голосовое» с просьбой о помощи может оказаться цифровой мистификацией.

Если хотите быть на шаг впереди мошенников, подписывайтесь на мой телеграм-канал «Без обмана», там я вместе с экспертами борюсь за здравый смысл и разбираю фейки, отделяя реальные угрозы от инфошума.

Авторские материалы. Все выпуски

Новые выпуски

Авто-геолокация