Картинка

Наше время. Интерактивный канал Злоумышленники начали активно использовать ИИ для кражи средств и персональных данных

12 января 2026, 20:20

Персоны

Злоумышленники начали активно использовать ИИ для кражи средств и персональных данных.

Мошенники генерируют голос через нейросети, чтобы выдать себя за близких потенциальной жертвы, а после выманивают личные данные и денежные средства, сообщает телеканал "Известия". Также с помощью ИИ создаются правдоподобные видео и изображения.

Руководитель проекта "КиберМосква" Григорий Пащенко в программе "Наше время" на Радио России:

"Мы находимся на грани победы над мошенниками, которые используют искусственный интеллект. Изначально россияне на самом деле верили, вы же все помните, наверное, когда с утра поступал звонок со словами: "Алло! Вас плохо слышно, говорите, пожалуйста". То есть собирали голосовые отпечатки для того, чтобы люди говорили, а потом уже моделировался голос, и люди получали звонок, который похож на 100% на украденный голос.

Сейчас уже в это не верят, потому что мы все понимаем, что смоделировать-то голос можно, но подделать именно фразы, как вы общаетесь, поставить речитатив ИИ пока не может. Поэтому мошенники тоже пока так не умеют делать.

Когда мы говорим про видео, изображение, то это тоже было: присылают видео, например, кружочек, где человек очень похож на вашего родственника, который находится где-то в лесу либо на дороге, и он показывает, что произошла ситуация. Люди уже логически понимают, что этого быть не может, потому что банально человек, например, и выглядит немного не так, ИИ все-таки делает не так, как делает человек. Если посмотреть видео, которое генерирует ИИ, оно вроде бы и похоже, но мы сразу чувствуем подделку, потому что нет настоящего человеческого движения"".

Наше время. Интерактивный канал. Все выпуски

Все аудио
  • Все аудио
  • Финансовый аспект

Видео передачи

Новые выпуски

Авто-геолокация