12 января 2026, 20:04 12 января 2026, 21:04 12 января 2026, 22:04 12 января 2026, 23:04 13 января 2026, 00:04 13 января 2026, 01:04 13 января 2026, 02:04 13 января 2026, 03:04 13 января 2026, 04:04 13 января 2026, 05:04 13 января 2026, 06:04

Злоумышленники начали активно использовать ИИ для кражи средств и персональных данных

Мошенники генерируют голос через нейросети, чтобы выдать себя за близких потенциальной жертвы, а после выманивают личные данные и денежные средства, сообщает телеканал "Известия". Также с помощью ИИ создаются правдоподобные видео и изображения.

Руководитель проекта "КиберМосква" Григорий Пащенко в программе "Наше время" на Радио России:

"Мы находимся на грани победы над мошенниками, которые используют искусственный интеллект. Изначально россияне на самом деле верили, вы же все помните, наверное, когда с утра поступал звонок со словами: "Алло! Вас плохо слышно, говорите, пожалуйста". То есть собирали голосовые отпечатки для того, чтобы люди говорили, а потом уже моделировался голос, и люди получали звонок, который похож на 100% на украденный голос.

Сейчас уже в это не верят, потому что мы все понимаем, что смоделировать-то голос можно, но подделать именно фразы, как вы общаетесь, поставить речитатив ИИ пока не может. Поэтому мошенники тоже пока так не умеют делать.

Когда мы говорим про видео, изображение, то это тоже было: присылают видео, например, кружочек, где человек очень похож на вашего родственника, который находится где-то в лесу либо на дороге, и он показывает, что произошла ситуация. Люди уже логически понимают, что этого быть не может, потому что банально человек, например, и выглядит немного не так, ИИ все-таки делает не так, как делает человек. Если посмотреть видео, которое генерирует ИИ, оно вроде бы и похоже, но мы сразу чувствуем подделку, потому что нет настоящего человеческого движения"".

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация