Искусственный интеллект 26 октября 2025, 12:16 26 октября 2025, 13:16 26 октября 2025, 14:16 26 октября 2025, 15:16 26 октября 2025, 16:16 26 октября 2025, 17:16 26 октября 2025, 18:16 26 октября 2025, 19:16 26 октября 2025, 20:16 26 октября 2025, 21:16 26 октября 2025, 22:16

В МВД рассказали, как защититься от розыгрышей с помощью ИИ

Чтобы не стать жертвой розыгрыша с помощью ИИ, нужно проверять источник видео, использовать обратный поиск по фото и специальные сервисы, рассказали в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД РФ.

Там уточнили, что в последнее время создание дипфейков требует минимальных ресурсов: нейросети автоматически подгоняют выражения лица и голос под заданный текст, что делает видео достоверными. С помощью таких искусственных видео могут распространяться фейковые новости, заявления официальных лиц или даже призывы к мошенничеству.

Чтобы не попасться на уловку, ведомство советует научиться определять источник видео и обращать внимание на детали. Следует насторожиться, если на видео присутствуют неровные контуры лица, "дрожащие" тени, а также странные движения губ и глаз, запаздывает звук.

Кроме того, проверить достоверность видео можно с помощью сервисов Sensity AI, Reality Defender, Deepware, а также через обратный поиск в Яндекс или Google Images.

Ранее заместитель директора по продуктам VisionLabs Татьяна Дешкина рассказала, что мошенники могут использовать информацию о концертах зарубежных знаменитостей, чтобы обмануть россиян с помощью дипфейков. Преступники пользуются ситуацией с возникшими слухами о концертах в России Канье Уэста и других популярных американских исполнителей.

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация