Картинка

Авторские материалы Искусственный разум предскажет преступления

19 сентября 2024, 15:46

Персоны

Работу полицейского отчасти сможет заменить нейросеть. Теперь она научилась бороться с будущими преступлениями. Южнокорейские ученые уже протестировали модель и установили: точность прогнозов превышает 82%. Как искусственный интеллект поможет "сыграть на опережение", выясняла корреспондент "Вестей ФМ" Мария Агафонова.

"Убийство… Представьте себе жизнь без убийств".

Это – кадры из фильма "Особое мнение". За окном – 2054 год. Теперь можно арестовать подозреваемого в еще несовершенном преступлении.

Вернемся к реальности. Нейронка, при ее грамотном использовании, может работать во благо общества. Подтверждение тому – разработка ученых из Южной Кореи. Dejaview – так называется модель искусственного интеллекта, которая позволит "опередить" преступников, сообщает издание Tech Xplore. Dejaview умеет предсказывать будущие преступления. То есть те, которые еще не произошли.

Сегодня технологии помогают распознавать преступников по камерам. Городские системы распознавания работают во многих российских городах. Нейросеть узнает человека по лицу, голосу и даже по радужке глаза. Как только система посчитает, что нашла преступника, сотрудникам полиции приходит оповещение. Но система работает над уже совершенными преступлениями. Южнокорейские ученые пошли дальше, объясняет президент Консорциума "Инфорус" Андрей Масалович.

МАСАЛОВИЧ: Есть виды конкретных преступлений, на которые конкретно можно обучить нейросеть. Например, человек заходит на автостоянку, подходит к своему автомобилю, садится и уезжает – он нормальный. Другой человек ходит по автостоянке и дергает ручки автомобилей – это преступление, которое ловится на раз, два, три. Есть виды преступлений, которые на 100% можно предотвратить.

Модель учится на ранних видеозаписях, наборе поведенческих факторов и статистике. Она оценивает риски в режиме реального времени. Dejaview ориентируется в самых разных видах преступлений. Все – как в кино.

"Вы арестовываете тех, кто еще не совершил преступление. – Но совершит. Провидцы видят будущее и никогда не ошибаются".

Эта система работает идеально, но самое страшное начинается тогда, когда ты сам оказываешься обвиненным в еще не совершенном убийстве.

Хотя цена ошибок может быть высока. И чрезмерно доверять ей не стоит, поясняют эксперты. Асоциальное поведение, например, может оказаться не признаком преступления, а особенностью личности, поясняет эксперт по кибербезопасности Андрей Масалович.

МАСАЛОВИЧ: Здесь возникает огромное количество этических и медицинских, и юридических проблем. Сеть может путать и пропускать. Процент, который приведет к ошибкам, задавать надо.

Поэтому важно, кто и как будет делать заключения по прогнозам нейроразума. В данном случае от ошибки могут зависеть судьбы людей.

Хотя система могла бы быть полезна в предупреждении рецидивов, говорят специалисты. То есть она могла бы помочь в наблюдении за бывшими заключенными.

Но история с применением ИИ в правоохранительной сфере – не нова. Нейросеть уже давно помогает российским полицейским, поясняет президент Консорциума "Инфорус" Андрей Масалович.

МАСАЛОВИЧ: Не в Южной Корее, а в России. Не сейчас, а много лет назад. Не предупреждать преступления, а обнаруживать опасные предметы и оружие у людей в толпе. Это довольно эффективно делается. Потенциальное преступление эта система помогает предотвращать. Системы, обнаруживающие лица террористов и экстремистов, уже повсеместно по миру внедрены.

Например, в конце прошлого года в Аргентине заявили о создании целого спецподразделения, которое будет бороться с предотвращением преступлений с помощью новых технологий. Правозащитные организации и либеральные СМИ тем временем высказали свои опасения по поводу возможных нарушений гражданских прав и злоупотреблений новым подразделением.

Были уже и примеры задержаний по наводкам технологии. Еще два года назад в Израиле слушали дело человека, которого задержали в аэропорту по подозрению в перевозке наркотиков. В полиции заявили, что помогла выявить мужчину компьютерная программа. Она указала, что этого человека следует обыскать на предмет наличия запрещенных средств. При этом криминального прошлого у него не было.

Впрочем, полностью полагаться на искусственный интеллект еще рано. В том же Израиле системы погранбезопасности не так давно были частично переведены под цифровое управление. Искусственный разум должен был предупредить об угрозе, исходящей от противника. Но не смог. Компьютер не сумел предотвратить кровавое нападение радикалов на Израиль 7 октября прошлого года. Система просто не заметила угрозы, хотя пограничники сообщали о подозрительных действиях в регионе. Военные не стали слушать людей и опрометчиво доверились компьютеру.

Авторские материалы. Все выпуски

Популярное аудио

Новые выпуски

Авто-геолокация