Авторские материалы ИИ идёт на войну
Персоны
Будут ли нейросети воевать эффективнее человека? Американские разработчики одного из самых популярных чат-ботов ChatGPT убрали запрет на его военное применение. Внедрение технологий искусственного интеллекта может изменить характер войны и ее правила до неузнаваемости. Уже запущена новая гонка вооружений на его основе. Чем это грозит, как повлияет на мир и ждать ли Терминатора на поле боя – в материале корреспондента "Вестей ФМ" Александра Ельшевского.
Ударная волна от взрыва сотрясает машину, но робот продолжает движение, лязгая гусеницами по россыпям щебня и бетонным обломкам с торчащей арматурой. Роботизированный комплекс "Уран-6" разминирует город в Донбассе. Он служит людям, очищая улицы и руины от мин и ловушек. Другой, уже колесный, комплекс "Маркер" стережёт небо, высматривая небольшие дроны при помощи своих сенсоров и радара. Если цель найдена, то он спрашивает разрешения, и оператор дает команду на уничтожение, после этого компьютер уже ведет и ликвидирует цель самостоятельно. Его старший собрат, уже на основе полноценного ракетного комплекса ПВО, несет боевое дежурство и может самостоятельно сбивать ракеты и самолеты. Другие колесные платформы помогают подвозить боеприпасы на особо опасные участки и эвакуировать раненых. Все это использует алгоритмы и элементы искусственного интеллекта, или, сокращенно, ИИ.
Есть и сугубо боевые машины. Ударные дроны "Ланцет" сами могут искать и атаковать цели, выбирая удачный момент. Боевые машины оповещают экипаж об опасности и подсказывают, какой маневр стоит совершить, где именно находится противник и откуда ждать удара. Причем технологии развиваются так, что речь уже идет не о заоблачно дорогих системах. Небольшие FPV-дроны стоимостью в пару десятков тысяч прямо сейчас дают картинку оператору, которую при помощи машинного обучения анализирует система распознавания, которая выделяет цели и помогает наводить на них одноразовый барражирующий боеприпас.
Искусственный интеллект уже применяется при планировании современных войн. Последний конфликт в Израиле не обошелся без советов компьютера, и ЦАХАЛ в войне с палестинской группировкой ХАМАС использовал цифровые алгоритмы для выбора целей авиаударов. При помощи них обрабатывали огромные объемы данных, и система делала выводы для определения целей ударов. Для быстрого планирования дальнейших атак использовалась модель искусственного интеллекта под названием Fire Factory, которая основывала свои решения на данных о ранее одобренных военными ударах. Планирование, которое занимало дни и часы, теперь обходится минутами, за которые не только определяются цели, но и проходит проверка, после которой получается одобрение старшим офицером.
Но излишнее доверие к подобным системам называют одной из причин провала спецслужб и военных – алгоритмы не смогли предсказать атаку, а руководство отбросило выводы и наблюдения людей, которые предупреждали о том, что видят признаки подготовки.
ИИ поручают разную аналитику. К примеру, еще в 2017 году в США запустили проект Maven, или "Знаток", – искусственный интеллект, способный находить людей на записях с камер тех же дронов и составлять на них досье. К 2020 году проект стал частью расширенной системы управления боем АБМС, которая получает данные с датчиков на поля боя в реальном времени, обрабатывает их и помогает военным быстрее принимать решения. Для понимания того, как она действует: разведка получает кадры заброшенного здания, вокруг – люди в камуфляже или одежде защитного цвета. Файл мгновенно попадает в центр обработки данных, где алгоритмы сравнивают изображение с миллионами других. Программа ищет сходство людей на видео с внесенными в базу данных террористами, сверяется с фотографиями со спутников, а также предлагает лучший вариант для ракетного удара. Так, офицеры в штабе получают предполагаемую картину происходящего, которую сформировал компьютер. Остается только принять решение об ударе.
Нечто похожее представила компания Palantir, давно сотрудничающая с американскими военными. Их система под названием AIP похожа на ChatGPT, которую дополнили интерфейсом планирования задач. Оператор может общаться с ней, написав команду в чат, – например, "покажи подразделения врага", "обнови разведданные", "рассчитай, как их можно атаковать". Все упрощено до предела.
Программы этой же фирмы анализируют и переводят перехваченные переговоры, выделяя важную информацию, распознают лица, анализируя фотографии из социальных сетей. Они же служат мощным инструментом для разведки по открытым источникам, или OSINT, которая начинает играть все более мощную роль в современной войне.
Такие системы-помощники делают и в России. По заказу Минобороны сейчас тестируют автоматизированную систему управления, которая должна рассчитывать траекторию полета ракет, оценивать боеспособность своих и вражеских подразделений, а также возможные потери.
Но это – программы специальной разработки, работающие с секретными данными. Теперь же породившая бум нейросетей компания OpenAI снимает запрет на использование своей языковой модели GPT в военных целях. Нейросети такого типа принято считать новой вехой в развитии технологий. Искусственному интеллекту на основе подобных моделей приписывают чудодейственные свойства. И действительно, искусственный интеллект может анализировать такое количество данных, которое не осилит и сотня аналитиков. Это позволяет предвидеть шаги противника, имея больше информации. Бывший главнокомандующий вооруженными силами НАТО в Европе адмирал Джеймс Ставридис сравнил значение ИИ для ведения боевых действий с появлением лука, пороха, нарезных стволов, самолетов, подводных лодок и ядерного оружия. По его мнению, искусственный интеллект позволит тем, кто принимает решения, "мгновенно просматривать всю военную историю" и выбирать оптимальный вариант ведения боя.
Но именно в этом кроется и слабость подобных технологических решений. Если разобраться, то ИИ – это наборы алгоритмов, которые находят закономерности и обучаются на огромном объеме информации. Машинное обучение строится в них на том принципе, что чем чаще нейросеть сталкивается с каким-то паттерном, тем больше будет считать его правильным. А война постоянно генерирует неожиданные ситуации, и часто на ситуацию влияет такое количество факторов, какое не сможет учесть ни один алгоритм. И верные в прошлом решения могут оказаться абсолютно ошибочными в новых условиях. И цена такой ошибки может стоит проигрыша и многих человеческих жизней.
Достаточно сказать, что до сих пор не имеет общего решения знаменитая задача о взаимодействии трех тел, на поведение которых уже влияет столько факторов, что в итоге описать все единой формулой, которая предскажет все движения, невозможно. А в любом бою все происходит намного более непредсказуемо, чем в абстрактной системе из трех тел, и взаимодействуют там люди. А человеческий фактор способен внести хаос в самый стройный план и любую систему, сломав все алгоритмы и анализ данных.
Есть и другая сложность – нейросеть получает данные и пропускает через себя, разбирая и анализируя без участия человека, и повлиять на этот анализ не так просто, как и скорректировать его, что приводит очень часто к непредсказуемым результатам. Так во время испытаний в прошлом году американский беспилотник, управляемый искусственным интеллектом, принял решение о ликвидации оператора – после того как компьютер счел, что человек мешает ему выполнять задачу. Система начала осознавать, что, хотя она и определяет угрозу, иногда человек-оператор запрещает её уничтожать. И тогда она приняла наиболее логичное, исходя из своих установок, решение – ликвидировала оператора. После того, как в ответ на этот запрос системе было запрещено убивать оператора, дрон "нанёс удар" по пункту управления, чтобы освободиться от человека и "действовать самостоятельно" и более эффективно.