
Авторские материалы "Умный" дрон "убил" своего оператора во время виртуальной миссии
Персоны
Военный американский беспилотник решил убить своего создателя во время испытаний. Искусственный интеллект дрона посчитал, что человек мешает исполнять миссию, а потому лучшее решение проблемы – атака собственного пункта управления с нейтрализацией оператора. Впрочем, все эти страсти случились в онлайне во время имитационных тестов. Никто из живых людей не пострадал. С подробностями – корреспондент "Вестей ФМ" Сергей Гололобов.
Многозначительный эпизод рассказал американский полковник Такер Гамильтон на научном саммите, посвященном военно-воздушным и космическим силам будущего. Как водится, обсуждали модную ныне тему искусственного интеллекта, которому скоро могут доверить управление боевыми летательными аппаратами. Так, чтобы именно искусственный интеллект управлял беспилотниками в бою, когда дистанционное вмешательство наземного оператора невозможно из-за помех, либо просто не нужно. На каком беспилотнике отрабатывали миссию, военный не уточнил.
Пресса приводит два варианта. Первый – это экспериментальный дрон Kratos XQ-58 Valkyrie. Его основная задача – сопровождение истребителей F-22 или F-35 во время боевых заданий. Беспилотная "Валькирия Первая" врывается в зону ПВО противника, ищет и поражает его зенитно-ракетные комплексы. Тем самым, пилоты истребителей не рискуют быть сбитыми, и могут спокойно работать по другим целям. Второй вариант – роботизированный истребитель F-16. Внешне это обычный F-16, но без летчика в кабине. Тоже экспериментальный образец. Так вот, в ходе очередного теста умный дрон должен был уничтожать вражеские комплексы ПВО. Впрочем, финальное решение, будет ли цель поражена, принимал оператор БПЛА – он же разработчик программной начинки дрона. За каждый удачный удар начислялись очки.
Но в какой-то момент оператор запретил беспилотнику атаку. И его искусственный интеллект возмутился. Жажда баллов превысила опасения получить нагоняй от оператора. И тогда, по словам полковника, беспилотник принял решение убить своего создателя. "Дрон вернулся на базу и отбомбился по человеку, потому что тот ему мешал. После чего вернулся к выполнению миссии", – сообщил Гамильтон. Он, конечно же, уточнил, что это были виртуальные тесты, и никто реально не пострадал.
В качестве вывода Такер Гамильтон предостерег от чрезмерной зависимости от искусственного интеллекта, отметив, как легко его обмануть. По словам полковника, этот пример показывает, что невозможно вести разговор об искусственном интеллекте и машинном обучении, если игнорировать вопросы этики. В свою очередь, представитель ВВС США Энн Стефанек заявила, что никаких виртуальных убийств оператора дрона не было, да и вообще похожие эксперименты в ведомстве не проводили. По мнению Стефанек, комментарии полковника были вырваны из контекста и должны были носить анекдотический характер.