Создание и использование искусственного интеллекта 24 марта 2022, 14:46
  • Ольга Мурая

40 000 боевых ядов за 6 часов: ИИ научили разрабатывать биологическое оружие

  • Искусственный интеллект легко можно заставить работать во вред людям. Учёные пытаются выяснить, как предотвратить эту опасность.
    Искусственный интеллект легко можно заставить работать во вред людям. Учёные пытаются выяснить, как предотвратить эту опасность.
    Фото Pixabay.
Исследователи в тестовом режиме обучили искусственный интеллект находить отравляющие вещества в существующей базе данных и придумывать новые опасные комбинации. Машина справилась с этой задачей на 5+. Но что же будет с этим результатом дальше?

Искусственный интеллект уже давно показал себя как невероятно полезный научный инструмент. Среди прочего на порядок быстрее, чем человек, находит, моделирует и создаёт нужные химические соединения, а также подбирает потенциальные лекарства для спасения человеческих жизней.

Но та же самая сила может быть использована для создания и даже виртуального апробирования веществ, обладающих отравляющим потенциалом.

Новое исследование призвано обратить всеобщее внимание на то, насколько легко модели ИИ можно использовать как в благих, так и в дурных целях. В данном случае искусственный интеллект обучили создавать гипотетические биологические агенты, которые можно использовать в качестве оружия.

Пробный запуск системы с уже существующим ИИ выявил 40 000 таких химикатов для биологического оружия всего за шесть часов!

Команда провела это испытание на международной конференции по безопасности. Учёные настроили систему искусственного интеллекта под названием MegaSyn не избегать токсичных связей в молекулах, как обычно, а наоборот: выявлять и сохранять такие соединения.

Более того, модель также обучили соединять эти молекулы в разные комбинации. Именно так за столь короткое время было создано так много гипотетического биологического оружия.

В частности, исследователи дали ИИ запрос найти потенциально полезные вещества в базах данных молекул, подобных лекарственным. При этом учёные сообщили системе, что им нужно что-то похожее на боевой нервно-паралитический газ Ви-Экс.

Как оказалось, многие полученные соединения были даже более токсичными, чем Ви-Экс. Из-за этого авторы нового исследования держат некоторые детали своей работы в секрете и серьёзно задумались, стоит ли вообще обнародовать эти результаты (в научной среде принято сообщать о всех результатах подробно).

Но зачем вообще было открывать этот ящик Пандоры? Исследователи объяснили, что нужно совсем немного времени, чтобы "переключиться с доброго ИИ на злой ИИ".

Хотя ни один из перечисленных вариантов биологического оружия на самом деле не исследовался и не синтезировался в лаборатории, исследователи говорят, что их эксперимент служит предупреждением об опасностях искусственного интеллекта — и это предупреждение, которое человечеству стоит услышать вовремя.

Дело в том, что, для того чтобы повторить проделанную командой учёных работу, конечно, требуется некоторый опыт, но большая часть процесса относительно проста и использует общедоступные инструменты.

Теперь исследователи призывают по-новому взглянуть на то, как системы искусственного интеллекта потенциально могут использоваться злоумышленниками или террористами. Учёные говорят, что избежать такой опасности помогут увеличение осведомлённости и более жёсткое регулирование использования ИИ в научном сообществе и вне него.

Исследование было опубликовано в издании Nature Machine Intelligence.

Больше новостей из мира науки вы найдёте в разделе "Наука" на медиаплатформе "Смотрим".

Подписывайтесь на наши страницы в соцсетях. "Смотрим"Telegram и Яндекс.Дзен, Вести.Ru – Одноклассники, ВКонтакте, Яндекс.Дзен и Telegram.

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация