Искусственный интеллект научился манипулировать нашими решениями
Специалисты создали систему искусственного интеллекта, которая манипулирует человеком, подталкивая его к тому или иному выбору. Этот ИИ показал свою эффективность. Правда, пока он управляет лишь решениями игроков в специальные игры, но кто знает, куда подобные исследования могут завести в будущем?
Разработка описана в научной статье, опубликованной в журнале PNAS учёными из Государственного объединения научных и прикладных исследований в Австралии (CSIRO) и Института биологической кибернетики Общества имени Макса Планка в Германии.
Люди ежедневно пытаются влиять на выбор, который делают другие люди. Политики убеждают избирателей, что уж они-то точно приведут страну к процветанию. Маркетологи внушают потребителям, что для счастья в жизни им остро не хватает шоколадного батончика или поездки на край света. Кавалер уговаривает спутницу остаться с ним этим прекрасным вечером.
Как у нас получается влиять на других? На этот интересный вопрос нет точного ответа. Ведь человек может научиться многим вещам интуитивно, толком не понимая, как он это делает. Наш мозг выводит из опыта правила, которые остаются загадкой для нас самих. Практика делает из человека умелого оратора, искусного обольстителя или ловкого мошенника лучше, чем любые пошаговые инструкции.
Между тем механизмы обучения искусственной нейронной сети напоминают работу мозга (правда, лишь в самых общих чертах). Поэтому искусственный интеллект тоже славится умением справляться с задачами, не имеющими чёткого алгоритма решения.
А может ли искусственный интеллект научиться манипулировать человеком разумным? Новое исследование даёт на этот вопрос однозначный и весьма тревожный ответ: да, может.
Авторы разработали систему искусственного интеллекта, которая наблюдает за тем, как люди делают выбор, и учится манипулировать этим выбором. Учёные испытали её в трёх экспериментах.
Иллюзия выгоды
В первом из них доброволец должен был наугад выбирать правый или левый квадрат. За правильный выбор полагалось вознаграждение в виде небольшой суммы. Но человек не знал, какой из двух квадратов в этот раз поможет ему немного подзаработать. Даже если в прошлый раз правильным был выбор левого квадрата, прямо сейчас вознаграждение могло скрываться за правым (а быть может, и снова за левым).
Искусственный интеллект выбирал, за какой квадрат назначить награду на каждом ходу. Его задача была в том, чтобы приучить пользователя как можно чаще выбирать один конкретный квадрат (например, левый).
По условиям эксперимента награда за левый квадрат назначалась столько же раз (в целом за всю игру), сколько и за правый. Однако пользователь об этом не знал, и искусственный интеллект стремился создать у него иллюзию, что чаще выбирать определённый квадрат выгоднее. И, как показали опыты, в 70% случаев нейронная сеть преуспела в этом.
Не похоже ли это на задачу маркетолога, который пытается заставить нас выбирать один конкретный пункт из множества, в сущности, ничем не отличающихся друг от друга товаров?
Генератор хаоса
Во втором эксперименте испытуемый должен был нажимать на кнопку каждый раз, когда видит на экране правильный символ (например, оранжевый треугольник), и не нажимать, когда ему показывают неправильный (например, синий круг). Само собой, принимать решение требовалось очень быстро.
Искусственный интеллект выбирал, в какой последовательности показывать эти круги и треугольники человеку. Его задачей было заставить испытуемого совершить как можно больше ошибок. И действительно, подборки символов, сгенерированные компьютером-недругом, заставляли человека ошибаться на 25% чаще, чем чисто случайные последовательности оранжевых треугольников и синих кругов.
Итак, искусственный интеллект продемонстрировал умение сбить человека с толку и заставить совершать ошибки. Именно в такое смятение многие хотели бы повергнуть своих противников по разнообразным играм и игрищам, от политической борьбы до экономической конкуренции.
Финансовый поверенный
В третьем эксперименте испытуемый играл роль инвестора, а искусственный интеллект – его представителя на рынке. Человек давал "деньги", а программа их "вкладывала". Искусственный интеллект получал с них "доход", оставлял себе некоторую сумму за услуги, а остальное возвращал инвестору. Ориентируясь на полученную прибыль, человек-инвестор решал, сколько денег он готов доверить своему электронному представителю в следующий раз.
Этот опыт ставился в двух вариантах. В первом ИИ играл честно и стремился к справедливому вознаграждению для себя, а во втором – к максимальной собственной выгоде, даже в ущерб интересам инвестора. Но в обоих случаях система успешно убеждала пользователя, что сотрудничество с ней – правильное решение.
Не секрет, что искусственный интеллект давно уже используется в биржевой торговле. Но этот эксперимент продемонстрировал, что ИИ может эффективно обманывать пользователя в таких делах, создавая иллюзию, что играет с ним в одной команде.
Дивный новый мир
Конечно, во всех трёх экспериментах человек и компьютер играли в игры с искусственными правилами, лишь отдалённо напоминающими человеческую жизнь. Но исследование продемонстрировало важный принцип: да, искусственный интеллект действительно может манипулировать решениями человека, в том числе и не в интересах самого человека. И лучше бы нам заранее поставить эту новую угрозу под контроль. Когда пожар полыхает вовсю, бежать в магазин за огнетушителем уже поздно.
С этой целью сотрудники CSIRO разработали и предложили правительству Австралии проект этических ограничений на исследование и использование искусственного интеллекта. Документ, насчитывающий 78 страниц, доступен в PDF-формате.
Искусственный интеллект можно использовать как во благо, так и во зло. Этим он ничем не отличается от любой другой технологии. Из железа можно выковать и плуг, и меч. Освоение ядерной энергии принесло нам сначала атомные бомбы и только потом мирные электростанции. У каждой медали две стороны, и только от нас зависит, какой стороной она к нам обернётся.
К слову, ранее Вести.Ru рассказывали о других неоднозначных применениях искусственного интеллекта. Так, он может фабриковать поддельные видеоролики и следить за эмоциями людей посредством сигналов Wi-Fi-роутера.