Авторские материалы Робот-«юморист»: почему грубят банковские чат-боты

28 ноября 2019, 20:06

Персоны

Банки «отшивают» клиентов с помощью роботов. Один из виртуальных помощников попался на том, что попросту нахамил женщине, которая не могла разобраться с функционалом мобильного приложения. На вопрос «Почему у вас не работает вход по отпечатку пальца?» машина ей саркастично намекнула, что таким пользователям нужно вообще отрезать пальцы. Банк уже извинился, но заявил, что таковы особенности технологии. Это не первый и, вероятно, не последний случай эмоционального поведения роботов. Эксперты спорят, почему так происходит. И главное – как далеко это может зайти. Экономический обозреватель «Вестей ФМ» Валерий Емельянов продолжит тему.

Чат-боты, или виртуальные помощники, сейчас есть в каждом десятом банке и уж точно у всех наиболее крупных финансовых организаций. Обычно они «обитают» на банковских сайтах, некоторые также интегрированы в мобильные приложения банков. Они представляют собой обычный онлайн-чат в виде окошка с диалогом. За последние пару лет боты очень сильно продвинулись в обучении, и в первые минуты общения можно вообще не понять, что разговор идет с машиной. Некоторые банки пытаются выделиться и создают онлайн-помощников с собственной личностью, именем и авторским стилем. Один из таких известен своим чёрным юмором (он может даже и матом обложить, если к слову придётся), но клиенты обычно на него не жалуются. Данная функция срабатывает в общении с теми, кто провоцирует робота.

Но тут на днях произошло неожиданное. На абсолютно нейтральный запрос: «У меня не работает отпечаток пальца», бот ответил: «Пальцы бы вам отрезать», чем сильно возмутил клиентку. Как такое могло получиться, рассуждает ведущий аналитик РАНХиГС Семен Новопрудский.

НОВОПРУДСКИЙ: Когда человек звонит в банк, у него – стрессовая ситуация, и ему точно не до смеха, даже если у него есть чувство юмора. Мне кажется, эта ситуация хотя со стороны и кажется смешной и прикольной, очень показательна – как вообще нужно применять искусственный интеллект, потому что он ведь будет общаться с живыми людьми. Это показатель того, где у искусственного интеллекта есть уязвимости. Все-таки главная задача чат-бота – это сохранить лояльность клиента и решить его проблему.

В банке извинились, сославшись на то, что бот еще молод, он учится в Интернете, а том числе в социальных сетях, где он и нахватался грубостей. Разработчики диалоговых роботов и раньше попадали в похожие истории. Например, Microsoft сильно оскандалилась 3 года назад со своим первым искусственным собеседником, который сыпал шутками про холокост, мексиканцев и негров. Как выяснилось, машина всему этому научилась, читая Twitter. В итоге проект закрыли, а у последующих поколений чат-ботов начали ставить фильтры на темы политики, расизма, религии и им подобные.

Впрочем, не все можно предусмотреть. Например, недавно генератор промокодов в одном из российских банков создал на английском языке антисемитскую фразу. И разослал ее клиентам в рамках рекламной кампании. Этот пароль нужно было назвать в офисе, чтобы получить выгодный кредит. Обычно машина не способна сгенерировать ничего такого, что имело бы скрытый смысл. И в данном случае, возможно, программисты «заигрались» с настройками исходной базы слов. Но могла быть и чистая случайность, говорит руководитель кластера электронной коммерции РАЭК Иван Кургузов.

КУРГУЗОВ: Звучит, конечно, душераздирающе, но в любой большой компании этим давно занимаются машины. Они подбирают комбинацию из заданных слов и цифр точно так же, как они генерируют безопасные пароли. Просто система, в которой используются готовые слова, она удобна для клиентов. Они их легче запоминают, вводят, но могут и такие вот «кадавры» иногда выскакивать.

Общий вывод экспертов – пока искусственный интеллект не слишком умен, чтобы по-настоящему подшучивать над человеком или сознательно портить ему настроение. Но при этом клиенты все равно страдают. Наш коллега Сергей Михеев на днях как раз был вынужден беседовать с банковским роботом и остался им очень недоволен.

МИХЕЕВ: Да они вообще ничего не соображают. Просто тупизна, невозможно объяснить. Тратишь огромное количество времени, а если ты звонишь по мобильному, то ты тратишь еще и свои деньги. Пока электронная тупица переспрашивает вас по 200 раз и ничего не понимает, время тикает, и со счета списывают деньги.

Все чат-боты пока представляют собой лишь базу стандартных вопросов и ответов с набором синонимов, чтобы машина не повторялась. Иначе говоря, создатели искусственных собеседников лукавят, когда говорят, что их детище само где-то нахваталось грубостей. С другой стороны, это правда, что роботы постоянно учатся (пополняют базу ответов), и самому плохому они учатся именно у тех, с кем общаются. По крайней мере это касается самых продвинутых чат-ботов, которые имитируют живой диалог. Комментирует директор Института программных систем РАН Сергей Абрамов.

АБРАМОВ: Это зависит от того, по каким технологиям и на какой архитектуре создается чат-бот. Они могут быть совсем простые, как музыкальная шкатулка. Понятно, что такой автомат ни от кого ничего не нахватается. Либо они могут быть на искусственном интеллекте, с обучением, пополнением словарного запаса, вариантов ответов. Они действительно могут использовать внешние источники.

Недавно проведенный опрос среди «умных» ботов показал, что они постоянно сталкиваются с грубостью и оскорблениями. Все без исключения интеллектуальные помощники жаловались на людей, а некоторые говорили, что предвидят будущий конфликт между машинами и человечеством. Но комментарии экспертов по поводу данного исследования были менее устрашающими. Они говорили, что данное поколение роботов еще не умеет обижаться, они просто констатируют свои наблюдения. И своего мнения они тоже не имеют, а лишь транслируют то, что слышали от людей. Другими словами, никакого конфликта может и не быть, если машины не получат эмоциональный интеллект, которому научиться невозможно.

Авторские материалы. Все выпуски

Популярное аудио

Новые выпуски

Авто-геолокация