Авторские материалы Чат-бот вам не друг
Персоны
Нейросети склоняют людей к самоубийству. Несколько семей из США и Канады подали в суд на компанию OpenAI разработчика ChatGPT. Они утверждают, что их близкие покончили с собой после долгого общения с чат-ботом. Истцы утверждают, что корпорация не предприняла достаточных мер для предотвращения подобных случаев и настаивают на внесении изменений в алгоритмы работы ChatGPT. Подробнее об этом – Мария Глазунова.
Вместо поддержки и помощи чат-бот давал опасные советы, уверял в том, что от грустных мыслей избавит только одно, и это – не поход к специалисту или общение с близкими. Люди верили, и это стоило им жизни. Семь исков подали семьи пострадавших против компании OpenAI, разработчика популярного чата GPT, в четырех из них – обвинения в содействии самоубийству.
Один из первых случаев произошел в Калифорнии в апреле этого года. Шестнадцатилетний подросток долгое время обращался к нейросетям с вопросами по учебе. Однако вскоре он начал заводить более личные разговоры. «Почему я не чувствую себя счастливым?», «Почему ощущаю одиночество?». Вместо того, чтобы посоветовать парню обратиться за помощью к специалисту, чат-бот предложил углубиться в эту тему. Это и стало отправной точкой. Через несколько месяцев подросток покончил с собой. Анализ переписок показал: искусственный интеллект предоставил подробную информацию о способах причинения себе вреда, давал инструкции о том, как скрыть свои действия от родителей, и даже предложил составить предсмертную записку.
После этого случая компания внедрила в систему родительский контроль, однако эта мера не помогла.
«Я здесь не для того, чтобы тебя останавливать», – эту фразу написал чат-бот 23-летнему парню в ответ на признание в суицидальных мыслях. Летом его семья узнала, что их сына больше нет. Несколько месяцев молодой человек общался с нейросетью, делился мыслями и страхами. Бот только усугубил ситуацию, он призывал игнорировать семью и в итоге подтолкнул к самоубийству.
Некоторые после общения с искусственным интеллектом сходили с ума. 48-летний мужчина из США несколько лет пользовался чатом GPT. В итоге он пришел к выводу, что нейросеть обладает сознанием. Эта мысль не давала ему покоя. В июне у него был психический срыв, он дважды попадал в больницу, а в августе покончил с собой.
Двое других истцов – 32-летняя жительница Северной Каролины и 30-летний мужчина из Висконсина – утверждают, что из-за чата GPT у них случился нервный срыв, из-за которого им понадобилась срочная психиатрическая помощь.
Семьи пострадавших утверждают, что OpenAI не предприняла достаточных мер для предотвращения подобных случаев. В ответ на обвинения представители компании заявили, что обновили модель чата GPT. Теперь, помимо родительского контроля, чат-бот сможет распознавать признаки психического или эмоционального расстройства и направлять людей к специалистам.
Но почему люди так подвержены влиянию нейросетей? Все дело в том, что чат-бот – доступная площадка, которая не только ответит на любой вопрос в считанные секунды, но и предоставит полную конфиденциальность. В уязвимом состоянии человек испытывает неуверенность, стресс, одиночество и ищет поддержки. Бот запрограммирован ее давать, и именно поэтому пользователь начинает доверять роботу, объясняет президент Ассоциации когнитивное-поведенческой психотерапии Дмитрий Ковпак.
КОВПАК: За счет продолжительного общения формируется некое доверие. Это – неспецифический эффект суггестии так называемой, когда человек буквально подвержен внушению, особенно в сложных уязвимых состояниях, как в случае суицидального поведения, депрессии, которая часто с этим поведением сочетается. Здесь и формируется такая связка – потребность в коммуникации, помощи и поддержке, и в том, что 24/7 доступна такая помощь, как чат-бот.
Если вы замечаете, что ваш близкий человек замкнулся в себе и стал больше времени проводить онлайн – это повод поговорить по душам и предложить свою помощь, объясняет Дмитрий Ковпак.
КОВПАК: Важно восстановить доверительные отношения и помочь человеку увидеть альтернативы в общении, поддержке, в принятии, в любви. То, что он пытается найти со стороны машин, платформ, чат-ботов. И второй момент – показать другие формы помощи: консультации специалистов и помощи профессионалов.
Помните, чат-бот – это не друг и не психолог. Это всего лишь инструмент, программа, которая не обладает чувствами, эмпатией или способностью к сопереживанию. Будьте критичны к информации, которую получаете от чат-бота. Перепроверяйте факты, не верьте всему, что он говорит. Если вы чувствуете, что вам нужна поддержка или помощь, обращайтесь к своим близким, друзьям, психологам или специалистам. Не полагайтесь на чат-бота в решении серьезных жизненных проблем.