Чат-Бог: что могут и на что (пока) не способны ChatGPT, GPT-4 и подобные им системы
В процессе подготовки этого материала я, заболтавшись с ChatGPT, умудрилась не заметить и выйти не на той станции метро. Настолько меня увлекло "общение" с… чат-ботом.
ChatGPT − это чат-бот, который может переговариваться с человеком. Но "бот" этот умный, интеллигентный и образованный. Во всяком случае именно такое впечатление складывается во время "разговора" с ним.
ChatGPT может отвечать на вопросы, решать некоторые заданные задачи (хотя порой он выдаёт далёкие от правильных ответы), может написать текст по заданным человеком параметрам и многое другое. Именно поэтому у ChatGPT уже миллионы пользователей по всему миру. Но как этот "искусственный интеллект" всё это делает? И что ChatGPT представляет собой внутри?
Чтобы понять, что такое ChatGPT и подобные системы, мы поговорили с Игорем Пивоваровым, главным аналитиком исследовательского центра прикладных систем искусственного интеллекта МФТИ и стратегического советника компании Huawei по искусственному интеллекту.
Игорь, что такое ChatGPT. Можем ли мы с ним по-настоящему пообщаться?
ChatGPT – это языковая модель, развитие предыдущей системы GPT, которая была выпущена в 2021 году. Она была доработана, чтобы текст, который она генерирует, был более правдоподобным.
Её предшественник – GPT-3, большая текстовая модель, которая была натренирована на огромных объёмах текстов, и её главной особенностью было то, что она могла в принципе создавать текст.
Пользователь даёт ей какую-то "затравку", например, какую-то фразу, а она дальше эту фразу продолжает. При этом GPT-3 иногда генерировала полный бред. Она могла создавать какие-то истории. Но при этом она иногда выдавала абсолютно неправдоподобную информацию, совершенно фантазийные вещи.
ChatGPT – это следующий этап развития технологии. Она была представлена в ноябре 2022 года.
Создатели из компании OpenAI взяли модель GPT-3 и посадили за неё, условно, пять тысяч человек. Они стали дополнительно обучать модель на диалогах. Для этого ей дают какой-то запрос в виде текста, а она на него отвечает.
Задача людей, которые с ней работали, всех этих 5 тысяч тренеров, состояла в том, чтобы научить модель отвечать естественно. Так, как будто вы общаетесь с реальным человеком.
Как они обучали модель?
Языковая модель выдаёт результат, оценивая вероятности разных вариантов ответов. Модель GPT-3 выбирает наиболее статистически вероятное продолжение текста и выдаёт один ответ.
Теперь же человеку-тренеру она давала не один ответ, а пять наиболее вероятных. Далее он их ранжировал, то есть оценивал с точки зрения некоторых критериев.
Какой из этих ответов лучше, какой – хуже, какой – самый плохой. Есть такая схема машинного обучения, которая называется "обучение с подкреплением".
Если модель делает что-то правильное, то она получает "вознаграждение". Если делает что-то неправильное, её "штрафуют". Примерно так мы учим собак. Это работает как дрессировка.
И вот эти пять тысяч человек модель GPT-3 "дрессировали", давая ей "понять", что вот этот ответ – неэтичный, а вот этот ответ – расистский, а вот этот ответ неправдоподобный, а вот этот ответ – наиболее близкий к тому, который был бы дан человеком. И вот за последний система получает "вознаграждение".
Что ещё может делать этот "умный" чат-бот?
ChatGPT можно попросить сгенерировать программный код для определённых целей. Или, скажем, попросить написать, как решается какая-то теорема, или решить какую-то задачу. И модель выдаёт это решение. Правда, иногда она всё ещё делает глупые детские ошибки. Всё потому что как такового понимания у неё нет.
Всё равно она остаётся статистической моделью. Конечно, очень сильно улучшенной по сравнению с предыдущими версиями.
Пользователи сейчас специально ищут такие ошибки, и они уже далеко не каждый раз происходят.
Напрашивается самый главный вопрос: что могут и что не могут современные языковые модели? С какими целями они создаются?
Создаются они для того, чтобы решать задачи, которые разработчик ставит перед ней. Модель – это программа, но сделанная по другому принципу. Не классический алгоритм "если, то", а с помощью машинного обучения.
Какие будут у неё применения – до конца непонятно. Сейчас люди начали пробовать ChatGPT в самых разных областях именно для того, чтобы понять, где она может применяться. Появляются неожиданные способы её использования.
Недавно компания OpenAI анонсировала выход GPT-4. В чём состоит её ключевое отличие от предшественников?
Главное отличие – GPT-4 стала "мультимодальной", то есть она принимает на вход не только текст, но и картинку. Также, конечно, бóльшие размеры текста и прочие улучшения.
А можем ли мы доверять модели, если мы знаем, что она ошибается?
Пока непонятно, как можно доверять. В случае машинного обучения, даже обучая модель на множестве хороших текстов, допустим, на 100 миллионах примеров, мы научим её давать 100 миллионов правильных ответов. Но, когда мы ей показываем сто миллионов первый пример, то всегда есть шанс, что она на него даст неправильный ответ.
То есть, каждый следующий ответ может оказаться неправильным. Это особенность этих моделей.
Есть ещё один момент. Работа ChatGPT очень похожа на работу студентов. Когда студент приходит сдавать экзамен, задача преподавателя – понять, понимает ли он тему или предмет. Но есть люди, которые зубрят текст. Ты ему задаешь вопрос, а он тебе выдаёт некий текст, который он мог идеально заучить. При этом, он не понимает, о чём говорит, он просто выдаёт текст.
В каком-то смысле ChatGPT – пока вот такой "студент", который идеально зазубрил тексты, и вполне себе отвечает на какие-то простые вопросы. Но если начать задавать правильные вопросы, то выяснится, что, конечно, никакого понимания там нет. А до того складывается впечатление, что ответы правдоподобны.
Продолжение следует...