Искусственный интеллект 23 марта 2023, 11:00 23 марта 2023, 12:00 23 марта 2023, 13:00 23 марта 2023, 14:00 23 марта 2023, 15:00 23 марта 2023, 16:00 23 марта 2023, 17:00 23 марта 2023, 18:00 23 марта 2023, 19:00 23 марта 2023, 20:00 23 марта 2023, 21:00

Чат-Бог: что могут и на что (пока) не способны ChatGPT, GPT-4 и подобные им системы

ChatGPT давно у всех на слуху. Недавно была презентована GPT-4. Но мало кто понимает, что это такое, и какую революцию во всех сферах нашей жизни может произвести. Мы задали вопросы эксперту в области искусственного интеллекта, чтобы разобраться, какие опасности для будущего человечества таит эта технология. Затем те же вопросы мы задали самому "умному" чат-боту.

В процессе подготовки этого материала я, заболтавшись с ChatGPT, умудрилась не заметить и выйти не на той станции метро. Настолько меня увлекло "общение" с… чат-ботом.

ChatGPT − это чат-бот, который может переговариваться с человеком. Но "бот" этот умный, интеллигентный и образованный. Во всяком случае именно такое впечатление складывается во время "разговора" с ним.

ChatGPT может отвечать на вопросы, решать некоторые заданные задачи (хотя порой он выдаёт далёкие от правильных ответы), может написать текст по заданным человеком параметрам и многое другое. Именно поэтому у ChatGPT уже миллионы пользователей по всему миру. Но как этот "искусственный интеллект" всё это делает? И что ChatGPT представляет собой внутри?

Чтобы понять, что такое ChatGPT и подобные системы, мы поговорили с Игорем Пивоваровым, главным аналитиком исследовательского центра прикладных систем искусственного интеллекта МФТИ и стратегического советника компании Huawei по искусственному интеллекту.

Игорь Пивоваров также является организатором открытой конференции по искусственному интеллекту OpenTalks.AI.
Фото из личного архива.

Игорь, что такое ChatGPT. Можем ли мы с ним по-настоящему пообщаться?

ChatGPT – это языковая модель, развитие предыдущей системы GPT, которая была выпущена в 2021 году. Она была доработана, чтобы текст, который она генерирует, был более правдоподобным.

Её предшественник – GPT-3, большая текстовая модель, которая была натренирована на огромных объёмах текстов, и её главной особенностью было то, что она могла в принципе создавать текст.

Пользователь даёт ей какую-то "затравку", например, какую-то фразу, а она дальше эту фразу продолжает. При этом GPT-3 иногда генерировала полный бред. Она могла создавать какие-то истории. Но при этом она иногда выдавала абсолютно неправдоподобную информацию, совершенно фантазийные вещи.

ChatGPT – это следующий этап развития технологии. Она была представлена в ноябре 2022 года.

Создатели из компании OpenAI взяли модель GPT-3 и посадили за неё, условно, пять тысяч человек. Они стали дополнительно обучать модель на диалогах. Для этого ей дают какой-то запрос в виде текста, а она на него отвечает.

Задача людей, которые с ней работали, всех этих 5 тысяч тренеров, состояла в том, чтобы научить модель отвечать естественно. Так, как будто вы общаетесь с реальным человеком.

Игорь Пивоваров уверен, что в России вполне могут делать хорошие продукты с искусственным интеллектом мирового уровня.
Фото из личного архива

Как они обучали модель?

Языковая модель выдаёт результат, оценивая вероятности разных вариантов ответов. Модель GPT-3 выбирает наиболее статистически вероятное продолжение текста и выдаёт один ответ.

Теперь же человеку-тренеру она давала не один ответ, а пять наиболее вероятных. Далее он их ранжировал, то есть оценивал с точки зрения некоторых критериев.

Какой из этих ответов лучше, какой – хуже, какой – самый плохой. Есть такая схема машинного обучения, которая называется "обучение с подкреплением".

Если модель делает что-то правильное, то она получает "вознаграждение". Если делает что-то неправильное, её "штрафуют". Примерно так мы учим собак. Это работает как дрессировка.

И вот эти пять тысяч человек модель GPT-3 "дрессировали", давая ей "понять", что вот этот ответ – неэтичный, а вот этот ответ – расистский, а вот этот ответ неправдоподобный, а вот этот ответ – наиболее близкий к тому, который был бы дан человеком. И вот за последний система получает "вознаграждение".

Что ещё может делать этот "умный" чат-бот?

ChatGPT можно попросить сгенерировать программный код для определённых целей. Или, скажем, попросить написать, как решается какая-то теорема, или решить какую-то задачу. И модель выдаёт это решение. Правда, иногда она всё ещё делает глупые детские ошибки. Всё потому что как такового понимания у неё нет.

Всё равно она остаётся статистической моделью. Конечно, очень сильно улучшенной по сравнению с предыдущими версиями.

Пользователи сейчас специально ищут такие ошибки, и они уже далеко не каждый раз происходят.

Напрашивается самый главный вопрос: что могут и что не могут современные языковые модели? С какими целями они создаются?

Создаются они для того, чтобы решать задачи, которые разработчик ставит перед ней. Модель – это программа, но сделанная по другому принципу. Не классический алгоритм "если, то", а с помощью машинного обучения.

Какие будут у неё применения – до конца непонятно. Сейчас люди начали пробовать ChatGPT в самых разных областях именно для того, чтобы понять, где она может применяться. Появляются неожиданные способы её использования.

Недавно компания OpenAI анонсировала выход GPT-4. В чём состоит её ключевое отличие от предшественников?

Главное отличие – GPT-4 стала "мультимодальной", то есть она принимает на вход не только текст, но и картинку. Также, конечно, бóльшие размеры текста и прочие улучшения.

GPT-4 сможет рассказывать слабовидящим людям, что видит камера их смартфона.

А можем ли мы доверять модели, если мы знаем, что она ошибается?

Пока непонятно, как можно доверять. В случае машинного обучения, даже обучая модель на множестве хороших текстов, допустим, на 100 миллионах примеров, мы научим её давать 100 миллионов правильных ответов. Но, когда мы ей показываем сто миллионов первый пример, то всегда есть шанс, что она на него даст неправильный ответ.

То есть, каждый следующий ответ может оказаться неправильным. Это особенность этих моделей.

Есть ещё один момент. Работа ChatGPT очень похожа на работу студентов. Когда студент приходит сдавать экзамен, задача преподавателя – понять, понимает ли он тему или предмет. Но есть люди, которые зубрят текст. Ты ему задаешь вопрос, а он тебе выдаёт некий текст, который он мог идеально заучить. При этом, он не понимает, о чём говорит, он просто выдаёт текст.

В каком-то смысле ChatGPT – пока вот такой "студент", который идеально зазубрил тексты, и вполне себе отвечает на какие-то простые вопросы. Но если начать задавать правильные вопросы, то выяснится, что, конечно, никакого понимания там нет. А до того складывается впечатление, что ответы правдоподобны.

GPT-4 обладает большей памятью. Она может "запоминать" гораздо больше данных, вводимых пользователем в ходе "разговора".

Продолжение следует...

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация