Новая разработка помешает ИИ притвориться человеком
В официальном блоге OpenAI говорится, что компания создает алгоритм-классификатор, который сможет определить текст как сгенерированный нейросетями, когда его пытаются выдать за созданный человеком.
Это может пригодится для борьбы с массовыми кампаниями дезинформации в интернете, чтобы ловить пытающихся жульничать школьников и студентов или выявлять чат-ботов, притворяющихся людьми. Разработку выложили в открытый доступ, чтобы набрать отзывы пользователей и совершенствовать ее дальше.
В настоящий момент система довольно несовершенна. В OpenAI говорят, что она пока малоэффективна для текстов короче 1000 знаков, однако чем текст длиннее, тем точность работы алгоритма выше. Пока он может выдавать как ложноотрицательные, так и ложноположительные результаты.
Ранее сообщалось, что чат-бот ChatGPT успешно ответил на большинство экзаменационных вопросов курса MBA престижной американской бизнес-школы.