OpenAI создала инструмент для защиты от ИИ-фейков
Инструмент демонстрирует высокую (98%) точность обнаружения изображений, созданных DALL-E 3, но может испытывать трудности с распознаванием контента, подвергшегося незначительным изменениям (такими как обрезка) или созданного аналогичными ИИ-инструментами. Распознавание также ухудшается, если изменить оттенки изображения.
Разработка "ИИ-детектора" обусловлена растущими опасениями по поводу распространения фейковых изображений и другого контента, созданных с помощью генеративных моделей искусственного интеллекта. Это вносит путаницу в понимание реальности и вызывает беспокойство по поводу возможного влияния на избирательные кампании 2024 года.
Политики обеспокоены тем, что избиратели могут чаще сталкиваться с созданными искусственным интеллектом изображениями в Интернете, а доступность таких инструментов, как DALL-E 3, ускоряет процесс создания подобного контента. "Выборы, безусловно, являются движущим фактором этой работы", – заявил в комментарии для The Wall Street Journal Дэвид Робинсон, отвечающий за политическое планирование в OpenAI.
Помимо инструмента классификации изображений, OpenAI объявила о присоединении к отраслевой группе под руководством Microsoft и Adobe, которая стремится создать систему атрибуции контента для онлайн-изображений. OpenAI и Microsoft также создают фонд на сумму 2 миллиона долларов для поддержки образовательных инициатив в области искусственного интеллекта.