Эксперт Марков: ИИ не допустят до принятия решений с тяжелыми последствиями
В отличие от человека модели ИИ можно прогнать через множество различных ситуаций, чтобы посмотреть, как система будет принимать решения, и определить ее порог надежности, пояснил эксперт.
"Мы оцениваем для такой системы, какой ожидаемый ущерб может быть получен в результате полной автоматизации, и если он слишком большой, то такое решение неприемлемо. Создаются дублирующие контуры, создаются проверяющие механизмы, добавляются люди, и не один человек, а целая коллегия и так далее. <…> Если речь идет о действительно важных решениях, то доверять их просто какой-то автоматической системе слишком рискованно", – объяснил Марков.
Также эксперт сообщил, что генеративные модели ИИ уже способны помогать членам профессиональных сообществ принимать более качественные и продуманные решения.