Искусственный интеллект 2 января 2026, 23:50 3 января 2026, 00:50 3 января 2026, 01:50 3 января 2026, 02:50 3 января 2026, 03:50 3 января 2026, 04:50 3 января 2026, 05:50 3 января 2026, 06:50 3 января 2026, 07:50 3 января 2026, 08:50 3 января 2026, 09:50

Эксперт Аветисян: объяснимость ИИ – дорогая опция для критических систем

  • Сгенерировано нейросетью
    Сгенерировано нейросетью
Объяснимость искусственного интеллекта (ИИ) является дорогой опцией для критических систем. Об этом в эфире телеканала "Россия 24" рассказал академик РАН, директор Института системного программирования РАН Арутюн Аветисян.

Он отметил, что современные модели изначально строятся по принципу "черного ящика", и наделение их объяснимостью требует колоссальных дополнительных затрат.

"Это заранее очевидно, что объяснимость – дополнительные накладные расходы. Большие модели, которые мы сейчас имеем и с чем мы работаем, они строились по принципу "черного ящика" по определению изначально. <…> Но в некоторых случаях – в критических, в медицине, например, и то в зависимости от того, где применяется, наверное, – такие требования должны быть", – считает Аветисян.

Эксперт провел аналогию с авиацией, где верификация кода систем составляет 80-90% ресурсов, но это оправдано малым объемом критического кода. Аветисян заметил, что необходимо развивать науку, чтобы сделать методы объяснимости более доступными, однако требовать применимость стоит лишь в определенных случаях.

Ранее политолог Сергей Михеев назвал сферы, где надо осторожно подходить к внедрению ИИ. По его мнению, продвигать ИИ нужно смело в военной сфере, производстве, проектировании, управлении.

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация