Авторские материалы Кто в ответе за решения ИИ?
Персоны
В России законодательно закрепят главенство человека над искусственным интеллектом. Сейчас нет законов, которые определяли бы, кто понесет ответственность за ошибки ИИ, а тем временем этот инструмент уже используется во многих критически важных областях. При этом вводить полный запрет на принятие решений искусственным интеллектом нецелесообразно, считают эксперты. В правовых тонкостях высоких технологий разбирался Максим Иванов.
В России могут закрепить право человека принимать финальное решение после искусственного интеллекта. Это сказано в материалах Правительства. Там готовят законопроект, который регулировал бы использование ИИ в общественно значимых сферах.
В Правительстве заявили, что ИИ уже активно применяется в образовании, надзоре за порядком и в здравоохранении. Например, российские ученые создали ИИ-платформу, которая по записи голоса может выявить сердечно-сосудистые заболевания. Разработчики объясняют, что в процессе речи задействованы, кроме мышц гортани, еще дыхательная и нервная системы, на которые влияют болезни сердца. Искусственный интеллект считывает малейшие отклонения от нормы, незаметные нашему слуху, и на их основе выдает вероятность болезни. Врачи говорят, что эта технология может служить только одним из способов диагностики, но все же задумка впечатляет.
Но и цена ошибки в этих областях – очень высока. Например, иностранные журналисты недавно писали, что зарубежный ИИ-доктор за последние 4 года нанес вред десяти пациентам. Искусственный интеллект сообщал хирургам неправильное расположение инструментов во время операций.
К тому же, многие ИИ-агенты могут «галлюцинировать», то есть выдавать бредовые ответы на обычные запросы пользователей. Программисты далеко не всегда могут объяснить причины таких «галлюцинаций», а значит, и избавиться от их полностью пока не получается.
Законопроект российского правительства призван защитить людей от таких случайных ошибок машины. Главный момент, который необходимо прописать в регулировании ИИ, – это ответственность за его ошибки, считает адвокат, председатель Московской коллегии адвокатов «Юрасов, Ларин и партнеры» Владимир Юрасов.
ЮРАСОВ: Субъектом правонарушений искусственный интеллект не может стать. И это, на мой взгляд, – опасная вещь. Я, как адвокат по уголовным делам, допустим, до сих пор не могу понять, кто будет отвечать, допустим, за вред, причиненный доставщиком-машиной, которая ездит и замечательно развозит продукты. Кто будет нести ответственность, если этот доставщик, не дай бог, собьет ребенка насмерть? Ведь машина не может быть субъектом правонарушения, преступления. Вот практики по этому поводу нет. Соответственно, мы сейчас в правовом вакууме – то есть система уже работает, есть искусственный интеллект, доставщик, который возит продукты, помогает, но нет зоны ответственности, кто будет за это отвечать.
Кроме ответственности за ошибки, в законе важно прописать и нюансы авторских прав. Ведь для создания своего контента ИИ обучается на чужом – то есть отчасти его использует в измененном виде. До сих пор эта этическая и юридическая проблема остается нерешенной по всему миру.
Несмотря на сложности и "серые" зоны, полностью отказываться от принятия решений искусственным интеллектом, впрочем, тоже не стоит. Например, в медицине ИИ сейчас имеет право выносить решения только в одном вопросе – он проверяет рентген легких и отмечает отклонения от нормы. Если запретить ему определять патологии, это сильно повысит нагрузку и рутинность работы врачей.
К тому же, есть и сферы, где машина эффективнее человека – например, на опасных производствах ИИ может быстрее человека выявлять неисправность оборудования. То есть полностью отказываться от высоких технологий попросту нецелесообразно. Законы должны найти баланс между автономностью искусственного интеллекта и рисками.