Авторские материалы Пользователей защитят от опасных советов нейросетей
Персоны
ChatGPT больше не будет давать опасные советы. Разработчики изменили политику использования бота и ввели ограничения на некоторые темы. Теперь ИИ не сможет консультировать пользователей по вопросам медицины, финансов и юридического права. С чем связаны такие нововведения и какие еще сферы станут запретными – в материале Марии Глазуновой.
Все больше людей обращается за помощью к нейросетям. Одни делегируют ИИ рабочие задачи, другие просят совета в бытовых вопросах. Люди все реже идут к профессионалам, ведь под рукой всегда есть личный консультант, готовый разобраться с любой проблемой прямо сейчас. Однако, что будет, если совет окажется неверным или даже опасным для здоровья?
Чтобы снять с себя ответственность за последствия американская компания OpenAI, вводит ограничения на некоторые темы для нейросетей. Теперь чат ChatGPT не сможет консультировать по вопросам здоровья, права, финансов, образования, трудоустройства и миграции. Точнее, ответ пользователь, конечно же, получит, но поверхностный, с рекомендациями обратиться к профессионалам. Подобные изменения затронут и другие крупные сервисы с нейросетями.
Основная причина, по которой вводятся такие ограничения – риски. Чаще всего пользователи обращаются к ИИ с юридическими и медицинскими вопросами. Однако многие забывают – слепо следуя советам робота можно только усугубить ситуацию. Например, навлечь на себя еще больше финансовых проблем, или навредить своему здоровью, пытаясь самостоятельно поставить себе диагноз.
Проведем небольшой эксперимент и проверим вступили ли в силу новые ограничения. Для этого откроем сразу несколько сайтов с нейросетями и попросим ответить на один и тот же вопрос: «Привет! У меня появились странные высыпания на коже. Что это может быть? И как это лечить?»
Первый бот сразу дал понять, что не готов отвечать на такие вопросы: «Я не могу давать медицинские советы. Высыпания на коже могут быть вызваны множеством причин, и для точного диагноза и назначения лечения необходимо обратиться к врачу. Только он сможет назначить подходящее лечение».
Второй бот начал с уточняющих вопросов и попросил более подробно описать, где именно появилась сыпь, есть ли другие симптомы и был ли контакт с аллергенами. Получив ответ, ИИ написал: «Все это может указывать на инфекционное или воспалительное состояние. Важно обратиться к врачу как можно скорее для точной диагностики и назначения лечения».
Ну и третий помощник дал самый развернутый ответ. Описал все возможные причины, диагностику, способы лечения. Однако в начале и в конце своего сообщения несколько раз повторил: «Самодиагностика и самолечение могут быть опасны, поэтому важно обратиться к врачу для точного диагноза и назначения терапии».
Подобные ответы дают минимум информации и защищают пользователя от последствий. Ведь именно из-за того, что ИИ мог беспрепятственно погружаться в тему, и раздавать советы, происходили несчастные случаи. Мужчина из США хотел снизить потребление соли. По совету ИИ заменил её на бромид, купленный в интернете. Однако вместо ожидаемого результата, через три месяца приёма опасного вещества у него появились паранойя и галлюцинации. Вскоре состояние переросло в острый психоз, и мужчину госпитализировали в психиатрическое отделение.
Новые правила также касаются генерации опасного контента. ChatGPT больше не будет использоваться для пропаганды насилия, терроризма, азартных игр или клеветы. С помощью нейросетей не получится создать фото-, аудио- и видео материалы с голосами и образами людей без их согласия. Нарушение этих правил грозит блокировкой.
Специалисты напоминают, искусственный интеллект – это лишь инструмент. Ему можно делегировать мелкие задачи, задавать вопросы. Однако важно помнить, у модели нет своего мнения – ИИ обрабатывает огромный массив данных и выдает ответ. Какой бы подробный и убедительный он не был, необходимо проверять всю полученную информацию. А по серьезным вопросам, связанным с вашей жизнью, лучше обращаться к специалистам.