Выберите регион

Смотрим на

Facebook удаляет только 5% "разжигающих" публикаций

Faceebook использует неэффективные алгоритмы для оценки и удаления публикаций, разжигающих ненависть и вражду, считают эксперты.

Алгоритм искусственного интеллекта, используемый Facebook для обнаружения опасного контента, удаляет менее 5% подобных постов.

По оценкам одного из сотрудников компании, которые приводятся во внутренних документах Facebook, удаляются только 2% высказываний, разжигающих ненависть, пишет газета Wall Street Journal. Еще одна группа специалистов пришла к выводу, искусственный интеллект распознает и удаляет от 3 до 5% публикаций, разжигающих ненависть, и 0,6% контента, который нарушает правила Faceebook о насилии.

Основной проблемой является то, что алгоритм не всегда различает, насколько контент является опасным, и в таком случае не удаляет его, а просто ранжирует ниже в новостной ленте.

При этом официально руководство Facebook утверждает, что алгоритм соцсети научился обнаруживать 98% вредного контента еще до того, как на него пожаловались другие пользователи.

Читайте также

Видео по теме