Исследователи указали на проблему "вымирания" ссылок в интернете
Команда сотрудников Юридического факультета Гарвардского университета (США) совместно с журналистами американской газеты The New York Times оценили масштабы "гниения" ссылок. Исследование было проведено c момента запуска онлайн-версии издания в 1996 году.
Как выяснилось, почти четверть всех ссылок, которые использовались при цитировании и когда-то указывали на конкретный ресурс в интернете, стали неработоспособными и сейчас ведут в никуда. Проблема "вымирания" ссылок затронула более половины статей, выходивших в NYT на протяжении последних 25 лет.
Всего было изучено свыше 550 тысяч публикаций, содержавших около 2,2 миллиона ссылок на внешние сайты. 72% ссылок были "глубокими" — то есть вели не на главный домен, а на определенную страницу. Оказалось, что в материалах за 2018 год недоступными стали 6% ссылок, а за 1998-й — целых 72%.
Чем старше публикация в NYT — тем выше вероятность наличия "битых" ссылок (процент от общего количества обозначен красным цветом)
Вокруг покупки и продажи "мертвых" ссылок выстроена целая подпольная индустрия, сообщало BuzzFeed News в 2019 году. Маркетологи могут найти "битую" ссылку на ресурс, который приводился в качестве надежного источника крупным и авторитетным изданием, таким как NYT или BBC, и выкупить домен для своих целей. Затем по тому же адресу может быть размещено что угодно, в том числе реклама и ложная информация.
Проблему нерабочих ссылок пытаются решить по-разному. Например, если высока вероятность, что ссылка в скором времени "сгниет", "Википедия" просит авторов использовать сервис The Wayback Machine (archive.org/web). Тогда, если запрошенная страница не будет найдена, вместо ошибки 404 откроется её копия из интернет-архива. В 2013 году был запущен проект Perma.cc, позволяющий создать архивную версию страницы вместе со ссылкой на первоисточник.