Создаём свои веб-архивы и ищем чужие
Веб-архивы - важнейшие инструменты во многих расследованиях, они позволяют просматривать сохранённые копии страниц в интернете.
Это невероятно полезно, если нужные вам данные были удалены или редактированы.
Я уже писал об этом тут : https://t.me/Digitalntelligence/415
Однако сегодня в сети я наткнулся на любопытный ресурс - https://perma.cc/
Он позволяет создавать свой собственный веб-архив и иметь доступ к нему в онлайн-режиме, по так называемой "вечной" ссылке. Предназначен для сокращения количества "гнилых", никуда не ведущих ссылок.
То есть, вы можете создавать произвольные копии страниц.
Это уже довольно полезная функция, можно создавать например копии статей и сохранять их локально, так как присутствует ВСТРОЕННАЯ функция сохранения.
Сам процесс архивированая ультрапростой - Вводите ссылку на сайт, возможно какие-то доп.данные и получаете результат.
Если верить разработчикам, то с их проектом сотрудничает национальный интернет-архив Великобритании, консорциум библиотек и другие уважаемые инстанции.
Однако, как я и думал - все или по-крайней мере 170 000 сохранённых юзерами сайтов, индексируется гуглом.
Просто по запросу "site:perma.cc"
Также, индексируются и сами ссылки исходных страниц, даже заголовки.
Отображается дата сохранения копии.
Это делает сайт полноценным веб-архивом, даже превосходящим по возможностям некоторые.
На этом всё, дорогие друзья. Я уже строю предположения насчёт эксплуатации этого чудо-ресурса, следите в телеграм :
https://t.me/Digitalntelligence
Удачной охоты, сталкеры!