Создаём свои веб-архивы и ищем чужие

Веб-архивы - важнейшие инструменты во многих расследованиях, они позволяют просматривать сохранённые копии страниц в интернете.

Это невероятно полезно, если нужные вам данные были удалены или редактированы.

Я уже писал об этом тут : https://t.me/Digitalntelligence/415

Однако сегодня в сети я наткнулся на любопытный ресурс - https://perma.cc/

Он позволяет создавать свой собственный веб-архив и иметь доступ к нему в онлайн-режиме, по так называемой "вечной" ссылке. Предназначен для сокращения количества "гнилых", никуда не ведущих ссылок.

То есть, вы можете создавать произвольные копии страниц.

Это уже довольно полезная функция, можно создавать например копии статей и сохранять их локально, так как присутствует ВСТРОЕННАЯ функция сохранения.

Сам процесс архивированая ультрапростой - Вводите ссылку на сайт, возможно какие-то доп.данные и получаете результат.

Если верить разработчикам, то с их проектом сотрудничает национальный интернет-архив Великобритании, консорциум библиотек и другие уважаемые инстанции.

Создаём свои веб-архивы и ищем чужие

Однако, как я и думал - все или по-крайней мере 170 000 сохранённых юзерами сайтов, индексируется гуглом.

Просто по запросу "site:perma.cc"

Яндекс тоже даёт нужный результат, но, изначально открывается окно обращения, где в комментарии уже будет указан нужный нам адрес
Яндекс тоже даёт нужный результат, но, изначально открывается окно обращения, где в комментарии уже будет указан нужный нам адрес

Также, индексируются и сами ссылки исходных страниц, даже заголовки.

Отображается дата сохранения копии.

Это делает сайт полноценным веб-архивом, даже превосходящим по возможностям некоторые.

Вот так выглядит "вечная" ссылка
Вот так выглядит "вечная" ссылка

На этом всё, дорогие друзья. Я уже строю предположения насчёт эксплуатации этого чудо-ресурса, следите в телеграм :

https://t.me/Digitalntelligence

Удачной охоты, сталкеры!

Начать дискуссию