Тут в комментах интересно, но нихера непонятно. Требую ответную статью, почему это не проканает, в случае, когда "сайты в сети будут обращаться к API где нужен централизованный доступ"!
Есть сайты, которые состоят только из текста, картинок и других файлов. Для их отображения не требуются вычисления. Они просто «отдаются» в браузер в виде данных (скажем, файлов). Для них такой протокол проканает.
А есть сайты динамические, которые генерируются автоматически на лету в зависимости от запроса пользователя. Например, на фейсбук миллиард пользователей; но это не значит, что где-то на сервере лежит миллиард файлов для отображения личных страниц. Есть база данных, есть запрос пользователя на конкретную страницу — поэтому большой компьютер-сервер ищет в базе всю информацию и генерирует код страницы (если очень примитивно).
Такие сайты нельзя хранить децентрализованно, просто потому что должно быть устройство (сервер), собирающий необходимую страницу на лету.
Тут в комментах интересно, но нихера непонятно. Требую ответную статью, почему это не проканает, в случае, когда "сайты в сети будут обращаться к API где нужен централизованный доступ"!
Для гуманитариев, которые лезут не в своё дело)
Есть сайты, которые состоят только из текста, картинок и других файлов. Для их отображения не требуются вычисления. Они просто «отдаются» в браузер в виде данных (скажем, файлов). Для них такой протокол проканает.
А есть сайты динамические, которые генерируются автоматически на лету в зависимости от запроса пользователя. Например, на фейсбук миллиард пользователей; но это не значит, что где-то на сервере лежит миллиард файлов для отображения личных страниц. Есть база данных, есть запрос пользователя на конкретную страницу — поэтому большой компьютер-сервер ищет в базе всю информацию и генерирует код страницы (если очень примитивно).
Такие сайты нельзя хранить децентрализованно, просто потому что должно быть устройство (сервер), собирающий необходимую страницу на лету.