Децентрализация 2.0: как меняется расстановка сил в облаке

Как и почему компании, располагающие данные в облаке, снова оказались на пути к децентрализации — и за какими хранилищами будущее?

Я много лет занимаюсь интеграцией облачных сервисов в бизнес-процессы компаний. Например, если у организации есть внутренняя система бизнес-аналитики, мы помогаем перевести ее в облако — чтобы обеспечить надежное хранение данных, удобный доступ к ней сотрудников, настроить уровни этого доступа и так далее. Но чтобы понимать, какие именно варианты облачных сервисов выбирать — и нужны ли они вообще для решения конкретной задачи бизнеса, — необходимо разбираться в том, как вообще появились и развивались облачные технологии. Что сейчас в тренде, куда движется рынок? В процессе разработки закрытой корпоративной системы для крупной компании — которая, естественно, тоже базируется на облачных технологиях, — я наткнулась на интересный тренд: облачные сервисы снова движутся в сторону децентрализации. Что это значит для рынка? Чтобы это понять, нужно заглянуть в историю развития интернета в целом и облачных технологий в частности.

Web 1.0, Web 2.0, Web 3.0

В 1989 году британский инженер-компьютерщик Тим Бернерс-Ли придумал способ, с помощью которого компьютеры могут «общаться» — World Wide Web. Я часто слышу, что слова «всемирная сеть» и «интернет» употребляют как синонимы, но на самом деле это не так. Ведь World Wide Web был лишь протоколом, с помощью которого компьютеры могли передавать друг другу информацию. Для работы интернета в том виде, в каком мы его знаем, данные надо было еще где-то хранить. Так что интернет, по сути, родился в 1990 году — когда тот же Тим Бернерс-Ли создал первый сервер на базе компьютера NeXT с памятью 2 ГБ.

Первый в мире сайт был страничкой с рассказом о проекте World Wide Web. В этот момент интернет был максимально централизован: вся информация хранилась на одном-единственном сервере, который физически располагался в Европейской организации по ядерным исследованиям (ЦЕРН) . Дальше другие исследовательские центры и лаборатории начали подхватывать тренд, и к 1992 году в разных точках мира было уже несколько серверов.

В 1993 году ЦЕРН сделал протокол World Wide Web публичным, и интернет начал потихоньку децентрализовываться. Уже к декабрю 1993 в мире насчитывалось около 500 серверов. Так стартовала эпоха Web 1.0: контент создавался в одном месте, пользовательский контент отсутствовал — соответственно, сайты существовали в режиме рид-онли.

К концу эры Web 1.0 в интернете существовало где-то 3 млн сайтов. Любая компания тогда могла купить сервер и разместить его в одной из комнат своего офиса — вот и доступ к хранилищу для данных. Так как сайты были рид-онли, не требовалось какой-то сложной инфраструктуры для взаимодействия с пользователями — достаточно было где-то держать информацию о страницах сайта и обеспечивать доступ к ним с компьютеров пользователей через World Wide Web. Это был пик децентрализации: компании, по сути, сами создавали себе инфраструктуру и контролировали ее.

У этого подхода, безусловно, были свои минусы. Независимо от того, насколько мало информации вам надо было хранить, приходилось покупать или арендовывать хотя бы один сервер. Далее, его нужно было где-то хранить, а это квадратные метры, которые тоже не бесплатные. Наконец, обслуживание сервера было полностью на плечах компании — для этого нужно было нанимать отдельного человека. А помните грустные смайлики на веб-страницах конца 90-х? Если сервер «падал», никто и ничто не могло его «подстраховать» — сайт «ложился» вместе с ним и пребывал в таком состоянии до тех пор, пока сервер не починят. Это тогда с таким положением дел можно было примириться — сегодня, со стремительным темпом нашей жизни и огромной конкуренцией между сервисами, компания с такими провалами в обслуживании пользователей была бы обречена.

В 1999 году настала эра Web 2.0 — эпоха контента, который генерирует пользователь. Видео на ютубе, социальные сети, лайки и рекомендации — это все приметы Web 2.0. Новые протоколы расширили горизонты взаимодействия бизнеса с потребителем: ведь можно собирать информацию, обмениваться ей с другими компаниями — а потом совершенствовать свой маркетинг и делать его максимально таргетированным! Однако для этого нужны другие масштабы серверов. Плюс, требуется особая инфраструктура для быстрого взаимодействия пользователь-сайт, а также возможность делать бэкапы, чтобы данные не потерялись.

И тут на помощь пришли облачные технологии. Крупные IT-компании предложили взять на себя покупку и обслуживание серверов — с тем, чтобы бизнес мог арендовать у них нужное пространство для хранения и обработки информации. Это пришлось многим по вкусу: не нужно тратиться на покупку своих серверов или даже аренду сервера целиком, держать в штате техподдержку, а в случае сбоев можно рассчитывать на дополнительные мощности провайдера — и ваш пользователь, скорее всего, даже ничего не заметит. Как бонус, доступ к безграничному облаку получили и совсем маленькие стартапы, которые не могли бы себе позволить собственную полноценную IT-инфраструктуру, и даже обычные пользователи Google Диска.

Но, естественно, и у облачных преимуществ есть обратная сторона. Со временем хранение информации стало вновь очень централизованным — бОльшая часть данных сконцентрировалась у трех провайдеров-гигантов: AWS (Amazon), Azure (Microsoft) и GCP (Google). Они, хоть могут этого и не признавать, имеют возможность воспользоваться чужими данными — например, для более точного таргетинга своих собственных продуктов. К тому же, такая централизация открывает большую уязвимость к хакерским атакам и даже простым ошибкам ПО. В 2021 году уже случился глобальный сбой: тысячи сайтов СМИ, компаний и госучреждений перестали работать, потому что один из пользователей облачного сервиса Fastly изменил у себя системные настройки и активировал скрытую ошибку ПО. Да и с экономической точки зрения облачные технологии стали не самыми выгодными — ведь чем больший объем рынка концентрируется у нескольких крупных игроков, тем меньше на нем конкуренции, которая могла бы подталкивать к снижению цен.

И все это приводит к тому, что, хотя почти все компании сейчас в той или иной степени пользуются облачными технологиями, к 2020 году половина корпоративной информации все еще хранилась на обычных серверах. Иногда это связано с требованиями закона — например, не вся медицинская информация может храниться в облаке, — а иногда просто отражает тревоги владельцев бизнеса. Более того, я наблюдаю и обратный тренд — компании возвращают данные из облака на свои сервера.

Однако эру Web 1.0 не вернуть — и те инструменты, что работали тогда, тоже уже не смогут удовлетворять требованиям рынка. Поэтому я советую компаниям присмотреться к решениям Web 3.0, эпохи интернета, в которой балом правит блокчейн. Ее решение для хранения данных — децентрализованное облако.

Облако в ноутбуке

Децентрализованное облако — это p2p-технология, с помощью которой облачные маркетплейсы могут предоставлять пользователям сервис для хранения данных на множествах обычных компьютеров.

Какие принципы легли в основу этой технологии?

Во-первых, главной задачей было предотвратить такой сценарий, в котором какая-то одна организация владеет всей платформой, на которой хранятся данные. Поэтому провайдер технологии предоставляет только инфраструктуру — сама же информация «разбросана» по множеству разных компьютеров.

Во-вторых, важно было создать конкурентный маркетплейс, на котором разные провайдеры могут предлагать свои условия. Так пользователь будет получать лучшее качество за самую адекватную цену.

Конечно, как и в случае с обычным облаком, нужны бэкапы — если пользователь удалит информацию со своего компьютера, он должен быть уверен, что в децентрализованном облаке она надежно хранится в неизменном виде.

Как результат, человек должен получать такой сервис, в рамках которого он имеет удобный доступ к своим данным — в любое время, без перебоев и потерь.

Так как централизации тут нет, то нужно еще предлагать какую-то мотивацию для множества индивидуальных участников — они ведь в итоге и создадут это децентрализованное облако.

Решение для всех этих вопросов удалось найти, создав децентрализованную облачную технологию на базе блокчейна. Вот как это работает:

  • Пользователь соглашается хранить, передавать и обрабатывать свои файлы через p2p-систему
  • В начале пользователь должен зашифровать свой файл. Шифр будет храниться только у него! Такого пользователя называют «арендатор»

  • Теперь файл разбивается на много частей, и для каждой создаются множественные копии — это нужно для создания бэкапа и сохранности информации
  • Каждый маленький кусок файла отправляется на один из компьютеров в p2p-сети. Те люди, на чьих компьютерах хранятся данные, называются «фермеры» — они сдают в аренду лишние гигабайты памяти на своих жестких дисках
  • Фермеры получают не просто куски файла, но еще и зашифрованные куски. Так что у них нет никакой возможности получить доступ к информации арендатора
  • Когда арендатор хочет получить файл назад, он собирает у фермеров его по кускам — а затем расшифровывает, используя специальную блокчейн-таблицу как ключ
  • Арендаторы оплачивают фермерам хранение данных в криптовалюте
  • Фермеры, которые хорошо исполняют контракт, получают не только деньги, но и хороший рейтинг. И наоборот — если они, например, удалили файл, которые должны были хранить, они не получат оплату. А в случае многократных нарушений могут быть дисквалифицированы из p2p-сети

Такая децентрализованная система обеспечивает больше прозрачности, надежности и контроля над данными в сравнении с традиционным облаком. Поэтому сейчас активно развиваются платформы, обеспечивающие инфраструктуру для подобных сетей — среди них Dfinity, Solana и Akash. Я считаю, именно за таким децентрализованным хранением данных будущее — как минимум, ближайшее.

Готовы ли вы доверить свои данные децентрализованному облаку?
Да
Нет

Это открытый вопрос, поэтому, если у вас есть развернутый ответ, то жду вас в комментариях.

33
реклама
разместить
Начать дискуссию