{"id":14273,"url":"\/distributions\/14273\/click?bit=1&hash=820b8263d671ab6655e501acd951cbc8b9f5e0cc8bbf6a21ebfe51432dc9b2de","title":"\u0416\u0438\u0437\u043d\u044c \u043f\u043e \u043f\u043e\u0434\u043f\u0438\u0441\u043a\u0435 \u2014 \u043e\u0441\u043d\u043e\u0432\u043d\u044b\u0435 \u0442\u0440\u0435\u043d\u0434\u044b \u0440\u044b\u043d\u043a\u0430 \u043d\u0435\u0434\u0432\u0438\u0436\u0438\u043c\u043e\u0441\u0442\u0438","buttonText":"","imageUuid":""}

WEB 3.0 или жизнь без сайтов

Тим Бернерс-Ли в 1998 году ввел термин «семантический веб». Идея была проста: давайте научим компьютеры различать значение (смысл) контента, размещенного на веб-страницах, и объединим этот контент в единую семантическую паутину.

Позже концепция осмысленного связывания данных была ассоциирована с термином web 3.0, и грядущая версия интернета мыслилась, как семантическая сеть.

Был разработан и стандартизирован специальный формат для записи семантических данных (RDF), язык для описания предметных областей (OWL) и язык запросов поиска связанных данных (SPARQL). Предполагалось, что все бросятся семантически размечать страницы своих сайтов… Но что-то пошло не так, и где-то к вскоре после 2010 года про web 3.0 практически забыли.

И вот, вслед за откатом нескольких волн массового интереса к цифровым технологиям - большие данные, интернет вещей, искусственный интеллект, блокчейн - на поверхность (не без подачи того же Тима Бернерса-Ли) опять всплывает термин “web 3.0”. Правда, чаще уже с новым эпитетом - “децентрализованный”, - подхваченным от незаметно сходящего со сцены блокчейна. Иногда, по старой памяти, в общий стек технологий децентрализованного web 3.0 до кучи с интернетом вещей и искусственным интеллектом добавляют семантический поиск данных, но как его подружить с децентрализацией обычно не уточняется. Однако, прежде чем обсудить место семантического представления данных в новом децентрализованном интернете, давайте попытаемся разобраться в причинах провала первого - сугубо семантического - захода на web 3.0.

Семантическая паутина изначально представлялась исключительно как надстройка над существующим интернетом (тогда еще, естественно, web 1.0). То есть в качестве носителя семантически размеченных данных мыслились обычные страницы и другой контент миллионов разношерстных веб-сайтов. Предлагалось каждый объект - каждую веб страницу, файл, описание оффлайн объекта на веб-странице - наделить унифицированным идентификатором и, используя эти ссылки, объединить весь сетевой контент в единую семантическую сеть…

Так вот, даже этого знания о планах плетения семантической паутины уже достаточно, чтобы понять их бесперспективность. Очевидно, что самым слабым звеном в этом проекте является использование в качестве его основы обычных веб-страниц. Во-первых, страницы периодически меняют свои адреса, а то и просто пропадают вместе со всем сайтом и его контентом. Во-вторых, последним, кому стоило бы доверить семантическую разметку, так это владельцам сайтов: у них нет никакого стимула это делать, а если бы они за это и взялись, то понаписали бы что угодно, только бы заманить к себе пользователей (именно по этой причине поисковики давно отказались учитывать ключевые слова при ранжировании страниц). В-третьих, один и тот же контент (статьи, картинки, записи об оффлайн объектах) многократно дублируется на тысячах и тысячах сайтах, что принципиально исключает возможность добиться уникальной адресации. Ведь очевидно, что каждый владелец сайта будет помечать контент, как свой. В-четвертых, даже если предположить, что получилось бы идеально накинуть семантическую сеть на веб-сайты, то для реализации семантического поиска все равно пришлось бы хранить все страницы со всеми дубликатами контента в одном месте, как это и делают современные поисковые машины. И в конечном счете хоть как-то применить семантические технологии удалось только там, где возможна централизованная проверка контента, то есть на мега порталах, типа Google, который стал использовать семантическую разметку данных, предложенную Schema.org.

Итак, давайте подумаем, что же требуется для полноценной реализации проекта глобальной семантической сети? Прежде всего, нужна уникальная идентификация ресурсов: семантическая связанность контента будет осмысленной только в случае, если каждый онлайн и оффлайн объект будет иметь уникальный идентификатор для всех своих копий. Очевидно, что этот идентификатор должен быть присвоен объекту либо его автором/законным владельцем, либо неким уполномоченным лицом, либо в итоге достижения консенсуса многих независимых лиц. При этом, конечно же, должна быть обеспечена идентичность копий контента, то есть возможность надежной проверки их нефальсифицированности. И понятно, что ко всему контенту должен быть обеспечен быстрый доступ.

Очевидно, что простейший способ выполнить эти условия - это создать единое централизованное хранилище семантически связанных данных, управляемое одной организацией, которая должна обеспечить как уникальную идентификацию контента, так и его защиту от фальсификации. И такие семантические хранилища создавались (DBpedia, Freebase, OpenCyc), но они не оправдали возлагаемых на них надежд.

Однако в последние годы появилось принципиально новое комплексное решение для осуществления проекта глобальной семантической сети - это технология распределенных реестров (DLT). Исходно технология была реализована в виде блокчейн-сетей, а сейчас уже появились решения на основе направленных ациклических графов.

Итак, что же нам предлагает новая технология в качестве обязательных архитектурных решений? (1) Записи в DLT-сети исходно имеют уникальную идентификацию, (2) подписаны приватными ключами пользователей, которые добавил их в сеть, (3) криптографически защищены от фальсификации и (4) децентрализованы, то есть хранятся на множестве равноправных узлов сети, что предотвращает их утрату и обеспечивает быстрый поиск. При этом в DLT-сети нет единой точки отказа и единого управляющего центра - изменения состояния данных на всех узлах происходят в результате консенсуса, что обеспечивает ее повышенную устойчивость к атакам и злонамеренным действиям пользователей.

Получается, что идея семантической сети опередила свое время. Технология, на базе которой она может быть реализована, технология, решающая проблемы, связанные с неудачной попыткой разворачивания семантической паутины на веб-страницах, была разработана на десять лет позже. И потребовалось еще десять лет, чтобы пришло понимание не только возможности, но и необходимости симбиоза семантики и DLT. Семантическая сеть в лице DLT наконец-то получает надежное, верифицируемое, децентрализованное хранилище данных с уникальной идентификацией контента и пользователей.

А что же выигрывает DLT от симбиоза с семантикой?

Главным преимуществом технологии DLT традиционно считается возможность прямого (минуя посредников) нефальсифицируемого взаимодействия независимых контрагентов. Если речь идет о криптовалюте, то это действительно так: единый алгоритм на всех (всю сеть) и никаких посредников. Но картина в корне меняется, когда рассматриваются сети с так называемыми смарт-контрактами - программными контроллерами, которые именно и призваны обеспечить свободное взаимодействие независимых контрагентов. Ведь программист, создавший этот самый контракт-контроллер, выступает еще одной стороной, еще одним агентом отношений. И мы должны ему доверять, не понимая, что он там написал, не имея возможности самостоятельно проверить код контракта. Программист в данной ситуации выступает именно посредником и пресловутой точкой отказа во взаимодействии бизнес-агентов.

Или давайте подумаем над правомерностью использования термина “децентрализованные приложение” (DApps). Что в этих DApps децентрализованного? Да только то, что они работают в одноранговой децентрализованной DLT-сети, однотипно обрабатывая сетевые транзакции на каждом из ее узлов. По сути, это обычные контракты-контроллеры, написанные одним программистом (или коллективом программистов). И если запустить такое “децентрализованное” приложение на отдельном сервере (на одном узле), то оно прекрасно будет работать, не утратив ни одной из своих функций, проиграв только в защищенности, которую обеспечивает децентрализованная DLT-сеть.

Получается, что технология DLT, решив проблему децентрализации управления и обмена транзакциями на уровне сетевого протокола и хранения данных, не в состоянии обеспечить децентрализацию на уровне взаимодействия контрагентов конкретной деятельности: для соединения контрагентов, для реализации некой бизнес-функции нужно специальное вполне себе централизованно написанное и централизованно работающее приложение. И понятно, что для расширения функционала этого приложения вновь придется обращаться к тому же посреднику-программисту. А об организации взаимодействия (обмена данными) между различными бизнес-функциями, между работающими DLT-приложениями, написанными разными программистами, и подумать страшно…

Вот тут-то и пора вспомнить о семантике, об исходной идее Тима Бернерса-Ли научить компьютеры различать значение (смысл) контента, об универсальном семантическом языке. И если идея описывать на этом языке контент веб-страниц, в конечном счете, оказалась сомнительной, то использование семантического формата для обмена данными между приложениями DLT-сети выглядит не просто хорошим решением, а естественным развитием технологии.

Итак, с одной стороны, DLT-сеть видится, как базовое хранилище для семантически связанных данных, обеспечивающее их уникальную идентификацию, неизменность и доступность, с другой - описание данных на едином для сети семантическом языке решает проблему реализации действительно децентрализованного взаимодействия независимых DLT-приложений. По сути, речь идет о том, что все данные в сети должны храниться в виде единого семантического графа, а сетевые транзакции должны иметь унифицированный семантический формат, понимаемый всеми приложениями. И открывается возможность написания приложений/контрактов на человекочитаемом, семантически определенном языке. Использование же единого семантического формата транзакций предельно важно для развития интернета вещей, то есть для унификации данных от всевозможных датчиков, использования этих данных независимыми приложениями. А единый формат записи всевозможных данных в глобальном графе - просто клондайк для искусственного интеллекта.

Существенно, что семантический подход предлагает естественные, не надуманные решения и других известных проблем DLT-сетей - таких, как ограниченность горизонтального масштабирования и низкая скорость обмена транзакциями. Ведь единый семантический граф, в который вписаны все данные сети, не является однородным - он разбит на множество слабо связанных секторов, соответствующих различным предметным областям, что может послужить основой для естественной кластеризации сети. Пользователи и приложения, работающие с данными одной предметной области, могут быть объединены в относительно самостоятельные подсети-кластеры, узлы которых хранят лишь соответствующие сектора семантического графа. Таким образом решается не только проблема хранения всего объема данных на каждом узле DLT-сети, но и проблема распараллеливания обработки транзакций из разных предметных областей. Более того, семантическая определенность транзакций позволит организовать параллельную их обработку и в пределах одного кластера в случаях, если они семантически не связаны (что однозначно определяется по графу).

Итак, web 3.0 - это семантическая децентрализованная сеть, состоящая из множества предметно ориентированных кластеров, с унифицированным семантическим форматом транзакций и единым графовым хранилищем данных. Web 3.0 - это новый интернет, не только реализующий хранение, обмен и семантический поиск любого контента, но и обеспечивающий действительно децентрализованное взаимодействие независимых контрагентов любой деятельности.

А где же сайты, где веб-страницы, для разметки которых придумывалась семантическая паутина? Их нет. Они просто не нужны. В новой сети каждый пользователь - сам себе сайт, вернее, узел одного или нескольких кластеров глобальной одноранговой сети, а также владелец создаваемого им контента. А браузер - теперь уже семантический браузер - используется не для переходов между миллионами страниц, а для поиска и представления фрагментов единого семантического криптозащищенного графа, распределенно хранящегося на таких же пользовательских узлах.

P.S. Следует отметить, что упомянутые в начале текста инструменты семантического описания данных RDF/OWL оказались не приспособленными для моделирования сложных динамических, развивающихся систем, и для реализации единого семантического пространстве web 3.0 необходимые новые решения.

0
33 комментария
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Alexander Boldachev

==насколько торрент это веб3,0?
Торрент обеспечивает только децентрализованные обмен и хранение данных. До web 3.0 надо добавить семантический поиск и децентрализованные приложения для всякой деятельности (от общения до бизнеса).

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Александр Болдачев
Автор

В этом вопросе есть некоторая неоднозначность - децентрализация может пониматься по-разному: с позиции сети (пирингова сеть), с точки зрения размещения контента и со стороны управления приложением (например, блокчейновские DAO). Торрент-клиент с позиции размещения контента самое, что ни на есть децентрализованное приложение, но с позиции управления он сугубо персональный инструмент, никакого взаимодействия с другими участниками сети не подразумевается. Скажем так, торрент в web 3.0 частично перекрывает сетевой протокол и децентрализованное хранилище данными. Не хватает уникальной идентификации объектов (а за одно и пользователей), которая совместно с семантической разметкой обеспечит быстрый поиск и совместное использование контента.

Ответить
Развернуть ветку
Владимир Поповъ

ни насколько пока (хотя уже есть BTT), но фундаментально - корни одни и те же и в будущем - будет: недалёком, я бы сказал будущем.

Ответить
Развернуть ветку
Виктор Иващенков

Это статью бы моему препода почитать, который ярый фанатик семантического веба. Мб перестал бы преподавать ненужное и не отчислили бы с магистратуры)

Ответить
Развернуть ветку
Владимир Поповъ

а как зовут и где преподаёт? давайте свяжемся :)

Ответить
Развернуть ветку
Alexander Homyakov

Пожалуй, согласиться можно только с p.s. в статье. DTL никак не решает проблему семантики. Потому что она не в способе хранения в сети, и не в однозначности идентификации. В семантике однозначности вообще нет. И все динамично.
И первая проблема что все даже один язык понимают по разному.

Ответить
Развернуть ветку
FN
Пожалуй, согласиться можно только с p.s. в статье. DTL никак не решает проблему семантики.

Это неудивительно, т.к. в статье нет ни малейшей попытки анализа того, почему провалился Semantic Web.

Ответить
Развернуть ветку
Ogfrgfkar

Я думаю это "масло намасленное", WEB 2.0 покрывает потребности 90% пользователей.

Ответить
Развернуть ветку
Mr. Burns

«640 килобайт хватит всем»

Ответить
Развернуть ветку
Владимир Поповъ

64

Ответить
Развернуть ветку
Mr. Burns

Кому как

Ответить
Развернуть ветку
Владимир Поповъ

нет, начиная с кражи данных из-за централизованных сервисов, заканчивая проблемой рейтинговых систем как в Китае

Ответить
Развернуть ветку
Ogfrgfkar

Никаких краж нет, есть слив и вброс, кражи и интриги — это информация (дезинформация) для народа.

Ответить
Развернуть ветку
Владимир Поповъ

ну да)) сразу видно человека, который никогда не был на закрытых форумах

Ответить
Развернуть ветку
Dmitry Pishchalka

А в чём проблема рейтинговых систем как в Китае? По моему Китай сейчас работает полигоном по испытанию таких систем, которые в дальнейшем будут внедряться по миру, сначала в странах первого мира разумеется.

Ответить
Развернуть ветку
Владимир Поповъ

да нет, это всего лишь новая форма нацизма, а так - всё в порядке

Ответить
Развернуть ветку
Василий Алёшин

"Стирание грани между offline и online" - у нас это ведь уже работает, особенно в твиттере

Ответить
Развернуть ветку
Владимир Поповъ

но там многим глубже ведь.

Ответить
Развернуть ветку
Ogfrgfkar

К тому, что написано нужно другое словосочетание, Mechanical Web, Kenitic Web, Dynamic Web...

Ответить
Развернуть ветку
Владимир Поповъ

Как обычно - отличная идея и в этот раз - много где - неплохая реализация, но при этом - абсолютное непонимание ряда Фундаментальных вещей. Например: "для расширения функционала этого приложения вновь придется обращаться к тому же посреднику-программисту". Это же ложь! Концепция open source существует много лет (и даже десятилетий уже): и она как раз про то, что программистов может и даже должно быть много. Пример ядра Bitcoin, недавнего ухода одной из ключевых команд ETC, успешность Linux-решений - лучшие тому доказательства.

Ответить
Развернуть ветку
Alexander Boldachev

==Это же ложь! Концепция open source существует много лет==
Вы знаете истории об open source написании смарт-контрактов? Там же в тексте идет речь о dApps, а не о бекенде сетевых нод.

Ответить
Развернуть ветку
Владимир Поповъ

в смысле истории?)) все смарты, с которыми я работал, open-source :) . если есть другие - давайте - я изучу: даже интересно

Ответить
Развернуть ветку
Александр Болдачев
Автор

Давайте зададим более точный вопрос, который напрямую относится к мой фразе "вновь придется обращаться к тому же посреднику-программисту": кто несет ответственность за контракт/приложение перед заказчиком?

Ответить
Развернуть ветку
Владимир Поповъ

да никто: это как раз в парадигме web-3 будет. у него есть исходный код, заданные в ТЗ условия, программист-исполнитель и почти не ограниченный ресурс на программиста-аудитора. Вот тогда это про веб-3, а сейчас у вас технология - про децентрализацию, а социальная составляющая - опять про централизацию. И это так давно не работает - очень давно. Хоть в смартах, хоть в ОС.

Ответить
Развернуть ветку
Александр Болдачев
Автор

==да никто: это как раз в парадигме web-3 будет== Вы перечитайте фрагмент текста, там про посредника-программиста именно как то, что следует преодолеть, от чего отказаться)) Я написал, как это сейчас работает, а вы мне "Это же ложь!".

Ответить
Развернуть ветку
Владимир Поповъ

а вы ещё раз тезис перечитайте: вы хотите уйти в технологию для Челочка, убрав человека, а надо лишь сделать недовешенную среду доверенной - это разные степени ответственности и понимания. И ложь как раз в том и состоит, что вы берёте ложный тезис и пытаетесь его выдать за правду (с точки зрения именно логики)

Ответить
Развернуть ветку
Александр Болдачев
Автор

Приведите точную цитату с ложным тезисом.

Ответить
Развернуть ветку
Владимир Поповъ

Так выше с неё начал :) "для расширения функционала этого приложения вновь придется обращаться к тому же посреднику-программисту"

Ответить
Развернуть ветку
Александр Болдачев
Автор

То есть вы считаете, что это ложное утверждение, что сейчас (на сегодняшний день) для расширения функционала заказанного программисту или программистской конторе контракта/приложения не придется обращаться к ним же, так? что сейчас это происходит как-то иначе? заказчик сам вносит исправления в код?

Ответить
Развернуть ветку
Владимир Поповъ

1) может сам
2) может любой сторонний разработчик, имеющий доступ в репозиторий по установленным правилам
3) может создатель

я же вам даже ссылку специально дал на куда более критичный, с точки зрения процесса распределения прав, процесс. И более того: люди и будут писать код дальше: через моделирование или иным способом - но будут. Решение в формате "код пишут роботы" - не исключает этого в том числе.

Ответить
Развернуть ветку
Владимир Поповъ

Я же уже дал отсылку на сложнейший пример, рядом с которым смарт-контракты и их "проблемы" рядом не стояли. https://bitnovosti.com/2019/01/22/who-control-bitcoin-core/ - всё давно решено и прекрасно работает: то, что этого кто-то не знает или в это не верит - другой вопрос.

Ответить
Развернуть ветку
30 комментариев
Раскрывать всегда