Границы открыты: почему вам нужно знать, что такое периферийные вычисления

4,1 триллиона долларов. Это мы с аналитиками из Chetan Sharma Consulting взялись подсчитать объем рынка периферийных вычислений к 2030 году. Если вы еще не знакомы или просто что-то слышали об Edge Computing, берем на себя задачу рассказать о том, что такое периферийные вычисления, как их наладить, и что мы придумали на этот счет в Seagate.

Границы открыты: почему вам нужно знать, что такое периферийные вычисления

Про облачные вычисления, разумеется, знают все. Даже на бытовом уровне мы привыкли складывать лишние данные в облако – отдавать их на хранение в центр обработки данных. Что уж говорить о компаниях, которые используют в работе интернет вещей – те самые «умные датчики», которые окружают нас почти повсюду.

Интернет вещей везде – от огромных заводов до частных ферм, на крышах наших домов, на улицах и шоссе, и уж точно во всех видах средств передвижения, какие только существуют в мире. Датчики IoT собирают и генерируют петабайты данных, и их обработка давно вышла на промышленный уровень, а это требует совершенно иных вычислительных мощностей.

Периферийные вычисления: потому что не хватает облачных

Как уже было сказано, традиционно обработка данных, собираемых устройствами IoT, ведется на крупных централизованных облачных серверах. Проблема заключается в том, что эти масштабные центры обработки данных находятся далеко от самих устройств, выдающих или собирающих информацию. Эти устройства и есть периферия.

Потоку информации нужно время, чтобы дойти от периферии к центру, что тянет за собой целый ряд проблем.

  • Пониженная надежность. Если устройства IoT установлены там, где нет стабильного доступа к интернету, то пересылка данных в облако наталкивается на помехи, а зачастую и на потерю данных.
  • Риски безопасности. Когда данные идут через интернет в огромных объемах, перехватить их – дело техники и настойчивости. Но ведь это данные интернета вещей, зачастую обладающие секретностью или персональные.
  • Затраты на передачу данных. Если речь идет о промышленном интернете вещей, необходимо обеспечить поистине масштабную пропускную способность сети, чтобы принимать данные на обработку в облако.
Границы открыты: почему вам нужно знать, что такое периферийные вычисления

А ведь можно сделать так, чтобы камеры наблюдения, установленные в гипермаркете, производили анализ покупательского поведения в режиме реального времени, не выводя данные из торгового зала, – достаточно дать им немного вычислительных ресурсов. Повышается скорость анализа, а значит, и получения интересующих выводов. Именно здесь и начинаются периферийные вычисления.

Незаметная периферия: клад вычислительных ресурсов

Между ЦОД и видеокамерой, которая следит за покупателями в зале, есть масса устройств более низкого уровня – например, шлюзы, коммутаторы, хранилища данных. Эти устройства находятся физически гораздо ближе, но задействуются для служебных задач: сбора, консолидации, передачи данных. Да и к самой камере можно подключить некие вычислительные мощности.

<p>Источник: argonne/Flickr (CC-Attributed)</p>

Источник: argonne/Flickr (CC-Attributed)

Именно на этом и строится концепция периферийных или граничных вычислений (edge computing). Суть в том, что часть процессов обработки данных переносится из центра обработки данных именно на эти служебные устройства. Либо, если их нет или не хватает, они вводятся в ИТ-инфраструктуру и помещаются как можно ближе к источнику данных – датчикам, камерам, считывателям…

Это основа концепции периферийных вычислений – максимально приблизить место обработки данных к их источнику.

Зачем это нужно на практике?

Расскажем на примере собственной производственной линии. Один завод Seagate производит миллионы единиц техники в квартал и триллионы в год. Все производство глубоко автоматизировано, и система управления принимает от 20 до 30 решений в секунду.

Границы открыты: почему вам нужно знать, что такое периферийные вычисления

Если при таких темпах производства в какой-то части линии произойдет сбой, просто невозможно ждать, пока данные с конвейера дойдут до центральной системы, пока она их проанализирует, пока отправит автоматике соответствующую команду. Мы не можем тормозить весь конвейер, если что-то пойдет не так.

Поэтому мы перенесли систему распознавания и автоматического устранения сбоев на вычислительное оборудование, имеющееся прямо в цехах. И задержки в работе конвейера сократились с сотен до 10 миллисекунд.

Как это можно сделать?

Вышеописанное выглядит как шаг назад, но нет. Мы не переписывали систему распознавания сбоев и не делали ее проще. Она по-прежнему принимает огромное количество данных с конвейера и выдает не менее 30 решений в секунду. Мы перенесли ее на другое аппаратное обеспечение, находящееся рядом с отдельными частями конвейера.

Есть три способа добыть мощности для работы сложной системы вне ЦОД.

  1. «Туманные вычисления». В этой реализации периферийные вычисления производятся на устройствах внутри сети, которые мы не привыкли считать вычислительными: роутеры, сетевые коммутаторы, шлюзы, хранилища данных и даже IPTV-приставки. Программа-оркестровщик собирает их в некое виртуальное вычислительное устройство, на котором и работает система обработки данных.
  2. Мобильные вычисления. Здесь вычислительные устройства и конечные устройства IoT объединяются в одну мобильную сеть. В качестве вычислительных устройств используются любые мобильные устройства, способные «ловить сеть», – они предоставляют свои ресурсы для работы разных частей системы обработки данных. Как правило, рядом физически присутствует базовая станция или контроллер радиосети, который обеспечивает связь.
  3. «Клаудлет». Это в буквальном смысле мини-ЦОД, выделенный из основного ЦОД и установленный в месте, где собираются данные. Мощный компьютер со стабильным интернет-соединением, по функциям подражающий основному ЦОД (это решается за счет виртуальных машин) и способный обеспечивать работу системы обработки данных.

Каждый из способов внедрения периферийных вычислений имеет свои преимущества и области применения: «туманные вычисления» дешевле, клаудлеты более функциональны и надежны, а мобильные периферийные вычисления незаменимы там, где интернет малодоступен или недоступен вовсе.

Если вам нужна инфраструктура периферийных вычислений…

…то есть несколько аспектов, которые необходимо учитывать при ее проектировании.

1. Центр против периферии

Каков анализ затрат и выгод от использования общедоступного облака (от различных поставщиков) по сравнению с периферийными вычислениями (закупка и настройка оборудования, приобретение услуг частного облака), и что наиболее подходит для потребностей и бюджета вашей компании? Насколько быстрая окупаемость у каждого из вариантов? Прозрачное ценообразование поставщиков готовых решений позволяет планировать расходы на хранение в долгосрочной перспективе.

2. Взаимодействие с данными и время отклика

Какова скорость, с которой необходимо анализировать исходные данные и принимать решения на основе полученных данных? Системы управления и защиты устройств IoT всегда должны быть на пределе, даже если контуры управления работают относительно медленно. Крайне важен вопрос времени отклика. Чем дальше вычислительные ресурсы находятся от периферии, тем медленнее возможное время отклика и анализа новых данных. Периферическая инфраструктура обеспечивает мгновенный доступ к данным без дорогостоящих задержек.

3. Подключение и передача данных

Какие данные должны обрабатываться на периферии, а какие централизованно? В решении этого вопроса важную роль могут сыграть соображения пропускной способности и подключения. Если пропускная способность сети низкая и ненадежная, локальная обработка данных на периферии должна превалировать. Если соединение быстрое и надежное, больше данных можно отдавать в ЦОД, оставляя на периферии те, для которых требуется моментальная обработка или закрытое хранение.

4. Политика кибербезопасности

Проектирование инфраструктуры периферийных вычислений должно согласовываться со всеми действующими правилами и политиками кибербезопасности. Любая сеть, даже включающая периферийные ресурсы, может быть очень небезопасной, если она неправильно спроектирована и настроена. В безопасном хранилище на периферии данные защищены от атак, повреждения и удаления. Важный момент: репликация данных с несколькими зонами на периферии гарантирует, что данные будут всегда доступны в случае сбоя.

5. Набор технических навыков

Наконец, важно понять, обладает ли команда ИТ-специалистов набором навыков для разработки такой системы? Возможно, потребуется глубокое погружение в каждый из вышеперечисленных пунктов, прежде чем принимать какие-либо важные решения о применении периферийных вычислительных решений в своей инфраструктуре.

Приемлемым выходом здесь может стать приобретение периферийных вычислений как услуги у компании-поставщика. Здесь все аналогично облакам: партнерство с надежным поставщиком решений для периферийных вычислений предоставляет компаниям новые мощности без необходимости глубокого погружения в технологию.

Периферийные вычисления как услуга

Как видите, организация периферийных вычислений – дело полезное, но хлопотное и технически сложное. Такая повышенная сложность часто вызывает нежелание со стороны руководства что-то менять в уже существующей системе обработки данных. Между тем есть несколько готовых решений с довольно простой интеграцией. Например, у нас это Seagate® Lyve Cloud, разработанная в сотрудничестве с компанией Equinix. Периферийные системы хранения предоставляются как услуга, а это позволяет клиентам легко масштабировать их вплоть до эксабайтных размеров и дольше хранить большие объемы данных. С помощью Equinix Fabric™ можно подключать источники данных к самым разнообразным периферийным и облачным приложениям и выбирать вычислительные услуги для работы в средах Amazon S3. То есть у клиентов есть полноценное облако, но размещено оно ближе к источникам данных, поэтому работает на периферии.

Вы можете узнать больше о наших решениях для периферийных систем вычисления на официальном сайте.

33
Начать дискуссию