Сегодня мы хотим поговорить про модную нынче тему цифровых двойников в контексте облачных решений, а также затронуть тему периферийных вычислений для решения проблемы задержки.
Как обычно, спросим у Википедии, что такое цифровой двойник? Итак, цифровой двойник (англ. Digital Twin) — цифровая копия физического объекта или процесса, помогающая оптимизировать эффективность бизнеса. Концепция «цифрового двойника» является частью четвёртой промышленной революции и призвана помочь предприятиям быстрее обнаруживать физические проблемы, точнее предсказывать их результаты и производить более качественные продукты.
Первое использование термина «Цифровой двойник» возникло в отчёте НАСА за 2010 год на тему моделирования и симуляции. Методика, описанная в докладе, была разработана в виду необходимости конструирования сверхреалистичной симуляции космического корабля во время строительства, испытаний и полётов. Цифровой двойник (ЦД) стал естественным результатом исследований НАСА в ходе программы «Меркурий», создающей двойников с конца 1950-х годов.
Реальное использование ЦД произошло во время инцидента с «Аполлоном-13» в 1970 году. У НАСА имелась система передачи подробнейших телеметрических данных с космического корабля, высококачественная симуляция, с сочетании с функцией «живой копии», созданной благодаря работающей в реальном времени телеметрии. И это позволило найти путь к спасению трех астронавтов и успешной посадке космического корабля. И это позволяет нам считать этот случай первым настоящим цифровым двойником.
Современные цифровые двойники эволюционировали и стали всеобъемлющими цифровыми копиями чего угодно — от отдельного объекта до целого промышленного процесса. Они включают в себя и синтезируют несколько слоев информации, чтобы иметь возможность реагировать так же, как и их физические оригиналы.
Основная проблема в том, что наш мир не статичен. Он постоянно в динамике. Поэтому при создании цифровых двойников с высочайшим уровнем детализации требует отражения изменчивой природы свойств копируемых объектов и моделирование постоянного потока их изменений.
Облачная инфраструктура позволяет объединять и синтезировать разрозненные источники данных. Она создает централизованную среду. Она гибка и управляема. Но не все так чудесно и пасторально, ведь отправка данных в удаленное хранилище и их анализ там чреваты задержками. При этом чувствительные ко времени данные, объекты или процессы могут быть отображены неточно. Важнейшие моменты бизнеса могут быть упущены, партии продукции испорчены, а энергия потрачена впустую, что приведет к высоким затратам. Облачная платформа несомненно имеет огромные преимущества, но решение проблемы задержки абсолютно необходимо для того, чтобы цифровые двойники могли реализовать свой огромный потенциал.
Исходя из вышесказанного периферийные вычисления (Edge computing) готовы стать следующей важной частью головоломки. Периферийные серверы обрабатывают данные ближе к источнику, уменьшая задержки, возникающие из-за отправки данных в облако. Такая топология минимизирует задержки, возникающие из-за физической удаленности. Обработка данных осуществляется в основном через дата-центры периферийных сетей. Это серверы, которые чаще всего разбросаны по всему миру, — в отличие от облачных, которые часто размещаются в более удаленных местах по соображениям низкой стоимости. Устройства, расположенные поблизости от периферийных серверов, могут подключаться к ним, отправлять и получать данные, не связываясь с облачными серверами, расположенными гораздо дальше.
Но и тут все «не слава Богу». Вроде бы возможности огромные, только создавай периферийные сети. Но надо понимать, что управление всеми данными, может оказаться непосильной задачей. Получаемая информации сильно различается по своей актуальности и ценности, поэтому любая периферийная инфраструктура должна предоставлять систему, способную эффективно интерпретировать эту информацию. Необходимы сетевые решения, способные решить эту проблему использованием запроса информации под каждого клиента. Необходимо создавать метрики, соответствующие важности объекта и в соответствии с ними отправлять данные по запросам в соответствии с графиком, менее важные данные уходят клиенту реже и используют меньшую полосу пропускания.
Кроме того, серьезный вопрос достаточности процессорной мощности для обработки больших объемов/потоков данных. Устройства, использующие периферийные вычисления, должны быть смоделированы в сложную сетевую модель с асинхронной архитектурой. Иначе возможны сбои при ограниченном количестве активных соединений. Такая модель устранит необходимость иметь один поток на устройство и обеспечит обработку управляющих событий, связанных с каждым из них, отправляя их обратно в симуляцию — события затем реконструируются в полное состояние мира, а затем сохраняются в структуре данных.
При огромном объеме разделяемых данных важно, чтобы периферийные сети могли эффективно справляться со скачками спроса. Кроме того, система должна заниматься протоколированием, анализом и отладкой процессов в сети. Визуализатор сети, например, может предоставить огромное количество информации о связях между процессами. Не только о задержке и пропускной способности, но и подробную статистику, например, потерянные пакеты, размеры окон или время с момента последней отправки или получения.
Создание сложных и динамичных цифровых двойников требует отражения в них изменчивой природы современных систем. Облачные вычисления обеспечивают доступ к вычислительной мощности высокого уровня, а периферийные — готовы заполнить пробелы.