Децентрализованный суперкомпьютер: неизбежный шаг на пути к Интернету вещей

CLAY
Оффлайн
Регистрация
25.01.17
Сообщения
763
Реакции
225
Репутация
292
СТАТЬИ

13.02.2017
Время — деньги, и в современном мире ценность времени растет, особенно в сфере новейших технологий. Зачастую время становится решающим фактором.

Например, результаты научного исследования, полученные с опозданием, могут стоить ученому Нобелевской премии, а в каких-то случаях даже унести человеческие жизни.

С наступлением эры компьютеров решение задач, связанных с вычислениями и математическим моделированием, удалось значительно ускорить, но вместе с ростом вычислительных мощностей первых ЭВМ выросли и пользовательские требования. Необходимость выхода на новый уровень скорости и эффективности работы привела к созданию сверхпроизводительной вычислительной машины — суперкомпьютера.

Как все начиналось
Первые суперкомпьютеры появились в 60-х годах прошлого века. Это были уникальные монолитные машины, необычайно мощные для своего времени, но и невероятно дорогие.

Почти тридцать лет спустя произошла первая смена парадигмы создания суперкомпьютеров. Монолитные машины ушли в прошлое, стало понятно, что получить суперкомпьютер можно и путем соединения большого количества обычных компьютеров в высокоскоростную сеть. Несмотря на то, что такие сетевые суперкомпьютеры сложнее программировать, они сделали рынок сверхпроизводительных вычислений намного более доступным для исследователей и бизнесов. Новые суперкомпьютеры были проще в сборке, а их комплектующие легко приобретались на рынке и стоили дешевле.

С развитием интернета и облачных сервисов, изменились и суперкомпьютеры. Вычислительные мощности постепенно перешли в облака, что еще больше демократизировало рынок, позволив большему количеству пользователей воспользоваться ресурсами облачных суперкомпьютеров.

Как известно, облака — это распределенная сеть серверов, чьи услуги сдаются клиенту в аренду на необходимое ему время. С помощью облачных сервисов пользователи получили возможность арендовать любые вычислительные мощности на необходимое им время не выходя из дома. И хотя услуга оставалась довольно недешевой, затраты на аренду не шли ни в какое сравнение с созданием собственного суперкомпьютера.

You must be registered for see images attach


На пороге революции
Сегодня мы стоим на пороге очередного революционного изменения парадигмы суперкомпьютеров. Развитие технологии блокчейн позволило разработчикам задуматься об очередной волне удешевления HPC-услуг и приближения суперкомпьютера к народу.

Новая модель децентрализованного облака — это классический пример набирающего популярность тренда экономики совместного пользования (shared economy). Суть модели состоит в объединении пользователей в глобальную p2p-сеть, где каждая машина становится провайдером вычислительных услуг, предлагая часть своих неиспользуемых ресурсов. Эта модель сулит не только серьезный прорыв для индустрии, но и прямую выгоду для каждого участника. Большую часть времени мы не используем и половину мощностей наших компьютеров, а подключив малую долю своих неиспользуемых ресурсов к этому гигантскому суперкомпьютеру, пользователи смогут зарабатывать практически на пустом месте.

Тем, кто арендует вычислительные мощности, децентрализованные сервисы также предлагают солидный набор преимуществ.

Во-первых, неизбежно значительное удешевление услуги. Децентрализованные облачные платформы — это, по большому счету, свободные рынки, где спрос и предложение формируют конкурентные цены. И что самое главное, такие сервисы составят конкуренцию монополистам (Microsoft, Google, IBM, Amazon), что, скорее всего, приведет к общему снижению цен в отрасли.

Во-вторых, немаловажными являются и соображения безопасности. Надежность централизованных облаков уже давно была поставлена под сомнение множеством скандалов, включая недавний взлом iCloud, который сделал достоянием общественности сотни личных фотографий знаменитостей. У децентрализованных структур нет единого центра, который можно атаковать, поэтому они по умолчанию надежнее.

Прочие преимущества включают в себя и большую вероятность наличия ноды, географически расположенной недалеко от конечного пользователя, что тоже значительно ускорит работу с «большими данными». И экономию энергии, ведь для своих нужд распределенные облака используют ресурсы пользовательских компьютеров в сети, которые в противном случае просто тратились бы напрасно.

Инфраструктура будущего
Пионером блокчейновых суперкомпьютеров многие считают GridCoin, появившийся на криптовалютной сцене еще в 2013 году. Алгоритмы PoW (Proof-of-Work) нередко критикуют за непродуктивное использование большого количества энергии, и GridCoin идеально решил эту проблему. PoW в GridCoin был преобразован в PoR (Proof-of-Research). Это означало, что мощности майнеров GridCoin были направлены не на хэширование бесполезных данных, а на участие в проекте BOINC — платформе, с помощью которой пользователи объединяют мощности своих компьютеров для решения вычислительных задач, стоящих перед научным сообществом.

По стопам GridCoin пошел и проект CureCoin. ASIC-майнеры в инфраструктуре CureCoin занимаются весьма полезным делом — моделируют свертывание молекул белка, что дает исследователям важные данные для работы над лекарствами от рака, болезни Альцгеймера и других недугов.

Сегодня мы наблюдаем очередную волну популярности распределенных облачных сервисов. Новое дыхание идее придал прошлогодний проект Golem, проведший довольно успешныйкраудсейл. Golem позиционировал себя как «децентрализованный суперкомпьютер» и альтернативу централизованным облачным сервисам.

Впрочем, разработчики платформы предупреждают, что конечного продукта не стоит ждать ближайшие несколько лет и сами с интересом следят за развитием отрасли.

«Другие проекты имеют свой взгляд на стоящие перед нами проблемы. Все они созданы с хорошими намерениями и подходят к поставленным задачам с разных сторон. Думаю, для инновационной индустрии это очень хорошо», — говорит Алекс Леверингтон, разработчик Golem и ядра Ethereum.

Cегодня взгляды криптокомьюнити обращены на новый децентрализованный суперкомпьютер — iEx.ec. Примечательно, что и этот проект тоже использует инфраструктуру Ethereum и умные контракты для создания виртуальной облачной сети, предоставляющей услуги в области высокопроизводительных вычислений.

Этот сервис позволит собирать неиспользуемые ресурсы компьютеров, подключенных к интернету, для обработки массивов данных за смешные, по сравнению с централизованными облачными сервисами, деньги.

«Суперкомпьютеры все еще слишком дороги и сложны для небольших бизнесов и стартапов. Зарождающийся Интернет вещей требует огромных вычислительных мощностей и новых инфраструктурных решений, к тому же мы видим популяризацию DApps (распределенных приложений), создаваемых с помощью технологии блокчейн и умных контрактов. Команда iEx.ex создает распределенную облачную сеть, которая значительно снизит барьеры для тех, кто хочет воспользоваться сервисами высокопроизводительных вычислений», — говорит Жиль Федак, генеральный директор и сооснователь iEx.ec

Вместе с тем, разработчики не считают, что блокчейн-революция сможет переменить правила игры в индустрии в одночасье. Централизованные облака, скорее всего, продолжат существовать, но индустрия в целом станет намного здоровее.

«Мы верим в гибридную модель, где централизованные облачные сервисы все еще будут существовать, но большинство сервисов мигрирует в распределенные облака. Централизованным облакам придется адаптироваться, чтобы выжить. Некоторые сервисы централизованных облаков все еще будут востребованы в будущем, но с развитием технологии блокчейна и увеличением спроса на распределенные приложения, резкий толчок в развитии децентрализованных облачных платформ неизбежен», — убежден глава iEx.ec.

Тенденции сегодняшнего дня позволяют нам заглянуть в будущее, где все пользовательские электронные устройства объединит одна глобальная децентрализованная сеть, на которую будут опираться многочисленные распределенные приложения, формирующие Интернет вещей.
 
Сверху Снизу