株式会社ネットワールドのエンジニアがお届けする技術情報ブログです。
各製品のエキスパートたちが旬なトピックをご紹介します。

Back to the Edge

今週は.NEXTもありますので、毎週水曜日の更新ではなく順次情報をアップデートしていきます。

.NEXT ニューオリンズがいよいよですね

ここではIoT、AI、Edgeコンピューティングについて過去から現在、今後について書かれている記事になります。

今後のNutanix社が考えるEdgeコンピューティングの重要性がよく伝わる内容となっていますので

こちらを元に参加されている方はいろいろな話を聞いては如何でしょうか

本記事の原文はSenior Staff Solutions ArchitectであるRichard Arsenian氏によるものです。
原文を参照したい方は <こちら > をご覧ください。
情報は原文の投稿時のものですので、現時点では投稿時の情報と製品とで差異が生じている場合があります。
当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページこちら
ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。
(初回はIDおよびパスワードの取得が必要です。)

Backtotheedagerev1

OK タイムサーキット..... フレックスキャパシター..... フレキシングエンジン..... ごー!

この一連のお話はIoTで最も盛り上がっているトピックの一つであるEdge コンピューティングをカバーする内容です。 どうぞ”Back to the Edge”の旅の話をお楽しみください。

エッジにもどってみると多くの疑問や不確実性が生じ、シリコンバレーの大手技術会社からくるこの行き過ぎた広告が単にエッジを再構築しようとしていると感じるかもしれません。

しかしエッジコンピューティングの劇的な変化はすでに目の前で起こっていて、すべてビッグデータに関するものです。

かつてないほど、私たちは世界のすべての自分たちの周りのデータを集めていて、それは私たちの日常習慣であったり、人格を形成している機械であったりです。

このような優れた機械は、運転、飛行、そして地球のまわりを移動することに対して責任をもっており、彼らはまた個々の新しいコンテキストのデータセンターの現れです

例えば空の無人機のデータセンター、自動運転を行うデータセンターかもしれません。

そうです、だから私たちはエッジにもどって何がクラウドに起こっているか見てみましょう。

これを理解するために、まず何が起こってきたのかを理解する必要がありますね

マーティン:ブラン博士!信じるわけないだろうけど、1995年へ行くよ

ブラウン博士:信じるわけないだろ!

-Back to the Future Part2より -

The Mainframe

1950年代から1960年代にかけてメインフレームは大規模スケールコンピューティングへの集中アプローチの象徴であり、これによってプロセス、データストレージアプリケーションやサービスは大規模キャビネットの中で集中的にホストされてきました。

ユーザーは今日のシンクライアントと異なり、ターミナルを利用しこれらのメインフレームに接続し利用していました。

この期間、私たちは人と機械の関係です。

ユーザーは手動でデータを作成しターミナルを利用して保存してから必要に応じてクエリを実行します。

しかし巨大なメインフレームは物理的にも大きく、非常に効果な上、ユーザーが求めるほど強力なものではありませんでした。

Mainframeイメージ元: Lawrence Livermore National Laboratory, via Wikimedia Commons

PCs and Distributed Computing

1990年代では分散されたコンピューティングがワークロート間でタスクとサービスに分類しクライアントサーバー関係をもつ企業内の新しいアーキテクチャーとして登場しました。

このアーキテクチャーは小さなサーバー(x86)からなる集まりでメインフレームよりも多くのCPU、RAMとストレージを提供しました。この人気、効率、経済性のおかげで、1980年代はサーバからネットワークを介してサービスとリソースを要求するクライアントデバイスの機能としてPCの人気が高まりましたが、これらのシステムを組織間で拡張する事は非常に高価なものでした。

Back to a Centralized Model: Cloud Computing and the Mobile Era

2000年代に普及したクラウドコンピューティングの劇的な変化は 特定のプラットホーム(CRM,ソーシャルネットワーキング、コラボレーションなど)の利用と増加の一途である“だれでも、いつでもどこからでも、どんなデバイスからも接続できる”という要望に革命をもたらしまし、この時代はモバイルデバイス(携帯電話、タブレット、ノートパソコン)の成熟とブロードバンド技術によける革命がありインターネットはついに最高潮に達し私たちのデータサイズは毎分ゼタバイトと再び増えていくことになり、データは増え続けることになります。

Iot2

The Internet of Things (IoT)

近年、IoT関連の普及が増えるとともにインターネットはユーザーが作成したデータからリアルワールド、機械によって作成されたBigDataへ発展しているのです。

IoTはすべてのデバイス(家具、サーモスタット、ウェアラブルバイス)、オブジェクト、機械、人々、動物でさえもインターネットにつながり、彼らが提供するデータからインテリジェントな意思決定、改善、行動パターンの洞察が行えるのです。

これは機会と機械のIPネットワーク、非構造データを介した数十億ものセンサーから提供された情報、自動化と制御によるコミュニケーションです。

結果、合理化された組込みシステムはネットワークのエッジでデータを取り込み、新しいメインフレームモデルを採用している集中化クラウドにデータの解析処理をするために複製するのです。

それでは現在に戻る時間です

Time_cri

Intelligent Edge Computing

ネットワークエッジはより洗練されたものとなり、リアルデータ処理と意思決定の要件が拡大するにつれ(無人自動車、アビオニクス、またそのようなアプリケーション)、集中化クラウドコンピューティングの配信モデルは日々古くなってきます。

なぜならネットワークの遅延と接続性に制限があり、センサーとアクチュレーターは膨大なデータを生成するからです。

パブリッククラウドにある数百万のサーバに対して、今日エッジではビジネスIoTとウェアラブルバイス、私たちが長年にわたって愛用してきた持ち歩くデバイスなどを含め数十億にもなります。

主なソーシャルメディアのサイトでは一日にデータが数百テラバイトにもなりますが航空宇宙産業だけでこのソーシャルメディアだけでなく、消費者業界全体をすぐに越える可能性があります。

比較という事で、最近パリの航空ショーでボンバルディア社はC シリーズジェットライナーを展示しました。これらのエンジンには毎秒10GBを生成する優れたセンサーが5000個搭載されており、12時間の飛行では844TBものデータが生成されるのです。

この7,000GTFエンジンが注文されると噂がでるとプラット・アンド・ホイットニー社はすべてのセンサーが出てると一度にゼタバイトのデータがダウンロードされる可能性があるわけです。

Requirements for real-time processing, analytics, and AI are here.

これからは私たちは、洗練されてインテリジェントに自律的に動き、意思決定と人類のアシストをとして周りの環境を学ぶペルソナを作成する機器に出会えることを期待できるのです。

人間の知性と知力はこれらのシリコンの中に人間の脳の人工ニューラルネットワークとして複製され人工知能技術を活用し人のように振る舞い、推測し活動するようにトレーニングされたこれらの機械に融合されていきます。

典型のコンピュータプログラミングの中で,私たちは論理式と”IF,THEN,ELSE,WHILE,DO”などの問題を解決する為のステートメントになれていますが、IoT産業のアプリケーションでは私たちが必要とする意思決定機能モデルの要求にプログラムを書くことが出来ないか、書き方を知らない場合がほとんどで、仮にもしプログラムを書き始めたとしてもそれは非常に複雑で正しく書くには不可能に近くトラブル回避が非常に難しいです。

Brain

イメージ元: BruceBlaus, Blausen 0657 MultipolarNeuron, CC BY 3.0

AIは人の脳が最も強力なコンピューティングエンジンと知られている生物学的ニューラルネットワークの概念に基づいて作られていります。

私たちの脳は数兆もの相互接続された神経細胞と軸索が含まれています。

神経細胞は私たちの感覚、心理状態または外部刺激からの情報を取得するのでお互いに情報を渡します。

これらの電気インパルスはすぐにここから神経細胞ネットワークと通して脳に行き実行するか、単に無視するかを決定します。

人間の脳にあるニューラルネットワークとは対照的に、ANNには大きなユニットとよばれる大きな人工ニューロンが含まれます。

これらユニットは入力層、隠れ層、出力層から成り立っています。

  • Input layer:

    これらのユニット(人工ニューロン)を含み外部の世界から情報の受け取りを行う

    ANNはこれらを入力し処理に必要な情報を取得するために利用します

  • Hidden layer:

    インプット層とアウトプット層の間に存在しており、すべての入力ノードと出力層に接続し入力を意味のある出力に変換します。

    ディープランニングモデルの中でしばしばみられるため、これらは複数の隠れ層がある可能性があります

  • Output layer: 隠れ層より送られた情報を利用して出力層は予測、または分類が行える。

現在開発されているたくさんあるAIアプリケーションの中の一つの機械学習では機械が一つのデータセットシリーズに遭遇した場合、機械がデータをもとに学び、考え、行動するアイディアを表現できるのです。

  • Supervised learning:

    一連の入力(x)と出力(y)、アルゴリズムまたはマッピングと関連性を決定するためと利用するものと同じような変数を提供します

  • Unsupervised learning:

    モデリング技術を活用し入力データと出力からのみなるデータの基礎構造を理解します。

  • Semisupervised learning:

    データセットがいくつかの入力データ(例えば,SNS内で分類された友人、家族、同僚または定義されていない他のグループ)の出力しか含まれない場合に動作します。

    この技術は予測するSupervisedラーニングとデータセットの学習と発見のunsupervisedラーニングの組み合わせによるものです。

複雑な自立システムとIoTアプリケーションは人間の活動を安全にするためのミッションクリティカルなものになっています。

1/100秒以内に反応し行動する事は非常に重要で、最適化されたハードウェアとプラットホームではこのこのレベルの応答を行う事しか達成できません。

ここ最近の例ですが、テスラ社がNVIDIA Drive PX プラットホームをベースに開発した自動運転システムがあります。

それは150個のMackBook Proに相当しAIとディープラーニング、320兆ものディープラーニング操作を毎秒行えるように最適されています。

Photoイメージ元: NVIDIA Taiwan, NVIDIA Drive PX, Computex Taipei 20150601, CC BY 2.0

この自動運転する車がもし運転中に障害物あったらどのようにふるまうか考えてみましょう。止まるか、左か右へ迂回するか、他の行動を起こす決定をしなければ行けません。

いかなるリアルタイムな意思決定するために車はまずカメラセンサーからイメージを機械学習や状況認識と行うクラウドでデータを送信しなくてはいけません。

それからの情報はクラウドから情報が戻り車に最適な指示をします。

2イメージ元: Ian Maddox , Tesla Autopilot Engaged in Model X, CC BY-SA 4.0

それでは遅すぎます。

まさにそれがエッジにこれら洗練された機械、産業用アプリケーションを戻す理由なのです。いま分散モデルと統合されています。

反復集計と複数のインテリジェントデバイスクラスタを構築、データ処理と瞬時に行動を判断、他のデバイスに何か起こる前に情報を伝えることが出来るようになるでしょう

たとえば、この状況 、自動運転の車のグループが数マイル前に障害を検知し事前に他の自動運転の車にスピードを落とすように警告するとしたら、道路の安全性は向上しませんか?

3

エッジデバイス機械学習やAIモデルまた、ペルソナの開発の為だけでなく、取得した結果をインテリジェンスに他のデバイスにリアルタイムに共有する。このことがANN群の星座になるのです。

エッジからのフィードバックを元に、エッジにデータを配布する前にクラウド上でこれらのモデルについて改善する事ができるようになります。

Fusing the edge and the cloud

Cloud2

エッジによる制約と要求によりパフォーマンスを越え敏捷性を指示します。

それは一つのデバイスでは企業データセンターのコンピューターのパワーとストレージを包括できないからです。

インテリジェントにエッジデバイスクラスタ構成が求められますが、それよりも重要な事は何か?

  • Provide local execution:

    スピードとエッジのボリュームでデータを取り込む

    これはクラウドやモバイルネットワークを越えることではないのです。

  • Provide contextual awareness:

    ユーザーの近く周りやセンサーからよりよい決定をするためのロケーションベースの技術のような相関的に豊かなユーザー固有のデータ

  • Provide situational awareness:

    環境、私たちの周りで何が起こっているのかというようなリアルタイム状況データに接続する

  • Process and execute predictive analytics and machine learning models:

    ニューラルネットワークモデルを利用した脅威や機会の予測

  • Act based on prescriptive analytics:

    自動的に作成される規則とコアデータセンター、他のエッジから学習した適応プロセスを利用した最適な行動をとる

このようなインテリジェントエッジでクラウドは長期データ保存の倉庫となります。

同じようにAIと機械学習を利用したより深い解析が出来るようにもなります。

エッジグループからデータを集約する事はデータパターン、トレンドをより理解しクラウドベースのポリシーオーケストレーションエンジンが新しいものへの感知、推理、行動のためにエッジデバイスへ更新するのです。

明日はキーノート関連の更新も現地メンバーよりブログにアップデート予定です

.NEXT2018 ニューオリンズの最新の情報のフィードバックセミナーを通して共有させて頂きます。

是非こちらもご参加頂ければ幸いです。

大阪: 2018.05.25(金) 14:00~17:25
東京:2018.05.29(火) 14:00~17:25


お申し込みはこちらから

記事担当者 : SI技術本部 カッシー @Nutanix_NTNX