Storage Feed

2016/09/14

ウェブスケールインフラストラクチャ上のオールフラッシュのパフォーマンス

本記事の原文はNutanix社のGlobal Engineering / R&D TeamでManager Business Critical Appsを務めるMichael Webster氏によるものです。原文を参照したい方はAll Flash Performance on Web Scale Infrastructureをご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら

Fig020_2

オールフラッシュストレージアレイは今日では人気を博し、従来からのミッションクリティカルなファイバーチャネルのアレイから大きくビジネスを移行させつつ有ります。そして、従来型の3層構造のアーキテクチャは少しだけですが、シンプルになりました。僅かな数の仮想マシンが大きなパフォーマンスを必要とするようなスケールアップ型のワークロードに対し、優れたパフォーマンスを提供し、さらに、データ削減のテクニックを利用してキャパシティの削減も同時に提供しています。オールフラッシュシステムがさらに優れているのは大きな負荷がかかったり、キャパシティが限界に近い状態であったとしても一貫したパフォーマンスと低遅延を提供するということです。しかし、従来型のアーキテクチャに比べて少しだけシンプルだ、ということはまったくもってシンプルであるとは程遠いのも事実です(FCの管理オーバーヘッドだけ)。そして、まだインフラストラクチャがインビジブルであるともいえません。まだ幾つかの制限があります。オールフラッシュが欲しくて、更に制限のないスケールアウトも欲しい、数千の仮想マシンを動作・サポートしなくてはならない、でも管理を従来型の3層構造よりも簡単にしたいとなったらどうしますか? 効率よくインフラストラクチャをインビジブルにしたいのです。

答えはとても簡単です。インフラストラクチャが将来そうなるのと同じで、Nutanixを選択すればよいのです。Nutanixは1年前にオールフラッシュソリューションを打ち出しました、そして一貫した高パフォーマンスと想定通りの低遅延優先度の高いワークロードに対して望むお客様に大きな人気を博しています。NX 9040ノードは6本のIntel S3700というエンタープライズクラスのSSDとE5 v2を2ソケット、最大で512GBのメモリを融合させています。このソリューションは2ラックユニットのスペースに2ノード(最大でラックあたり364TBの物理フラッシュストレージ)収めることが出来ます。これはOracleデータベースやSQLサーバ、SAP、Temnos T24 core Bankingなどにうってつけのプラットフォームで、これら全てを動作させているお客様までいます。特に、Nutanixのデータ削減機能やデータ回避機能と組み合わせると、同じ物理ストレージ内で更に多くのキャパシティを利用することが出来ます。Josh Odgers氏(NPX #001)はEC-Xと呼ばれる新しい機能(訳注:リンク先は英文、現在のところ翻訳予定なし)についての記事を公開しています。

Nutanixのデータ削減

データ削減には圧縮、データ重複排除そして、EC-Xなどが含まれます。データ回避機能は例えばVAAI統合、シンプロビジョニング、そしてスマートクローンとスナップショットなどで、不必要なデータや重複したデータを最初に作成しない機能です。データベースやビジネスクリティカルアプリケーションでは、圧縮は推奨されています。重複排除については大規模なデータで異なるデータが多い場合にはさほど効果的ではないというケースも有ります。こうした手法によってそのまま利用するよりも、もっと利用できるキャパシティが増える可能性がありますが、その効果はワークロードによって様々です。2:1、3:1もしくはもっと高い割合のことも有ります。単一の手法だけでも、ワークロードに向いている手法であればもっと高い割合になることもあるのです。

データベースにおいてSQLサーバで透過的データ暗号化(TDE)やOracleでアドバンスドセキュリティ暗号化を利用しているような場合、これほどには効果が出ない場合もあります。NX9040を含む、同じプラットフォームでデータ最終暗号化をサポートしており、これによってアプリケーション自身での暗号化を不要にする事も可能です。暗号化されたワークロードにおいてキャパシティを効率的に削減するのは難しいものです。以下のイメージはNX9040の単一クラスタでNutanixのPRISMユーザーインターフェイスから見た際のOracle RAC データベースがどれほどの削減がなされたかを表しています。これは実現出来ていることのほんの一例でもちろん、ワークロードに依存します。効果は様々なのです。

Fig021

上記のイメージからはデータベースが5.57TiBのキャパシティをデータ削減前に利用していたということが分かります。データベース自身は3TBですから、データ保護やデータ保全性のためのオーバーヘッドがあることが分かります。データ削減が行われた後のキャパシティは1.95TiBのみです。この削減効果は圧縮からの効果のみです。もしも圧縮とEC-Xを組み合わせれば、もっと大きな削減効果を得ることが出来るはずです。Nutanixクラスタが大きくなれば、データ削減の手法は更に効率的なものになります。

もう一つ圧縮の例を上げましょう。今回はExchangeにJetStress Databaseで負荷をかけたものです。(注意 : JetStressは実際の世界ではあり得ないワークロードでここでのデータ削減率は実際のExchange環境での物よりも高い可能性があります。)

Fig022

殆どの環境では検証・開発のワークロードが本稼動系とともに動作しています。Nutanixのやり方では、ワークロードのスナップショットの作成やクローンの作成してもストレージ消費は増えることはありません。これ等の操作ではデータに変更がないからです。これはテンプレートを展開する際にもESXiとVAAI(VMware API for Array Integration)で同様に実現されます。新しい仮想マシンを欲しいだけ展開しても、実際にデータが書き込まれるまではストレージの消費は増えないのです。

こうした手法を利用して、100%完全なデータを開発・検証環境で利用しながら、ストレージの消費を抑えることが可能です。高いレベルでコードが動くという確信を持ちながら、本稼動系へとワークロードを移行することができ、いつでも検証環境の状態へと戻ることも出来るのです。全ては数秒で追加ストレージキャパシティを消費するという心配は必要ありません。

Nutanixのデータ削減とデータ除外手法についてはNutanixバイブルの分散ストレージファブリックのセクションもご参照ください。

Nutanixのオールフラッシュのパフォーマンス

データ削減や回避の手法によってワークロードのパフォーマンスも様々に変化します。単一のアプリケーションからのIOパターンが単一であるということはほとんどありません。ですから、パフォーマンスを検証するのにもっともよい方法は実際のアプリケーションを利用することです。実際のアプリケーションは4KBサイズのIOだけを生成するということは一般的にはありません。ですから、今回はNutanixのオールフラッシュのパフォーマンスを検証するためにSLOB(SLOBのオフィシャルページはこちら)、SwingbenchBenchmark Factory for DatabaseHammerDBのようなツールを利用しました。ここではSLOBを利用して取得したイメージを例に提示します。

IOパフォーマンスを検証する際に、文脈を無視して、単独の計測値だけを見てはいけません、そうしなければ検証は意味が無いものになってしまいます。IOPSを例に取ると、IOサイズ、レイテンシ、スループットが異なれば劇的に値が変化します。ですから、IOPS単独だけでは確かな計測ができているとはいえません。今回のテストでは、Oracle RAC環境に対して、SLOBを利用して大量の小さなReadを生成しました。それぞれのReadは8Kで、これはデータベースの生のページサイズです。このIOパターンは100%ランダムです。トランザクションログのIOはかなり大きなIOサイズであり、当然シーケンシャルです。

以下のダイアグラムのテストを行ったシステムは2ノードのOracle RACクラスタ(それぞれのノードで 48 vCPU、192GBメモリ)を2台のNX4170(4 x E-4657L v2, 512GBメモリ)と4台のNX9040(2 x E5-2690 v2 512GBメモリ)で構成されたNutanixクラスタ上で動作させています。いずれのシステムも旧世代のIntelのIvy Bridgeのプロセッサ技術を利用しています。ハイパーバイザーはESXi 5.5を利用しており、後にESXi 6.0にアップグレードしたところ、更によいパフォーマンスを示しました。

Oracle RAC SLOB IOPS

Fig023

上のイメージでは2つのテストが行われています。一つ目は30%がupdate(更新、データ書き換え)であるというワークロード、もう一つは100% select(選択、データ参照)のワークロードです。updateのワークロードではきっかり70K IOPSが生成されています。

Oracle RAC SLOB レイテンシ

Fig024

異なるベンチマークの最中のレイテンシが上に表示されています。updateの多いテストではレイテンシは高くなり4ミリ秒ほどになっており、ピークでは7ミリ秒になっています。selectの多いワークロードに於いてはレイテンシは0.45ミリ秒です。2つ目のテストでのレイテンシが低いのはハイパーバイザーを最新ヴァージョンにアップグレードすることによって更に低くなりました。

Oracle RAC SLOB スループット

Fig025

上のグラフから読み取れるのはupdateが多いテストではスループットはカッチリ800MB/秒で、selectが多いテストでは1.13GB/秒でした。思い出して欲しいのはこれはNutanixのハイパーコンバージドアプライアンスであり、全体で8ラックユニットのスペースにコンピューティングとストレージの両方が収まっているということです。近い将来、Nutanixはもっとこうしたパフォーマンスを実現するための物理的なスペースと電源要件を削減する予定です。もっと小さなスペースで、そして、もっとシンプルな環境でオールフラッシュのワークロードを動作させることができる様になります。

オールフラッシュが必要なのか?

利用するか、利用しないかは当然皆様のご選択です。Nutanixは強力なオールフラッシュのオプションをNX9040で提供しています。将来のプラットフォームではこれをさらに推し進め、もっと極端なワークロードへも対応できるようにしていきます。Nutanixのプラットフォームではあらゆるノードのタイプでいくらかのフラッシュが搭載されています。データはフラッシュとハードディスクにおいてブロックレベルでのアクセス頻度に応じた階層がが行われます。オールフラッシュが必要か、そうでないかということは結局のところ、ソリューション全体のライフタイムの中で予想通りの結果を売ることが出来るか、というところに帰結します。アプリケーションがホットデータしかなく、フラッシュの上にすべてデータが有ることを保証したい場合にはオールフラッシュはそれに答えてくれます。オールフラッシュプラットフォームはオーバーヘッドが小さく、データ階層化の必要性がありません。ですが、ほとんどのワークロードにおいてはデータ階層化は非常に効率的で、充分です。

現段階で、オールフラッシュに向いているのはデータベースやアプリケーションサーバのような、低遅延サービスの保証が必要とされるものです。特に、パフォーマンス以外にも、仮想化によって物理ノードあたりのシステム数を上げることでライセンス上のメリットを受けられるような場合、更に多くのアプリケーションをノードに仮想化することが出来ます。OracleやSQLサーバを考えてみてください。

Nutanixは最近ハイブリッドのノードにおいても、フラッシュピンニングという機能をアナウンスしました。まだリリースされていません(原文執筆時、現在はリリース済み)が、リリースされた暁には仮想マシンや仮想化ディスクをフラッシュ層にピン留めすることが出来るようになります。この機能は標準のハイブリッドとオールフラッシュオプションの中間に位置するようなものです。時が経つにつれ、ほとんどのシステムはフラッシュの寡占状態になり、ハードディスクはスナップショットやバックアップ、アーカイブなどでのみ利用されるようになるのではないかと予想しています。

おわりに

今回の記事に掲載したイメージのとおり、ハイパーコンバージドのウェブスケールプラットフォームのオールフラッシュは特筆すべき管理の簡単さ、低遅延、制限のないスケールアウトが必要な環境において、優れたパフォーマンスを提供します。プラットフォームにより多くの利用可能なストレージキャパシティを提供するデータ削減と回避の手法は他のオールフラッシュアレイと同様にNutanixでも動作します。これが唯一上手くフィットしないところがあるとすれば単一の極端なワークロードまたは仮想マシンがアレイのパフォーマンスの全てを必要とするというようなケースでスケールアウトできない、計画もないというような場合だけです。こうした状況であればPure Storageのような物を選択する方が良いでしょう。それ以外のすべての場合、Nutanixは他のものに比べ遥かにシンプルなソリューションで優れたパフォーマンスと無制限の拡張性を提供することが出来ます。

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw) 今後は (@Networld_NTNX)

いかがでしょうか? 既に様々なベンダーからオールフラッシュストレージソリューション、オールフラッシュハイパーコンバージドソリューションが提供されていますが、今回あえてこの記事を翻訳したのはいくつかのブロク/ニュースに記載されているように当社が国内で提供を行ってきた(そして私の大好きな!)PernixDataのテクノロジーが上でお見せしてきたような優れたパフォーマンスに加えて利用ができるようになるとの期待からです。PernixData社のソリューションはFlashだけではなく、メモリ、そしておそらくは今後多く登場してくるメモリクラスストレージ(または大容量不揮発性メモリ)のテクノロジーにまで利用することが出来るようになっています。Nutanix社のCVM(VSA)の実装とPernixData社のin-kernelの実装が今後どうなっていくかなど、興味はつきませんが、PernixData社が大好きな私以外の皆様の興味にも答えられるように、今後も面白い記事を選びながら更新していきたいと思います! 引き続きよろしくお願いいたします。

2016/09/09

[最新鋭、IBM FlashSystem A9000を大解剖!]

最近発表されたIBMの最新鋭の超高速フラッシュストレージ FlashSystem A9000をお借りしちゃいましたっ。

筆者もびっくり!ここまでやるか!何があってもデータは守る!究極の機能っ!


以前のお話で、グリッドコントローラーのワンランク上の堅牢性をお話しましたが
今回少しだけその中身をお見せしましょうっ!

このグリッドコントローラー、冗長電源を搭載してるが、それだけじゃなかった!
フロントのベイにディスク以外の見慣れない謎のモジュールが・・・
1モジュールが2.5インチベイで4スロット分に相当するコンパクトなものだが、き、気になる!!。

Batt

日本アイ・ビー・エムの担当エンジニアさんの “どうぞどうぞっ♪” の一言で、て恐る恐る引き抜いてみると

むむっ、手のひらサイズ?バッテリー?? そう、バッテリーなのだ!!

Grictlbatt01

筆者の見たところ、おそらくハイドレインタイプの高信頼なセルで構成されたバッテリーモジュールではないかと推測しているっ!!

すげー分解してみたかったけどマジで高価な機器なので、お願いする勇気がでませんでした!!

Grictlbatt02*見るからに容量の大きそうなコネクタがっ!!

公開情報から紐解くと、ホットスワップ可能のバッテリーモジュールで
各バッテリーモジュールは電源障害が発生した場合、正常なシャットダウンの完了に十分な電力を供給できるとのことっ!
要は電源障害で冗長電源の両方がダウンという最悪の状況でも
この手のひらにのるバッテリーモジュールによりグリッドコントローラーはそのまま稼動し続け
安全にシャットダウンを完了してくれるっ。
まるで筐体内にUPS内蔵しているかのようだ!!
  

まさかグリッドコントローラーにまでこんな手の込んだ仕掛けがあるとは・・・

  

ちなみに、フラッシュエンクロージャーはストレージ機器なのでこの辺の機能は抜かりなく
フロントのベイに搭載される2個のホットスワップ可能のフラッシュエンクロージャーバッテリモジュールにより
これまた電源障害で冗長電源の両方がダウンしても
システムを正常にシャットダウン(完全にフラッシュされ、同期化されたキャッシュを書き込む)することが可能です。

Ffx408

 

更に~っ!!(これ、筆者もはじめて知りましたっ!!)

A9000Rにいたっては、接続の要となるInfiniBandSwitchにまで同等の機能がっ!!
なんとバッテリーバックアップユニット付きの冗長電源が搭載されているのだ。
冗長電源の両方がダウンしてもバックアップバッテリーにより
システムのシャットダウン完了までオフラインになる事無く稼動を続けることができるっ。
もちろんこのバッテリーはホットスワップも可能だ!

Ib_batt

グリッドコントロ-ラー、フラッシュエンクロージャーのバッテリーと同じようにInfiniBandSwitchのバッテリーも
常時監視され定期的にキャリブレーションが行われているっ。

  

公開情報を読み進めていくと書いてありましたっ♪。

A9000/A9000Rを構成する各モジュールに搭載されるバッテリーバックアップユニットのおかげで
システム全体の主電源の供給が断たれた場合でも
自動的にシャットダウンを実行し、キャッシュ等の全てのデータを書き込むまでオンラインの状態を維持する事が可能との事です。

  

たとえデータセンター全体の電源がダウンするような事態でも守り抜く!
このシステムには大切なデータを守る究極の機能が搭載されているのですっ♪

A915b3e0c728ea1369d7adcf8b3ab712_s

そうなんです!このA9000/A9000Rってここまで考えられているんですねっ♪

そこまでやるか!A9000/A9000R

  
次回は、「キミもエンタープライズを体感してみなイカっ♪」ですっ。 :)

By:まいけル

参考資料
IBM FlashSystem A9000 and IBM FlashSystem A9000R Architecture, Implementation, and Usage

2016/08/22

[最新鋭、IBM FlashSystem A9000大解剖!]

IBMの最新鋭の超高速フラッシュストレージ FlashSystem A9000をお借りしちゃいましたっ。

実際に動かしてみようっ♪


いきなりですが、「実際に動かした結果を速く視たいんだけどなぁ♪」 とボスから指令がっ!!
ということで簡単な環境をつくって少しだけ試してみましたっ♪

さっそく、サクッと図のような環境をセットアップ~っ♪

A9000test1

で、何をしようか・・・・・♪

とりあえず、代表的な機能のテストをやってみようかなっ。実機でっ♪


重複排除って本当に効くの!?

**A9000上、単一ボリューム内で複製をした場合**

1個のデータストア内でVMを複製してみましたっ♪

1:ESXiのデータストア用にA9000上に約1TBのボリュームを1個作成
2:このボリューム内に1台目の仮想マシンを作成
3:同じボリューム内に1台目の仮想マシンのクローンを作成して2台目を作成
4:同じボリューム内に、残りの仮想マシンのクローンを作成して合計10台を展開
*(仮想マシンには、WindowsServer2012R2をインストールしました。)

Ffx417

その結果がこちらっ♪

姐さんっ!重複排除、効いてますぜっ!!
(約98パーセントの排除率を確認できました。)

Clonevm


続いてぇ~っ♪

**A9000上、複数のボリューム上に同じデータを複製した場合**

10台のVMそれぞれにRDM(ローデバイスマッピング)の領域を追加してデータをコピーしてみたっ♪

1:A9000上に50GBのボリュームを10個追加作成する。
2:先ほど作成した10台のVMそれぞれに1個づつRDM領域としてDiskを追加する。
3:10台中1台目のVMのRDM領域にダミーデータを書き込む。
4:他のVMにもそのダミーデータをコピーする。
*(ダミーデータは合計約10GBの、pdfやpptなど単体では圧縮の利き辛いアトランダムなドキュメントファイル群です。)

Ffx418

兄貴っ、やはり重複排除、効いてますぜっ!!
(2台目以降の重複排除率が9個平均で約88.4パーセントという結果になりましたっ♪)
おやおや~っ、これってVDI用途なんかには超絶効果が期待できそうじゃなイカっ!!(マジで期待していいと思うっ♪)

Qq

★この「重複排除」はA9000/A9000R上の単一ボリューム内だけでなく複数のボリューム間であってもその効果を実感できるんですっ!



あっ!、そういえば!!圧縮はどうなのよっ?

ということで、実際にデータベースを動かして試してみましたっ♪。
1:今度はサーバーのローカルに3台のVMを作成するっ
2:A9000上に10TBのボリューム3個を作成するっ
3:3台のVMそれぞれに1個ずつRDMでディスクを追加っ
4:RDMの領域にサンプルDBをロードするっ♪
*(各DBの最終的なファイルサイズは平均約1.7TB)

Dbb

ボスっ!重複排除の効きにくいDBのようなファイルでも圧縮効いてますぜっ!!
ファイルサイズ平均1.7TBの状態
(圧縮率3台平均で約47パーセント)

Final01


今回は短時間で行ったほんの一例ですが、どおやらデータ削減の効果は大いに期待できそうであるっ♪

他にも「マルチテナンシーのQoSの効果っ♪」や、「超絶IO負荷地獄」、「帯域の鉄人」、「パターン排除の飽くなき削減」
など、やってみたい事はいっぱいあるので、今後少しづつでもご報告できればと思いますっ♪

次回は、「筆者もびっくり!何があってもデータは守りきるっ!究極の電源機構っ!!」


by:まいけル

2016/08/08

[最新鋭、IBM FlashSystem A9000を大解剖!]

最近発表されたIBMの最新鋭の超高速フラッシュストレージ FlashSystem A9000をお借りしちゃいましたっ。

グリッド・コントローラーってなあにっ??


分散する複数のコンピューティングリソースを並べて一つに見せる「グリッド」という技術があります。

A9000において、この「グリッド」を構成するのがこの「グリッドコントローラー」ですっ。

Grid_2*A9000は「フラッシュエンクロージャー x1台」+「グリッドコントローラー x3台」 で構成されています。

今をときめく超高速フラッシュストレージを、もっともっといろんな用途に使えないかなぁ・・・

沢山ある答えの一つがこのA9000で、その豊富なストレージ機能が詰め込まれているのが
何を隠そう、この「グリッドコントローラー」なのですっ!

観て通り、このグリッドコントローラーのハードウェア自体は
信頼性高いハイエンドサーバーがベースになっています。
ただでさえ複数のグリッドコントローラーによる冗長を提供しながら
このグリッドコントローラー単体もワンランク上の堅牢性を兼ね備えているんですっ♪。

Gridctl

*こちらがグリッドコントローラーですっ。

例えばグリッドコントローラー本体の冗長電源の、両方の電源供給が
同時に断たれてもシステムのシャットダウンを安全に完了できる機能を有します。

ハイエンドサーバーがベースでありながら、こういっためずらしい機能も搭載しています。
むろんストレージ機器であるフラッシュエンクロージャーにもこういった機能が実装されています。


また、自慢のインラインのデータ削減だって、グリッドコントローラーに搭載される余裕のリソースがあってこそっ!
これは「特定パターンの排除」に始まり、流行の「重複排除」、更にデータの「圧縮」で限りあるストレージのリソースを最大限に利用できるのですっ。

ちなみに圧縮には独自の専用ハードウェアアクセラレーターカードがグリッドコントローラー1機あたりなんと2枚も搭載されているんです!だから速いんです!!
高速な大容量メモリー、複数のマルチコアプロセッサーもそのために搭載されているのですっ♪
とにかく、ありとあらゆる手段でデータ量を削減しまくる!それも高速に!!

とまあ、これもA9000の数ある得意技の一部にすぎませんっ。
XIVで培った豊富なストレージ機能の数々が、このグリッドコントローラーに実装されているのですっ。

なかなかやるでしょ、グリッドコントローラーっ♪


次回は「実際に動かしてみようっ♪」へ続きます♪

*参考資料:英語*
IBM FlashSystem A9000 and IBM FlashSystem A9000R Architecture, Implementation, and Usage



by:まいけル

2016/07/25

PernixCloud データ : FVPのレイテンシとSANのレイテンシの比較

本ブログエントリーはPernixData社のテクノロジーエバンジェリストだったFrank Denneman氏のブログの翻訳版です。 Frank氏について、詳しくはこちらもご参照ください。

本記事の原文はPernixCloud Data: FVP Latency Compared To SAN Latencyで閲覧可能です。

ネットワールドのPernixDataに関する情報はこちら。本ブログのPernixDataの記事のまとめはこちら

地球全体の仮想化データセンタをポータル化ESXiホストのCPUとメモリの構成についての考察そして、仮想マシンの密度(統合率)についての考察などの記事の中で、我々のPernixCloudの中のデータについて述べてきました。我々は世界中の仮想化データセンタのデータを多く集めることで、様々なアーキテクチャ、会社、運用を理解しようとしています。ですが、もちろん、我々は我々の製品のパフォーマンスについて理解するためにもこのデータを利用します。今回キーとなるメトリックは我々のFVPがどれだけワークロードのレイテンシを改善したか、という点です。Satyam氏Woon Jung氏とSriram Sankaran氏にデータセットへとダイブし、どれだけのレイテンシが改善されたのかを明らかにするように命じました。以下はデータ取得時のSatyamによるコメントです:

データセット

Satyam :我々は日々91000ぐらいの仮想マシンを観察しています。仮想マシンのIOの特性は時刻や曜日によって変わり続けます。ドーナツチャートのそれぞれのセグメントごとの色はx-y%のレイテンシの改善がSANのレイテンシに対して見られた仮想マシンの割合を表しています。例えば、ドーナツチャートの左上の内側の(濃い)ブルーのセグメントはWrite-Thoroughに設定した仮想マシンの全体うち5%は0~19%のレイテンシの改善がFVPによって見られたということです。

以下の記事を読んで、FVPとWriteポリシーについて理解しておいてください:

我々は1382の仮想マシンの数年分のデータについて収集しました。データの表示は標準的に、一時間あたりでどれだけか、という値にしてあります。これはEC-2などのクラウドと比較しやすいようにするためです。

VMFS上のWrite Throughの仮想マシンのレイテンシの改善 ー Read(内側)とWrite(外側)

Fig421

NFS上のWrite Throughの仮想マシンのレイテンシの改善 ー Read(内側)とWrite(外側)

Fig422

VMFS上のWrite Backの仮想マシンのレイテンシの改善 ー Read(内側)とWrite(外側)

Fig423

NFS上のWrite Backの仮想マシンのレイテンシの改善 ー Read(内側)とWrite(外側)

Fig424

Satyam : さぁ、準備はいいかい? いっぱいあるけど、以下の様なところが見どころさ、それ以外は読者の楽しみとして取っておきます。

  • VMFS上の仮想マシンでWrite Throughに設定されている場合、35%もの場合で、100%以上のレイテンシの改善が見られています。つまり、SANのレイテンシよりも仮想マシンから見たレイテンシが半分以下になっているということです。
  • Write Throughに設定されている仮想マシンでも、ストレージに対する負荷が下がることで実際にはWriteのパフォーマンスを向上させることができています。14%ものWrite Throughの仮想マシンが80%~90%の割合でWriteのレイテンシの改善をしています。これはとーーーーっても大きい!!
  • NFSのチャートの右上、NFSの仮想マシンはより大きなレイテンシの改善がなされています。これはNFSはダメだからです(パフォーマンスの観点からはね・・・。)
  • Write Backに目を移しましょう。VMFSで動作している仮想マシンの半分はWriteBackで100%以上のレイテンシを改善しています。Write Backはすごいね!
  • 一般的にはほとんどの仮想マシンが50%以上のレイテンシの改善しています。Readでも、Writeでも、Write ThroughでもWrite Backでも、VMFSでもNFSでも。なんという強者っぷり!

実際のデータは見ていただいたとおりです、注目したいのはWrite ThroughでのSANのWriteレイテンシの改善です。これは実際の話しですし、オールフラッシュストレージの上でFVPでRAMによる高速化(DFTM)を実施したことを考えてみてください。最近、Ramboll社 ーグローバルで展開するエンジニアリング会社ー が何故Pureのオールフラッシュストレージの上で、DFTMを利用するFVPを導入したのかという理由を答えてくれています。レコーディングは以下から聞くことが出来ます。Maximize Your All Flash Array Investment With Analytics(訳注:英語ビデオ)

Chethan Kumar氏、我々のパフォーマンスエンジニアもSANのレイテンシがFVPを動作させる前よりも下がったということを述べています。帯域が削減されることにより、ストレージエリアネットワークとストレージコントローラーに対する負荷が下がるからです。もし90,000もの仮想マシンからのIOが発行されたとすると、レイテンシはもっと高いものになっているはずです。そうした意味では、このドーナツチャートで見るよりも実際の結果はもっと優れたものになるはずです。本当のドーナツでは殆どが紫になってしまい、上の方にちょこっと色が出てくるような状態のはずです。

Write Throughで削減される仮想マシンからの帯域の総量を甘く見てはいけません。今週私は32のデータベースを動作させている仮想マシンを高速化されているお客様をご訪問いたしましたが、1日辺りで145TBもの帯域が削減されていました。ストレージエリアネットワークでの帯域はストレージ装置自身のキャッシュにも影響をあたえるのです。

Fig425

我々がFVPによるメリットにどれだけの確信を持っているかを示すために、我々は「Fastest SAN alive(最速のSANの誕生)」キャンペーンを実施しています。最大で10倍の高速な仮想マシンのパフォーマンスをFVPが実現するということを是非チャレンジしてみてください。詳細はこちらです。

Fig426

訳注 : 残念ながら上記のキャンペーンは国内では展開されておりませんが、FVPのパフォーマンス改善とその効果に絶対の自信があるということは上記の統計からの実際のお客様の例からも明らかです。是非無料トライアルをお試しください!

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)

2016/07/22

[最新鋭、IBM FlashSystem A9000 をこっそりレポート]

最近発表されたIBMの最新鋭の超高速フラッシュストレージ FlashSystem A9000をお借りしちゃいましたっ。

FlashSystem A9000 ってなあにっ??


写真:緊張をしながらA9000に灯を入れたところをパシャ!

_20160617_131927

究極の低遅延を誇る 超高速ストレージ
IBM FlashSystem 900 は爆速街道まっしぐらっ!

A9000は、その超高速ストレージに「IBM XIV」で高い実績の 「IBM Spectrum Accelerate」 を組み合わせた
一言で言うと超高速ミニXIVだっ♪

もちろんリアルタイム圧縮、そしてインライン処理での重複排除機能も標準搭載され、アクセスタイム250usという驚異的な応答速度に、最大500,000IOPSを叩き出し、同時に99.999%を超える可用性をも実現しているっ!
リアル何でもアリなのであるっ。

で、更に
QoS+マルチテナンシー というクラウド環境を意識した機能を併せ持つまさに理想のストレージっ。

ちなみに最大2,000,000IOPSに達するモンスターマシンA9000R にいたっては
複数のフラッシュエンクロージャーによるスケールアップにも対応しているよっ。

 

FlashSystem A9000 中身を覗いてみよう♪


FlashSystem A9000はマイクロレイテンシーフラッシュモジュールを12個搭載したフラッシュエンクロージャー1台にIBM Spectrum Accelerateが実装されたグリッドコントローラー3台で構成され
各筐体同士が超広帯域なInfiniband (FDR/56Gbps)で接続されいるんですっ。凄いでしょ♪
裏にまわって、実際の結線をたぐっていったら、下の図のようになっていました!!。

Infiniband_4

次回は「グリッドコントローラーってなに??」の謎に迫ってみまっしょうっ。

by:まいけル

2016/07/18

PDキッド エピソード3 : PDキッドがデータベースのパフォーマンスに挑む

さて、アメコミファンの皆様、そしてストレージのファンの皆様、前回からわずか一週間。PDキッドの第3話の登場です!

ネットワールドのPernixDataに関する情報はこちら。本ブログのPernixDataの記事のまとめはこちら

個性的な登場人物の詳しいプロフィールはこちら。みんな相当ヤバイ奴らですが、なんと今回はPDキッド以外は出てきません!(笑) なぜなら、今回の問題はストレージの問題では無いからです。 ストレージの世界から飛び出したPDキッドの行方は果たして!?

Fig418

続きを読むをクリックして進んでください!

続きを読む »

2016/07/11

PDキッド エピソード2 : PDキッドがキャパシティの難題に挑む

さて、アメコミファンの皆様、そしてストレージのファンの皆様、前回からわずか一週間。PDキッドの第2話の登場です!

ネットワールドのPernixDataに関する情報はこちら。本ブログのPernixDataの記事のまとめはこちら

個性的な登場人物の詳しいプロフィールはこちら。みんな相当ヤバイ奴らです! PDキッドの行方は果たして!?

Fig415

続きを読むをクリックして進んでください!

続きを読む »

2016/07/04

CommVault Simpana:番外 クライアントPCのバックアップ インストール(MacOS)編

バイナリを集め、カスタムのパッケージを作り、いよいよインストールです。

MacユーザならおなじみのDMGファイルをクリックすることで、スムーズにアプリケーションがインストールされていきます。


それでは、始めます。


①カスタマイズ編で作成したSimpana.dmgファイルを対象のMacintosh端末にコピーして、クリックします。

Installmac01


②表示された画面のSimpanaのアイコンをダブルクリックします。

Installmac02red


③インストールを許可する為に、ログインアカウントのパスワードを入力します。

Installmac03red


④パッケージのインストール状況が表示されます。

Installmac04


⑤パッケージのインストールが完了します。

Installmac05_2


⑥次に、Process Managerが起動されます。[Countinue]ボタンを押して続けます。

Installmac06red


⑦次の設定画面で、対象PCのComputer Name、CommServe、UserName、Passwordを確認、入力します。

Installmac07red


⑧次の画面で、[Register]ボタンを押します。

Installmac08red


⑨設定を許可する為に、ログインアカウントのパスワードを入力し、「OK」ボタンを押します。

Installmac09red


⑩設定が進みます。

Installmac10


⑪以下の画面表示で完了となります。[Close]ボタンを押して終了です。

Installmac11red


⑫アプリケーションフォルダ内に、Process Manager.appとLaunchBackupMonitor.appが存在することを確認します。

Installmac12


以上で、アプリケーションのインストールとSimpanaへの登録が完了です。
後は、サーバ系のバックアップと同様に操作できます。

クライアントPCのバックアップの番外編はこれで終了です。

Edit by :バックアップ製品担当 松村・安田

CommVault Simpana:番外
クライアントPCのバックアップ バイナリ作成編
パッケージカスタマイズ(Mac OS)編
インストール(Mac OS)

【過去の記事】

メーカのサイト:
Simpana早わかり講座

導入編:
【連載】第1回 始めてみよう!CommVault Simpana インストール編
【連載】第2回 始めてみよう!CommVault Simpana インストール後の作業とバックアップ編
【連載】第3回 始めてみよう!CommVault Simpana VMwareバックアップ編
【連載】第4回 始めてみよう!CommVault Simpana VMwareバックアップ応用編(1)
【連載】第5回 始めてみよう!CommVault Simpana VMwareバックアップ応用編(2)とリストア
【連載】第6回 始めてみよう!CommVault Simpana データアーカイブ機能を活用してみませんか?

製品紹介編:
第一回、最新!データ統合管理ソリューション CommVault Simpana のご紹介!
第二回、データ統合管理ソリューションCommVault Simpana 基本構成
第三回、データ統合管理ソリューションCommVault Simpana Backup
第四回、データ統合管理ソリューションCommVault Simpana Deduplication
第五回、データ統合管理ソリューションCommVault Simpana SnapShot Management
第六回、データ統合管理ソリューションCommVault Simpana Virtualization

Tips編:
【CommVault】次期バージョン v11の国内提供が始まりました! 
【CommVault】管理コンソールの言語表示の切り替えってできるの?

PDキッド エピソード1 : PDキッドのSANtasticな冒険

さて、アメコミファンの皆様、そしてストレージのファンの皆様、長らくおまたせ致しました。いよいよPDキッドの本邦初公開(あたりまえ)です!

ネットワールドのPernixDataに関する情報はこちら。本ブログのPernixDataの記事のまとめはこちら

個性的な登場人物の詳しいプロフィールはこちら。みんな相当ヤバイ奴らです! PDキッドの行方は果たして!?

Fig411

続きを読むをクリックして進んでください!

続きを読む »