2018/09/19

Nutanixのスケーラビリティ – パート 3 – 一つの仮想マシンへのストレージパフォーマンス

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001、

そしてVMware Certified Design Expert (VCDX) #90として活動しているJosh Odger氏によるものです。

原文を参照したい方はNutanix Scalability – Part 3 – Storage Performance for a single Virtual Machineをご確認ください。

情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


 Part 1 からの継続となりますが、Part1では、どの様にストレージオンリーノードを利用してNutanixがストレージをコンピュートとは別に拡張する事ができるかをお話しました。今回はNutanixがどう仮想マシンのストレージのパフォーマンスをスケールアップ出来るのかをお話していきます。

これまでの物理サーバで構築している仮想マシンはストレージコントローラーや複数のドライブ(HDD/SSDなどに関わらず)からのメリットがあります。

Nutanix ADSFの仮想マシンにも同じ事が言えます。多くのストレージコントローラーと多くの仮想ディスクがストレージパフォーマンスを向上することになるのです。

これまでのESXiHyper-Vといったハイパーバイザーで最大限のパフォーマンスと低遅延の要求により最大となる4つのSCSIコントローラーをVMへ割り当てを行います。複数のコントローラーは仮想ディスクへの多くのキューの処理が出来ることを示しており、結果より少ないボトルネックの削減による低遅延を可能としているのです。

この複数の仮想SCSIコントローラーはとても素晴らしい事なのでNutanixはこの機能をデフォルトで次世代のハイパーバイザー AHVで利用する事にしました。これはTurbo Mode“.として良く知られている機能です。

これはAHV上の仮想マシンがストレージコントローラーのレイヤでお客様がすでに持っているストレージコントローラーの構成、複雑性を排除し初期状態で最適化されているのです。

仮想ディスクに関わらずお客様が最適なパフォーマンスを得るために必要な事は4つの準仮想化SCSIコントローラーを使う事です。いくつか例を見ていきましょう。

MS Exchange サーバで20のデータベースを持っており、各データベースのパフォーマンス要求は100IOPSの範囲とすると、一つの仮想ディスクと一つのデータベース、それとログ用に別の仮想ディスクの割り当てが良いでしょう。

LargeタイプのMS SQLサーバに関していえば、数万から数十万にもなるIOPSが一つのデータベースで求められます、このようなケースでは複数の仮想ディスクをこのデータベースに割り当てSplitting SQL datafiles across multiple VMDKsを利用する事がVMのパフォーマンスの最適化となるでしょう。

2つの例ともにいえる事ですが、ESXiHyper-Vをご利用の場合は、仮想ディスクは4つの準仮想化SCSIコントローラーを通してアクセスできるように構成するべきです。一方でAHVを利用いただいているお客様は単純に仮想ディスクの作成すると、それぞれの仮想ディスクはStargateと呼ばれるNutanixADSFI/Oに占有のパスで直接接続できます。

詳細な情報はSQL & Exchange performance in a Virtual Machine も合わせてご覧ください。

ここではハイパーバイザーの仮想ディスクの数、ESXiHyper-vといったハイパーバイザーに関わらず、複数の準仮想化SCSIアダプターを設定する事が最適なパフォーマンスを得る方法であると学びました。

ではモンスター級のSQLワークロードがあり、ノードとクラスタが正しく構成されており、アクティブなワークロードが100% SSD層にあるかオールフラッシュクラスタについてお話ししましょう。

AHVで稼働している仮想マシンはターボモード(ESXi/Hyper-Vの準仮想化SCSIコントローラー)を利用するし、16の仮想ディスクを追加して、お客様のデータベースはvDiskを越えて追加していくことが出来ますが、もっとパフォーマンスが必要になったら???

良いニュースとしては、Nutanixはパフォーマンスを向上する多くの方法があるので、いくつか見てみましょう。

  • CVMのvCPUを向上する

これは稀な場合ですが、NutanixVMで稼働しているソフトウェアという事を理解する事は大事です。単純にvCPUを増やしCVMへアサインする事がより多くのI/Oパフォーマンスとクラスタ機能のバックグラウンド処理を向上します。

CVMは自動的にCVMN-2vCPUStargateI/O)に割り当てられます。つまり、多くのvCPUCVMへ追加する事がI/Oパフォーマの向上につながるのです

アプリケーションのパフォーマンスがローカルCVMにより影響を受けた場合(このケースはかなり稀なケースですが)2つ以上のvCPUCVMへアサインする事でCVMにはボトルネックを軽減しアフォーマンスを向上する事になります。

実際、私は以前このような状況を見たことがあります。

一つのCVM,複数のCVM,また、クラスタの構成やお客様のクラスタの要求事項の範囲で全てのCVMvCPUを増やせるのを知ることは大事です。

22コアプロセッサーと10コアプロセッサーの混在環境のクラスタだとするとクリティカルなVM22コアプロセッサーのノードへ移動しCVM のvCPU2つ追加し、10コアのvCPUはそのままにして置いてください。

これでパフォーマンスを向上させることが出来ますし、22コアノードの利益を最大限に利用できるのです。

この記事に関してはさらにCost vs Reward for the Nutanix Controller VM (CVM)にも詳細があるのでご参照ください。

  • Nutanix CVMのメモリーを増やす

メモリーを増やすのはもう一つの簡単にパフォーマンスを向上する方法です。

メモリーの追加でパフォーマンスを向上する主な2つの利用としてはCVMのメモリーはリードキャッシュを行いますので、アプリケーション、データセットのサイズには依存します。従来のリードキャッシュと全く違うのです。

次の理由としてはCVMRAMMedusa(metadata)のキャッシュとして利用されるようになるので、読み込み遅延がすくなくなるのです。

もしhttp://cvm-ip:2009/cache_stats(下にサンプルがあります)を見てキャッシュヒット幅が50%であれば、良いキャッシュヒットと言えます。一方5%程度ならワークサイズによりますが、大幅にリードパフォーマンスを向上するかもしれません。

他のパフォーマンスで大事な要素はMedusaのキャッシュです。

vDisk block map CacheExtent group id map Cacheを出来るだけ100%に近づけたいと考えています。

Stargatecachestats

上記はワーキングセットのRange Cache 50% , vDisk block map Cache , Extent group id map Cache 100%CVMメモリーが最適なシステムの例です。

The above cache and medusa hit rates are from a test cluster and it was achieving the following performance for a database checksum task (100% read).

上記のキャッシュとMedusaのヒットはテストクラスタからのもので、データベースのチェックサムタスク(100%Read)の際は次の値を達成しました。

Exampleperformancewith100medusahitr

ポイントはとても低いリードのレイテンシであるという事です。

最大でも0.35ms 0.18ms近辺の値が数時間にわたって継続されています。

CVMのメモリーが不十分だと一貫した読み込み遅延とはならないので、この問題に直面したらhttp://cvm-ip:2009/cache_status を確認してサポートにCVM RAMのサイジングについて相談してください。

ノート:CVMメモリーがNUMAノード内で最適な状態で構成されている環境でCVMへメモリーを追加する事は「害」ではありません。唯一のインパクトは仮想マシンに割り当てるメモリーが減る事です。

おさらいしましょう

AHVの仮想マシンはターボモードを利用し16の仮想ディスクでデータベースを仮想ディスクのスパンかして全体でアクセスさせ、CVMvCPUを追加します。

そして、Readキャッシュが正しくヒットしているかを確認しましょう。しかし、さらに多くのパフォーマンスが必要な場合は何を確認したらいいでしょうか?

  • ストレージオンリーノードの追加

もしまだ私投稿したScale out performance testing with Nutanix Storage Only Nodesを読んでいない場合に向けて簡単におさらいしますが、是非こちらのドキュメントも読んでください。

簡単に言うと、MS Exchange jetstress ワークロードを4VMで最適化されている4ノード構成のHybridクラスタで稼働させて達成した値が次の通りです。

Jetstress4nodessummary

  • ベースラインテストからの観測
  1. VM辺り1000IOPSの達成
  2. パフォーマンスは全てのJetstress インスタンスを通して安定
  3. ログ書き込みは1ms の範囲
  4. データベースの読み込みは平均で10ms以下 (Microsoftが推奨している20msよりもよい結果)
  5. データベース作成時間の平均は2時間24分
  6. 3つのデータベースの複製は平均で4時間17分
  7. データベースのチェックサムの取得の平均は38分

その後、4ノードをクラスタへ追加したのですが、Jetstress仮想マシン、クラスタのコンフィグは何もしていませんがIOPS2倍になったのです!

4つのJetstressの各結果は次の通りです。

Jetstress8nodessummary

ストレージオンリーノードを4ノード追加した概要は次の通りです

  1. IOPSはおおよそ2倍となる
  2. ログ書き込みの平均遅延は13%程度低くなる
  3. データベースの書き込み遅延は20%改善
  4. データベースの読み込み遅延はおおよそ2倍低くなる
  5. データベースの作成時間は15分ほど早くなる
  6. 3つのデータベースの複製は約35分改善
  7. データベースのチェックサムは40秒ほど早くなる

結果から分かる通り、ストレージオンリーノードの追加で変更を行わないでパフォーマンスが向上する事が解りました。Jetstressの構成を変更していたならば、より高いパフォーマンスとより低い読み込み、書込み遅延が達成できたことでしょう。

言い換えると、ストレージオンリーノードの追加は簡単にパフォーマンスと共にクラスタのresiliency and capacityも向上するのです。

これで、ワークロードに対して高いパフォーマンスを得るためのコンビネーションとしてCVMの最適化とストレージオンリーノードの話しをしました。

もし未だ求められているパフォーマンスを達成できていなきのであれば、Acropolis Volumesでパフォーマンスを向上させられるかもしれません

  • Acropolis Volumes

Acropolis Volumes は 2016にアナウンスし、お客様がNutanixがデータセンターの標準化のためのエッジの使用例として発表しましたが、多くの理由からこのビジョンを達成できませんでした。

  • 既存のサーバの再利用の要望、要求
  • 仮想化でないアプリケーション
  • パフォーマンス/外部接続しているサーバの拡張性
  • 外部iSCSIを含めたオペレーションへの複雑性

さらに多くの詳細はこちらをご参照ください。

In-guest ISCSI を利用しているNutanix VolumesはゲストOSの仮想ディスクを直接提供します。この仮想ディスクは自動的にNutanixクラスタ内で最適なパフォーマンスが提供できるようにロードバランスされるのです。

次のツイートにはNutanix Volumesを利用した際にどの様に分散されるかのFAQがあります。下のが示す通り、4ノードクラスタでは4つのiSCSIのパスとなりますが、クラスタを8ノードへ拡張するとNutanix Volumesは自動的に8パスに拡張しているのが解ります。

ABSの欠点といえばデータローカリティがなくなる事ですが、もしデータのローカリティを持てなかったとしても、その次に素晴らしいのは高い拡張、レジリエンシー、動的な分散ストレージファブリックを利用できる事です。

Nutanix Volumesは即時パフォーマンスのスケールが出来ますが、制限はネットワークのバンド幅、ノード数になってくるので、100GBNIC32ノードの物理クラスタでは数百万レベルのIOPSというとんでもないパフォーマンスを提供する事になるでしょう。

このIn-guest iSCSI の設定はとてもシンプルで、単にiSCSIターゲットをNutanixのクラスタIPとして設定するとクラスターサイズが増えた際に自動で計算しロードバランスをすることになります。仮想ディスクは自動的に新しいノード間でお客様の介入なしにバランシングが行われます。

これと同じことがノードの削除、メンテナンス、アップグレード、障害などに関しても言えます。

全て自動的に管理される為、Nutanix Volumesは管理者にとって非常にシンプルな実装といえます。

要約

Nutanixは仮想マシンに素晴らしい拡張性を提供し、より多くのパフォーマンスが求められるニッチなワークロードの為のNutanix Volumesはシングルノードが提供するものよりも多くのパフォーマンスを提供できるのです。

パフォーマンスを向上させる方法として簡単にできるのは次の2つですので是非覚えておきましょう

Writeパフォーマンスを向上させる方法はCVMへvCPUの追加

Readパフォーマンスを向上させる方法はCVMへメモリーの追加

記事担当者 : SI技術本部 カッシー @Nutanix_NTNX

2018/09/12

Nutanixのスケーラビリティ– パート 2 – コンピュート(CPU/メモリ-)

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001、

そしてVMware Certified Design Expert (VCDX) #90として活動しているJosh Odger氏によるものです。

原文を参照したい方はNutanix Scalability – Part 2 – Compute (CPU/RAM)をご確認ください。

情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


パート1のシリーズではNutanixがどのようにコンピュートノードとは別にストレージを拡張できるかという話をしました。次はCPUmemoryリソースをワークロード、クラスタレベルで拡張するという話題にしましょう

まずはこれまでの共有ストレージのスケールアウトに関するおさらいです。

Hcinothci

時代遅れの3 Tier層にも見えますね

HCIでないワークロードがコンピュート専用のノードで稼働する結果では

  • 従来の3-Tierのインフラ基盤と同じようにセットアップを実施し稼働させる

  • HCIベースのワークロードとは異なるパフォーマンスとなる

  • Compute+StorageというHCIのアドバンテージをなくすことになる

  • ネットワークへの依存が高まる

  • HCIノード毎のネットワーク利用率への影響

  • ネイティブHCIワークロードなどに対するHCIの利点への影響など

業界はHCIを将来の方法として受け入れている一方で、コンピュートだけど追加するのはとても良いことに聞こえるかもしれませんが、それは従来の3-Tierの複雑性と過去に起こった問題を再導入するになります。実際の要求事項を見直してみるとNutanixのノードがサイジングとコンフィグが正しく行われている時に不足になるという事はとてもまれな事なのです。

お客様は私にワークロードを見せ驚くことが良くありますが、私はCPU/RAMまたはストレージIO、容量の要求事項には驚かされることはないのです。客様のアプリケーションは実際、高くなく、もっと低いという話を何度繰り返してきたのか覚えていません。


例1:Nutanixのコンピュートを拡張する例


SQL/Oracle DB管理者:今のアプリケーションがだんだんと遅くなっているので、もっとたくさんのCPU/RAMが必要です。

Nutanixいくつか選択肢はありますよ

  1. 仮想マシンのvCPUとvRAMをNUMAノードのサイズに合わせてスケールアップします
  2. 仮想マシンのvCPUとvRAMをホストからCVMに割り当てているvCPUを差し引いた物理コアと同じになるようにスケールアップし、RAMにも同じ作業をします。

一つ目のオプションはCPUNUMAの境界のメモリーを最大限に活用する最適な方法ですが、2つめのオプションはSQLなどのアプリケーションなどに未だ実行可能ではありますが、メモリー不足になる影響の方がNUMAの境界を越えてアクセスするペナルティよりも高くなります。

ワークロードはユニークなので物理サーバが必要です!!

購入を検討、または既にNutanixをご利用のお客様にこれらの状況を聞いたにも関わらず、数少ない実際のワークロードは、たとえ、CVMの為にリソースを削除し、近代的なNutanix(OEM/ソフトウェアオンリー)のノードが提供するCPU/RAMよりも必要としてしまうのです。

私はそれが、まさに実際に物理サーバが必要とされる要件であるとわかります。標準のサーバ上で稼働している最適なサイズの仮想マシンは望ましいビジネスの結果を提供します

現在 Nutanix NXノード1ソケットあたり、28Core 2.5GHzを持っているInterl 8180プロセッサーをサポートしているので、合計56物理コア(112スレッド)になります。

Intel8180プロセッサーSPECint rate2720 or 48.5/Coreという値を利用する事ができるわけで、これはコアのパフォーマンスを21.25%向上させることになります。

お客様がInterl Broadwell  E5-2699 v4 CPUs (44 cores)を搭載している物理サーバから移行をし、ワークロードをNutanixCPUのオーバーコミットメントをvCPU:pCore1:1 とし Intel Platinum 8180 processor CPUを搭載した場合では8 pCoreCVMに割りあってたとしてもまだ48pCoreSQLの為に利用できます。

2328SpecIntRateでは全てのコアを利用している物理サーバよりも良い結果を出しています。

つまり 仮想マシンのCPUパフォーマンスが32%ほど、物理構成のサーバと比較して向上していることになるのです。

NutanixCVMとAcropolis 分散ストレージファブリック(ADSF)は高いパフォーマンスと低遅延ストレージ、CPUの効率化を実際に提供します。

この簡単な例からしても、お客様はNutanixの仮想マシンは新しい物理サーバであっても簡単に入れ替えることができ、一つの新しいCPUでより良いパフォーマンスを提供できるという事を理解頂けたことでしょう。

3-5年前の物理サーバがいくつものCPUの世代を越えてフラッシュベースのストレージへスケールアウトする事を想像してみましょう


例2:仮想マシンがNutanixノードのCPU/RAMより多くを必要とした場合


SQL/Oracle DB管理者: 今のアプリケーションは既存のノードが提供しているCPU/RAMより多くCPU/RAMが必要となります。

Nutanix:解決にはいくつかの選択肢があります

a):一つまたは、スペックの高いノードを購入しましょう(例 : Intel Platinum , Gold のCPUを搭載したNX-8035-G6を既存のクラスタに追加し仮想マシンをこれらのノードへ移動します。そして、アフィニティルールを設定し仮想マシンをパフォーマンスの高いノードへ固定しましょう

Nutanixは同じクラスタ内に世代、ハードウェアの異なるモデルの混在をサポートしており、これはいくつかの利用により専用のクラスタを作成するよりも良いオプションとなります。

  • 大きいクラスタはレプリケーショントラフィックの為の多くのデータの複製先にとなるので、平均書込み遅延が低くなります。
  • 大きいクラスタでは多くの障害に潜在的に耐えることが出来きますし、ドライブ、ノードの障害の復旧時間を向上する事がきる事から高いレジリエンシーを提供できるのです。
  • 大きいクラスタではノード障害時のインパクトが少なくて済みます

b):一つまたは、スペックの高いノードを購入しましょう(例 : Intel Platinum , Gold のCPUを搭載した新しいクラスタを作成して仮想マシンを移行しましょう。

専用クラスタは魅力的に感じるかもしれませんが、ほとんどのケースでは、最終的により高いパフォーマンス、レジリエンシーと拡張性を提供できる混在のワークロードクラスタを推奨します

C):MSMS SQL , Oracleはスケールアップよりもスケールあるとする事で、パフォーマンス、レジリエンシーの向上とインフラコストの削減が行えます。

MSMS SQL , Oracleはスケールアップよりもスケールあるとする事で、パフォーマンス、レジリエンシーの向上とインフラコストの削減が行えます。

一つの大きな仮想マシンが多くのデータベースを提供するのはあまり良い事ではありませんので、スケールアウトし多くの仮想マシンを稼働させることで、Nutanixクラスタ内で分散され全てのVMを通してワークロードが行われるのです。

99%のワークロードでは、コンピュート専用ノードの価値は見出せませんが、常に例外はあります。


3: 既存のハードウェアを再利用する


SQL DB管理者:Nutanixは最高なんだ、何台かのEOL1年以上ある物理サーバがあるんですが、Nutanixを入れて使い続けられるのだろうか?

Nutanix:いくつか選択肢があります。

a):ご利用いただいているハードウェアがHCLに掲載があるものでしたら、ソフトウェアのライセンスを購入し既存のハードウェアに展開してご利用いただけます。

b):Nutanix Volumesを利用しiSCSIを経由してスケールアウト側の高い冗長性を持ったストレージを利用する

Nutanix volumes2015年に発表されWindows ClusterMSSQL,クラスターファイルサーバで一般的に利用されるSCSI-3 Persistent Reservationsのストレージ利用としてサポートされます。

Nutanix Volumesはいくつかの次の例を含むユースケースをサポートしています

  • MS Exchange ServerのためのiSCSI接続
  • Linuxベースのクラスタの為の共有ストレージ
  • Windowsのフェイオーバークラスタ
  • Windowsクラスタの為のSCSI-3Persistent Reservation
  • OracleRAC環境の共有ストレージ
  • 物理環境でのiSCSI利用

結果Nutanix volumesは既存のハードウェアの再利用を可能としてROIを高める一方で、ADSFのメリットを得ることが出来るのです。

一度ハードウェアがEOLになると、すでにNutanixの上に置かれたストレージはすぐに仮想マシンへ提供する事が出来ます。ワークロードはNutanixHCIのメリットを受けれることになります。


今後の機能


2017年の終わりに NutanixNutanix Acropolis Compute Cloud (AC2)を発表しました。これは次に示すコンピュート専用ノードを提供する事を示しています。

Blog_ac202

お客様に3-Tierモデルや、HCIがそのままでは進化してないで無いかと理解してほしくないので、この機能については述べますと、それはコンピュート専用のノードでは無いのです。

この機能はソフトウエアベンダー (Oracleなど)のライセンスの観点からお客様がCPUCoreを最大限にアプリケーションが利用できるようにするためにりニッチな環境化向けにデザインされています。

ちょっとだけ言わせてください。

  • この機能は一般的な仮想マシン向けではありません.
  • パフォーマンスの為の機能ではありません
  • Nutanixは3-Tier コンピュートとストレージモデルへ戻っているわけではありません
  • Nutanixは未だ進化しています

Nutanixは素晴らしい拡張性をCPURAMレベルで仮想マシン、実際のワークロードへ提供します。

物理サーバが実際に要求されるまれなケースではABSが利用できますし、まもなくAHVに向けてこれらのまれなケースにライセンス価値を最大限に利用するためにもコンピュート専用ノードを提供します。

今年リリース予定のNutanix Acropolis Compute Cloud (AC2)ですが用途やライセンスなどに

合わせて最適なワークロードへ最適なモデルを選択できるものNutanixの強味ではないでしょうか

記事担当者 : SI技術本部 カッシー @Nutanix_NTNX

2018/09/10

Lenovo ThinkAgile HXのラインナップおよび 各種サービスも含めて覚えてみよう!

この記事はレノボ・エンタープライズ・ソリューションズの小宮様に寄稿いただきました。
当社ではNutanix製品を取り扱っておりますが、Nutanix社によるNXシリーズ以外の選択肢として、
Lenovo社によるThnkAgile HXシリーズについてご紹介致します。


レノボ・エンタープライズ・ソリューションズ小宮です。


本日はLenovoのNutanix製品であるThinkAgile HXシリーズの
ラインナップおよび各種サービスについてお話したいと思います。
最初にLenovoのNutanix製品について、ラインナップをご紹介したいと思います。

Lenovo11

Lenovo12

Lenovo13

アプライアンスモデルと認定ノードの違いについてもう少しお話したいと思います。

  • ハードウェア・ソフトウェアの関係について
    アプライアンスモデルも認定ノードも基本同じものを利用しています。
    認定ノードアプライアンスモデルについてはアプライアンスの構成で(ファームウェアも含めて)検証済みの構成で出荷されます。
    もちろん、認定ノードでもメモリの追加やNICの追加も対応可能ですが、
    あくまでアプライアンスのハードウェア構成として認定されているものをサポートするため、
    お客様側で非サポートの構成にしていれば、Lenovoのサポートを受けることはできません。
    認定ノードの場合にも、アプライアンスと同様の構成であることを確認してご提案することをおススメ致します。
    また、アプライアンスモデルと認定ノードの混在構成はサポートしておりません。
    アプライアンスモデル・認定ノードの提案は一番初めの段階で見極めるようにしましょう! 
  • Nutanixのソフトウェアライセンスについて
    さらに異なる点として挙げられるのはライセンスです。
    ライセンスについて、アプライアンスは購入型になっており、CPU・メモリ・SSD・HDD・NICの各種パーツにライセンスの金額が設定されています。
    認定ノードについては期間ベースのライセンスになっています。
    つまり、構成に関係なくノード数に比例してライセンスが課金されます。
    ここで気づくかと思いますが、構成に関係ないということは、1台のサーバの高スペックにしてもライセンスが変動しないため、認定ノードに関しては高スペックにしたほうがお得になりますが、実はライセンス金額によっては低スペックのサーバで構成した場合はアプライアンスの構成が安価になることがあります。
    また、小規模の場合は認定ノードで構成すると逆に高価になることもあり、構成のバランスを考えて提案する必要があります。
    エディションについても、アプライアンスモデルはStarterからUltimateまで低スペックから高スペックから選択可能なものに対して、認定モデルはPro以降のライセンスの選択が必須になります。そのため、以下のようなケースが一つの指標だと考えます。

アプライアンスモデル:小規模構成、1台のサーバが低スペック
認定モデル:大規模構成、1台のサーバが高スペック

  • 導入作業について
    アプライアンスモデルについては、Lenovoのプロフェッショナルサービスでの導入作業(Base作業)を必須とします。
    理由としてはLenovoが責任もってお客様のシステムをするためです。
    導入の際にお客様がNutanixを利用する際に必要なパラメータを設定するだけでなく、Lenovoの工場(国内)でNutanixのソフトウェア設定のチェック、テストを行っているたけでなく、ハードウェアの初期不良チェックも行っております
    そのため、国内での導入作業後、お客様サイトでの初期不良は現在のところ(2018年8月末現在)報告されておりません
    外資系メーカーだと国外生産で品質面を問われることがよくありますが、LenovoのNutanix製品は国内での検査で品質を上げておりますので、他社に比べて差別化になる要素の一つになります。

Lenovo14

認定ノードについては、Lenovoのプロフェッショナルサービスを必須としておりません
先ほども述べたように認定ノードはお客様にて導入可能な場合にその自由度を上げるために、Lenovoでの導入作業をオプションとしております。(もちろん導入作業を含めることは可能です)
BP様において、工場出荷後のハードウェアに自社で導入したパラメータを元にお客様のサポートを行うケースにおいては、認定ノードを選択するケースもあります。
詳細は以下のイメージをご参照ください。

Lenovo15

  • 保守サポートについて
    アプライアンスモデルと認定ノードの保守について、アプライアンスモデルの場合、保守をすべてLenovoで行うということは皆さん認識できると思いますが、ソフトウェア別売の認定ノードはソフトウェアのみのため、サポートが別という考えになると思われます。
    もちろん、お客様にて障害時にハードウェア・ソフトウェアの障害を切り分けて障害対応することも可能ですが、アプライアンスで培った知識もありますので、認定ノードだからと言ってソフトウェアの部分だけサポートできないことはありません。
    今回LenovoはThinkAgile HX認定ノードとして購入したNutanix製品については、通常のアプライアンス同様の保守サポートを提供いたします
    そのため、認定ノードの保守サポートは他社に比べて差別化になる要素の一つになります。

Lenovo16

また、VMware導入される場合で一括サポートを希望される場合は、OEMのライセンスを含めることで、一括窓口の保守が提供可能になります。
導入するハイパーバイザーや一括保守を求めるレベルによる、選択するThinkAgile HXのラインナップの選択およびハイパーバイザーのライセンスの選択をご検討ください。

Lenovo17

お役に立てたら幸いです。よろしくお願い致します。


今回は小宮様に Lenovo ThinkAgile HX シリーズのラインナップおよび各種サービスについてご紹介いただきました。
ネットワールドが提供する Lenovo ThinkAgile HX を強力な選択肢のひとつとしてご検討いただければ幸いです。
小宮様には定期的に寄稿いただきますので、みなさまどうぞご期待ください!

2018/09/07

Azure Marketplace Test Drive のご紹介

皆さん、こんにちわ。Microsoft 担当の津久井です。

冒頭からすみません、本題に入る前に弊社から1つ案内をさせて下さい!

弊社主催のパートナー様、エンドユーザー様向け年次イベントとなります

Networld .next 2018 DX(Deluxe)(東京会場)」が来週9/11(火)に開催されます!

特別講演やセッションプログラムを数多くご用意しておりますので是非ご参加頂ければと思います!

さて、本題に戻りたいと思いますが、今回は「Azure Marketplace Test Drive」についてご紹介したいと思います。

  • Azure Marketplace Test Drive とは

まず、Azure Marketplaceですが、その名の通り Azure 向けに提供される様々なソリューション市場のことです。

市場で見つけたソリューションはその場で購入してすばやく展開する事も出来るようになっています。

「市場」と聞くとつい私は試食を連想してしまうのですが、そんな願望を見越してか、Azure Marketplaceでも一部のソリューションを試食感覚で試せる体験版が用意されています。

この体験版がTest Driveと呼ばれるものです。

Test Drive以外にも30日限定といった「無料評価版」も提供されているのですが、このTest Driveは1時間~数時間といったごく短時間での利用となっています。

既にAzure サブスクリプションをお持ちの方であれば簡単なステップで利用可能ですし、評価に必要なテストシナリオも提供されています。

Test Driveを利用するメリットは限られた時間で集中して評価が出来る」事だと思います。

Test Driveの利用シナリオとして特におすすめしたいのはハンズオントレーニングでの活用です。

通常だとハンズオンというと受講者にそれぞれ個別の検証環境を用意する必要が出てきます。

弊社もパートナー様やEU様向けに各種製品トレーニングを頻繁に実施していますが

ハンズオン前日には講師を務めるメンバーが環境の準備に追われていたりします。

Test Driveであればこのような煩雑な手間をスキップして簡単に評価環境を用意出来ます。

・今回ご紹介するTest Drive

記事作成時点(2018年8月)で確認したところ、41個のソリューションでTest Driveが提供されています。

そうした体験版の中から今回は以下の2つのソリューションのご紹介と実際に試してみた感想をお伝えしたいと思います。

・Barracuda Web Application Firewall(WAF)
・RedHat Ansible Tower

上記ソリューションを選んだ理由ですが、今回取り上げるソリューションがいずれもMicrosoft Preferred Solution」という位置づけとなります。

Preferred Solutionは、Marketplaceで提供されるソリューションの中でもMicrosoftがおすすめソリューションとして太鼓判をもらってる、という感じでしょうか。

TestDriveの開始するのは至って簡単です。

まずはAzure Marketplaceのサイト(https://azuremarketplace.microsoft.com/ja-jp/)にアクセスします。

画面上部の「アプリ」をクリック後、試用版ドロップダウンから「体験版」で絞込みます。

Inkedimage1_li_2


体験版を提供する製品一覧が表示されますので試してみたい製品を選択し「体験版」をクリックします。

Inkedimage2_li_2

あとは、使用許諾に関する同意の確認や、Azure 管理者アカウントでのサインインなどを経て、しばらく待つとテスト環境が出来上がるといった流れになります。

Inkedimage3_li_2

処理が完了すると、下記のような環境への接続情報が表示されます。

同時に接続情報が記載されたメールも利用者に通知されます。

Inkedimage5_li_2

※今回試した製品は上記メッセージ通りに数分で利用可能となりましたが、製品によって時間を要するものもあるようですのでご注意下さい。

Test Driveの初め方を確認頂いたところで、今回取り上げるソリューションを簡単にご紹介したいと思います。

・Barracuda Web Application Firewall

Waf

バラクーダネットワークス社が提供しているWeb アプリケーションの脆弱性保護に特化したファイアーウォール製品となります。

SQLインジェクションやクロスサイトスクリプティング(XSS)など、Webアプリケーションの脆弱性を突いた攻撃に対して保護します。

・RedHat Ansible Tower

Ansibleレッドハット社がスポンサーとなっているオープンソースコミュニティの構成管理ツール「Ansible」に対して、チーム管理機能やWebブラウザベースでのGUI操作、RBACによる管理機能を提供する製品となります。

Ansible TowerはRedHat社から提供される有償の製品となります。

Ansible単体では実行対象のノードに直接接続してコマンドベースで実行する操作なりますがAnsible Tower経由とする事で操作ログの監査など集中管理が可能です。


・Test Driveで体験できた テストシナリオ

ここでは上記2つのTest Driveで体験できたシナリオ概要と簡単な所感をお伝えしたい思います。

各シナリオの手順詳細は、こちらのブログをご覧頂いている皆様に実際に試して頂ければと思いますので、細い説明は割愛させて頂きます事、ご了承下さい。

ちなみに両製品に対する私のスキルレベルをお伝えしておくと「製品概要は知っているが、実際の操作は初めて触る」といったレベル感です。

・Barracuda Web Application Firewall(WAF)

それではまずBarracuda WAFに関してご説明したいと思います。

こちらの制限時間は1時間。シナリオは3つ用意されていました。


1.SQLインジェクション攻撃に対応したFWログの確認。
2.クロスサイトスクリプティングに対するFWログの確認
3.DDoS(Distributed Denial Of Service)攻撃の防御策としてCAPTCHA認証ステップの追加

シナリオ2に関しては、上記をパッシブモード(検出のみ)と、
アクティブモード(検出&防御)の2パターンで動作の違いを確認出来ました。

手順では予め用意されたWebサイトの入力フォームにある特定の文字列を入力すると機密データが表示出来てしまうといった形で攻撃者とWAF管理者双方の視点で理解出来ました。

シナリオ3では、DDoS防御機能として、CAPTCHA認証ステップ(※)を追加するといった製品の持つユニークな機能を試す事が出来ました。

※CAPTCHA
 コンピューターには判別困難な歪んだ文字列などを表示してボット攻撃を回避する認証プロセスの仕組み


・Ansible Tower(RedHat)

こちらの制限時間は2時間。こちらもシナリオは3つ用意されていました。

1.Ansible Towerの基本的な操作手順の解説
2.Ansible Playbook を利用したLinux VMへのWebサーバー展開
3.Ansible Playbook を利用したWindows VM管理

シナリオ1は、資格情報の設定やホスト接続情報を定義するといった後続シナリオの事前準備をしていく内容です。

シナリオ2,3に関しては、Github(バージョン管理システム)上にあるサンプルのPlaybookを利用してLinux、Windowsの追加設定を行う内容です。

特にWindowsVMに対してアプリケーションのパッケージを展開する部分は、Windows管理における利用シーンも多いと思いますので参考になりました。

若干マニュアルが古いのか、画面の項目が追加されていたり、「値を入力」させる手順が実際には「一覧から選択させる」操作となっているなどの違いがありました。

また、シナリオ3の最後にIISを展開するステップがあるのですが、Playbookの実行でエラーとなってしまいました。

原因としては .NET Framework 3.5 機能のインストールが出来ずエラーとなってしまったようです。

気を取り直して手動でインストールした後に再実行する事で正常に動作出来ました。

・Test Drive を試した感想

全体を通しての感想となりますが、まず提供されるユーザーマニュアルは当然ながら英語となります。

操作する環境も基本的には英語表記のようですが、何度か試してみるとたまに日本語で展開されているという事もありました。

難易度としてはどちらの製品もそこまで込み入った内容ではなかったため、英語が苦手な方でもそこまで理解に苦しむ事は無いと思いました。

今回選択した2製品は制限時間が1~2時間程度でしたのでシナリオのボリュームとしてもちょうど良いかなと。

製品によっては制限時間が5時間といったものも存在しており、このレベルになるとシナリオのボリュームもだいぶ増えるものと思いますのでミッションコンプリートするにはちょっと気合が必要かもしれません。

 

・まとめ

今回は2つのソリューションを例にAzure Marketplace TestDriveをご紹介しましたが如何でしたでしょうか。

短時間で集中して学ぶ機会を持てるという事は仕事に追われなかなか新しい技術をキャッチアップする機会を逃してしまっているエンジニアの方に活用頂けますし、トレーニング目的だけでなく、お客様に見せる簡易デモなどにも活用頂けるものだと思います。

皆さんも是非 Azure Marketplace Test Drive をご活用頂けたらと思います。

尚、今回1つ目に取り上げたBarracuda WAF ですが、弊社でも取り扱っている製品となります。また、弊社エンジニアによるWAF導入設定サービスも提供しています。

今回ご紹介したような Azure への導入設定も対応しておりますので、ご興味のある方は是非弊社営業にご連絡下さい。

もちろん、今回ご紹介した Azure をはじめとするMicrosoft 製品の導入サービスも積極的に展開しております。

しくは以下の特設サイトをご覧ください!

 

今回も最後まで読んで頂き有難うございました!

記事担当者:津久井

2018/09/05

Nutanixのスケーラビリティ パート1 - ストレージキャパシティ

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001、

そしてVMware Certified Design Expert (VCDX) #90として活動しているJosh Odger氏によるものです。

原文を参照したい方はNutanix Scalability – Part 1 – Storage Capacityをご確認ください。

情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


アナリストだけでなく、購入を検討または、既存のお客様がしばしばNutanixのストレージの拡張機能について知られていないという事があり驚かされます。

2013年に遡ると、共通の不満事項は実際の要望に関わらず、NutanixNX-3050のノード単位で増設する必要がありましたが、まもなくしてNutanixは低いCPUと高いCPUモデル、ストレージ専用のオプションでより柔軟性を高めたNX-1000NX-6000シリーズを紹介しましたが依然としてNutanixには大きなギャップがあるユースケースが依然として存在していました。

2013年の10月に単にSSD/HDDの筐体をデュアルコントローラーのストレージアレイに追加する事は環境をリニアにスケールするのではなく、パフォーマンスと複雑性に非常に大きな影響を与えるというブログのタイトルを投稿しました。

2015年の.NEXではNutanixコンピュートとは別にストレージを拡張できる機能を発表しました。お客様は従来のSAN/NASにシェルフを追加するのと同じように容量を拡張する事が出来ますし、さらにストレージコントローラー(CVM)が追加されデータサービス、パフォーマンス、レジリエンシーを高めることが出来ることになりました。

ストレージ専用ノードは全てのハイパーバイザでサポートされ、良いことにNutanix AHVが動作しているので、VMware ESXiをご利用であっても追加のハイパーバイザ費用が掛からないのです。そして、ストレージ専用モデルは追加の管理工数がかからない為の1クリックローリングアップグレードをサポートしています。

ストレージ専用ノードのメリット

1

CPUとRAMとは別に従来のディスク筐体をストレージに追加するように容量の拡張が出来ます。

2

スモールスタートで要件が発生した際にストレージを拡張できる

3

ハイパーバイザの追加コスト、拡張容量の追加の管理が不要

4

NutanixCVMが増えることでデータサービス、レジリエンシー・パフォーマンスの向上

5

ホットとコールドデータの容量を拡張

6

ストレージノードとデータの分散方法はNutanix独自

ストレージ専用ノードの利用例

  1. 容量の追加要望 

    MSエクスチェンジ管理者:CEOにメールボックスの制限を1GB から2GBにするように言われたけど、そんなに余裕がないんです。

    Nutanix:スモールスタートから初めてNutanixのストレージプールの利用率が80%になるようにストレージノードを追加しましょう。


  2. :フラッシュの容量を増やす

    MS SQL DB管理者:ミッションクリティカルなDBを拡張する予定で、現在の日常業務でSATAを利用していて、もっとFlashが必要なんです!

    Nutanixそれではいくつかオールフラッシュのストレージ専用ノードを追加しましょう。


  3. レジリエンシーの確保

    CEO/CIO : 障害に耐えることが出来て自己診断が行えるインフラ基盤が必要ですが、私たちの安全な施設はアクセスが難しく時間がかかるところにあります。どうすべきだろうか??

    Nutanix : ストレージ専用ノードの追加でストレージ容量を確保しN台のクラスタ障害に対応できる十分な容量を確保し、リビルドによって環境は完全にレジリエンシーがありパフォーマンスの良い状態を確保します。


  4. バックアップと長期保管

    CEO/CIO : 私たちは7年間のデータ保管をする必要があり1時間以内にデータにアクセスできる必要があります。

    Nutanix : Nutanixではストレージ専用ノードを既存のクラスタに追加するか別にバックアップ用のクラスタを作ることが出来ます。1年間分の十分なストレージ容量から初めて容量の追加の要求に応じて、ストレージノードを追加しGBあたりのコストを削減できます。Nutanixは混在した世代での構成をサポートしているので、製品の世代などの観点から置き換えなければ行けない状況になるという事はありません。


  5. モンスターVMがいる場合

    サーバ管理者:現在何台かストレージの容量が100TB必要な仮想マシンがいるのですが、Nutanixの最大サイズでは20TBのサポートしかしていません。どうしたらよいでしょうか?

    Nutanix : Nutanixの分散ストレージファブリック(ADSF)は如何なるストレージの要求があっても仮想マシンのデータセットをNutanixクラスタ内で分散するのです。ストレージ専用ノードは容量を拡張する一方でレジリエンシー、パフォーマンスをクラスタ内の他の仮想マシンに提供します。コールドデータはクラスタ内のあらゆる所へ分散されますが、ホットデータは仮想マシンが稼働するノード上にデータ容量が共用出来る限り存在増します。


  6. あまりアクセスの少ない(コールドデータ)のパフォーマンス

    サーバ管理者:SANに接続されているSATAドライブにコールドデータを常に保管しています。データは非常に大きいのですが、Flashを利用するには高すぎます。このデータに関しては年に12度の監査、会計目的での読み込みが発生するのですが、これがとても遅いのです。どの様にしたらこれらを解決しパフォーマンスの向上する一方でコストを削減ができるのでしょうか?

    Nutanix : ハイブリッド専用ノードはコスト効率が良くADSFを組み合わせると費用効果が高い方法になります。Nutanixは最適なリードパフォーマンスを少ないレイテンシーで提供する事ができるのです。これが意味するのは、もしHDDまたはノードに大きな負荷があったとしても、ADSFはクラスタ全体で動的にリードI/Oをリダイレクトしリードパフォーマンスを向上します。この機能は2015年に発表され、ストレージ専用ノードに多くのスピンドルをクラスタに追加する非常によい機能です。


よくある質問:

  1. 一つのクラスタにどれくらいのストレージ専用ノードを構成できますか?

    ハード的な制限はありません。クラスタのサイズは64ノード以下に構成する事が単一障害を考慮する上では重要な事になります。

  2. ストレージ専用ノードを使うためにはどの程度のコンピュート、ストレージノードが求められますか?

    2つです。これでVMが稼働しているノードのN+1のファイルオーバーを可能とし、コンピュート&ストレージノードの障害が発生しても仮想マシンが再起動できるようになります。技術的にストレージ専用ノードでクラスタを作成する事が出来ます。

  3. モンスター仮想マシンの為にどのようにストレージ専用ノードを追加して容量を増せるのでしょうか?

    クラスタ全体で行われる分散レプリカにより、仮想マシンの稼働しているノード上のローカル容量の空きを増やします。

    仮想マシンの容量がノードのキャパシティを超えた場合、ストレージ専用ノードの追加でストレージプールに対して容量とパフォーマンスの向上を実現します。

    Note:一台の大きなvDiskを持った仮想マシンでさえもNutanixの設定を何一つ変更することなく十分な容量を利用する事が出来るのです。

記事担当者 : SI技術本部 カッシー @Nutanix_NTNX

2018/08/29

なぜなに Data Domain - 第十七回 - ”DD3300初期設定の流れ"

こんにちは。

Data Domainも今回で十七回目となりました。
第十六回ではDDOS6.X系のライセンスのダウンロードについて見てきました。
今回は "DD3300初期設定の流れ" について紹介します。

弊社購入モデル:Data Domain3300(16TB)

【1】事前準備 shine

・EMCオンラインサポートのアカウント登録

ライセンスファイル(.lic)

flair 構築作業前に上記が準備されていることを確認します!

flair ライセンスファイルの入手は第十六回のブログに記載しています!

    https://blogs.networld.co.jp/main/2018/08/data-domain-----ae63.html

   

【2】Data Domain 初回起動 shine

STEP1
 筐体シリアル番号の確認
17

flair シリアル番号は筐体背面のPSNTタグに記載されています。

STEP2
 DD3300と作業端末をシリアルケーブルで接続します。
38

39flair ボーレート9600の場合、正しく動作しません。
flair システム起動まで最大5分かかる場合があります

STEP3
 DD3300初回起動(電源ボタンを押下)

40

STEP4
 Data Domain初回ログイン
41

flair Data Domain起動後、sysadminでログインします。

flair 工場出荷時のパスワードは筐体シリアル番号になります。

 

STEP5
 使用許諾契約(EULA)

42

flair 使用許諾契約に対して【Y】で応答します。

shine 以上で初回起動は完了です。次はsysadminのパスワードを変更します。

【3】sysadminパスワード変更 shine

STEP6
 sysadminパスワード変更

43

flair ログイン後、パスワードを変更します。

shine 以上でパスワード変更は完了です。次はネットワーク設定をします。

【4】ネットワーク設定 shine

STEP7
   ライセンスファイル(.lic)を適用するため、ネットワーク設定をします。

44

STEP8
   ネットワーク設計に基づいて
【Use DHCP】を設定します。

45

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP9
   ネットワーク設計に基づいて【Hostname】を設定します。

46

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP10
   設計内容に基づいて【Domainname】を設定します。

47

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP11
   ネットワーク設計に基づいて1Gbe【ethMa】を設定します。

50_3

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP12
   ネットワーク設計に基づいて1Gbe【ethMb】を設定します。

51

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP13
   ネットワーク設計に基づいて1Gbe【ethMc】を設定します。

52

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP14
   ネットワーク設計に基づいて1Gbe【ethMd】を設定します。

53

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP15
   ネットワーク拡張(10Gbe)をしている場合、

 ネットワーク設計に基づいて【eth1a】を設定します。

54_2

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP16
   ネットワーク拡張(10Gbe)をしている場合、

 ネットワーク設計に基づいて【eth1b】を設定します。

55

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP17
   ネットワーク設計に基づいて【Default Gateway】を設定します。

56

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP18
   ネットワーク設計に基づいて【IP V6 Default Gateway】を設定します。

57

flair 設定が不要な場合、"Enter" を実行して次に進みます。

STEP19
   ネットワーク設計に基づいて【DNS servers】を設定します。

58_2

flair 設定が不要な場合、"Enter" を実行して次に進みます。

 

STEP20
   設定したネットワーク情報を確認し、設定内容を【Save】します。

59_2

shine 以上でネットワーク設定は完了です。次はGUI管理コンソールに接続します。

【5】GUI管理コンソール接続 shine

STEP21
   ネットワーク(IPアドレス)設定後、System Managerに接続します。

60

flair 接続URL: http://ホスト名またはIPアドレス/ddem

flair 接続アカウント: sysadmin

shine 以上でGUI管理コンソール接続は完了です。

shine 次はライセンスファイル(.lic)をアップロードします。

   

【6】ライセンスファイル(.lic)のアップロード shine

STEP22
   事前に準備したライセンスファイル(.lic)をアップロードします。

61

①【Administration】-【License】を選択。

②【Add License】をクリック。

62

③【参照】をクリックし、ライセンスファイル(.lic)を選択。

④【Apply】をクリック。

63

⑤【ライセンスファイル(.lic)】がアップロードされていることを確認。

shine 以上でライセンスファイル(.lic)のアップロードは完了です。

shine 次はバックアップ領域ディスク(4TB)を追加します。

【7】バックアップ領域ディスク(4TB)追加 shine

STEP23
   System Managerからバックアップ領域ディスク(4TB)を追加します。

64

①【Hardware】-【Storage】を選択。

②【Active Tier】- 【Configure】をクリック。

Configure Active Tier(1)

65

③【バックアップ領域用ディスク(4TB)】を選択。

④【Add to Tier】をクリック。

flair バックアップ領域ディスクはモデルごとに異なります。

66_4

 

Configure Active Tier(2)

67

⑤【Active Tier】バックアップ用ディスクが登録されていることを確認。

⑥【Save】をクリック。

Configure Active Tier(3)

68_2

⑦【file system to use the added storage】メッセージが表示。

⑧【OK】をクリック。

69

⑨ 追加ディスク処理が完了後、【Task complete】が表示。

⑩【Close】をクリック。

70

⑪【Disk】バックアップ領域用ディスクが追加されます。

⑫【State】が “Available” と表示され、ディスクが利用可能な状態であることを確認。

shine 以上でバックアップ領域用ディスク(4TB)の追加は完了です。

shine 次はファイルシステムを作成します。

【8】File Sytem Create / File System Enable shine

STEP24
   バックアップ領域ディスク追加後、ファイルシステムを作成します。

File System Create

71

①【Data Management】-【File System】を選択。

②【Create】をクリック。

Create File System(1)72

①【File System】を作成するバックアップ領域ディスクを選択。

②【Next】をクリック。

Create File System(2)73

③【Cloud Tier】を可能にするための必要ディスク容量が表示。

④【Next】をクリック。

Create File System(3)74

⑤【Active Tier】に作成される Filesystem Size が表示されます。

⑥【Enable file system after creation】を選択。

⑦【Finish】をクリック。

Create File System(4)75

⑧【File System】が作成されます。

⑨【File System Enable】になります。

⑩【Close】をクリック。

shine 以上でファイルシステムの作成は完了です。

shine 次は作成したファイルシステムの稼働状態を確認します。

STEP24
   ファイルシステムが正しく作成されていることを確認。

76

①【Data Management】- 【File System】を選択。

②【Active Tier Space Usage Tier】に作成されたファイルシステムが表示されます。

shine 以上でファイルシステムが正しく作成されていることの確認は完了です。

shine 次はファイルシステムの稼働状態を確認します。

STEP25
   作成されたファイルシステムの稼働状態を確認します。

77

①【Home】- 【Dashboard】

②【File System】内の【Status】が “Running” と表示されていることを確認。

shine 以上でファイルシステムの稼働状態の確認および初期設定は完了です。

flair DD3300は初期構築時には以下の3点を行う必要がありますのでご注意下さい。

  ・ライセンスファイル(.lic)のアップロード

  ・バックアップ領域用ディスクの追加

  ・ファイルシステムの作成と有効

 

【Dell EMC DD3300新規発売キャンペーン】
https://www.networld.co.jp/campaign/dellemc_dd3300/


[キャンペーン期間]2018/7/9~2018/10/31
※DD2200は8月11日で終息となります。

担当:Data Domain製品担当

  

Nutanix 回復性能 – パート 9 – 自己修復機能

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001、

そしてVMware Certified Design Expert (VCDX) #90として活動しているJosh Odger氏によるものです。

原文を参照したい方はNutanix Resiliency – Part 9 – Self healingをご確認ください。

情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


Nutanixには他の従来のSAN/NASアレイだけでなく他のHCI製品とは異なる極めて重要で独自性のある自己回復機能があります.

Nutanixは完全自動でSSDs/HDDs/NVMeやノード障害時だけでなくユーザ処理を介さないで管理スタック(Prism)を完全に復旧させます。まず、デバイス,ノード障害からの自己修復を行いましょう。

簡単に平均の8ノード※Nutanixクラスタと従来のデュアルコントローラSANを比較してみましょう

※ここでいう平均とはグローバルに販売されているノードの平均を計算しています。

一つのコントローラー障害が発生するとSAN/NASは復旧機能が無い状態となり、復旧能力が回復する前にベンダーがコンポーネントを交換するSLAを受けることになります。

それと比べてNutanix8つのコントローラーの内の1(12.5%)がオフラインとなり、残された7つのコントローラーはワークロードを継続して提供し自動的に回復能力をパート1で示したように数分で復旧します。

私が以前ブログで 書いたHardware support contracts & why 24×7 4 hour onsite should no longer be required ではもっと詳細に本内容カバーしています。

簡単に言うとプラットフォームの回復性能を復旧するのは新しいパーツの到着、さらに技術人員による操作、ダウンタイム、データロスの危険性は自己修復がハードウェアの交換、人による介入を無しに完全に復旧できるプラットフォームと比較して極めて高いのです。

より小さいクラスタならどうなの?と思う人もいると思います。

いい質問です、たとえ4ノードのクラスタで1ノードの障害が発生してもハードウェアの交換や人手を介さないで完全に自己修復機能が3ノードでクラスタを稼働するようにします。

Nutanix環境でノード障害が発生した際に完全に自己修復できない唯一の構成は3ノードクラスタです。

しかし3ノードクラスタでも1ノード障害まで耐えられます、データは再保護されクラスタの機能は2ノードであっても機能しますが、次の障害でダウンタイムは発生しますが致命的なデータロスは起こりません。

2ノードで稼働していたとしてもドライブ障害には耐えられるのです。

3ノードのvSANクラスタで1ノード障害が発生するとデータは再保護されずにノードが交換され、リビルドが完了するまでリスクは継続します。

Nutanixがデータ(管理スタックのPRISM)の自己修復を行える前提条件はストレージが十分にあるかだけです。

どのくらいのキャパシティがあるかを確認し、N+1RF2 , N+2 の為のRF3構成を推奨します。これは2台の障害または、一台の障害の後に発生する後続の障害に対応します。

そのため最小構成クラスタでのシナリオではRF2では33% , 5ノードの場合で40%となります。しかし、競合他社による不確実性、疑問性の打破の前にクラスタサイズが増える際に自己修復でどの程度の容量が必要となるかを見てみましょう。

次のテーブルはN+1N+2を基準にクラスタのノードが32ノードまで拡張するための自己修復に必要な容量となります。

ノート:これらの値は全てのノードが100%利用している際の状態となります。

実際はこれよりもこの表よりも低いのが現状です。

Capacityreservedforrebuild

8ノードクラスタを見てみると容量はちょうど13%が必要となります。

N+28ノードで構成し2重障害時に完全にリビルドし回復性を復旧するには25%です。

重要なのは、Nutanix1MBのエクステントをクラスタ内で分散し使用するADSFのおかげで空き容量は大きなオブジェクト(:256GB)を必要としないという事です。

このため、他のプラットフォームと異なりフラグメンテーションによる容量の無駄が無いのです。

ノート:クラスタ内のノード数はリビルドの容量に影響はありません。

ADSFのいくつかの利点としてNutanixはドライブキャッシュはディスクグループのコンセプトを持っていない事です。

ディスクグループは一つのキャシュドライブの障害がディスクグループ(複数のドライブ)をオフラインにし必要以上にリビルド処理を強制的に実施することになるため、回復性能(レジリエンシー)に対して高いリスクとなります。

ADSFのドライブ障害はただの障害で、一つのドライブ障害はそのドライブに乗っているデータの再構築が必要となり、その処理は11の他のプロダクトとは異なり、多対多の分散処理となるのです。

一つのSSDドライブが搭載しているNutanixSSDドライブが障害になったときだけがノード障害と同一となるのですが、これはADSFの制限ではなく、どのハードウェアを利用するかによります。

本番環境化では2つのSSDの回復性能(レジリエンシー)が追加コストより上回るので、一つのSSDモデルよりも2つのSSD搭載モデルを推奨します。

興味深い所:vSANはおそらく一つのSSDシステムがディスクグループの一つのキャッシュとなっている以上、常にこれが単一障害点となります。

クラスタの自己修復と他の障害が発生した際はどのようになるか?とよく質問されます。

2013年にシドニーのvForumNutanixとこのセッションをプレゼンしており、内容をカバーしています。

このセッションはスタンディングルームでしたが、人気であったので5ノードクラスタでノード障害時に4ノードクラスタのためにどのように自己修復が行われるか、たの障害で3ノードクラスタになるためのどのように自己修復が行われるかのブログを書きました。

これは新しい機能でもなく、他の最新のプラットフォームと比べて最も回復性能が高いアーキテクチャでもありません。

Scale Out Shared Nothing Architecture Resiliency by Nutanix

ディスクグループとして構成されている障害時に実施する事は最近のvSan degraded device handlingで投稿されているVMware vSAN 記事から解るように障害の為により多くのディスクスペースを確保する必要がある事です。

この記事からいえる2つの考慮する事は

〇25-30%の余裕のある空き容量をクラスタ内で常に確保しなければいけないという事

〇ドライブがキャッシュだった場合にディスクグループはオフラインとなる事です。

vSANのアーキテクチャを考慮した際に何故VMwareが25~30%の空き容量に加えて FTT2 (three copies of data)を推奨するかが論理的にわかるようになります。

Next let’s go through the self healing of the Management stack from node failures.

ではノード障害の管理スタックの自己修復に移りましょう

Nutanixの全てのコンポーネント、構成、管理、監視、拡張と自動化はクラスタ内のすべてのノードで完全に分散されるようになります。

コアな機能を利用するためにお客様が管理コンポーネントを展開する必要はありません。

お客様が管理スタックを冗長化する必要もありません。

結果、Nutanix/Acropolisの管理層には単一障害点が無いのです。

下のではそれぞれのノードでサービスをしている4つのCVMがいます。

クラスタ内では一つのAcropolis Masterと複数のそれに所属するSlaveが存在ます。

Acropolis4nodecluster1

Acropolis Masterが利用不可となった場合は他のAcropolis SlaveMasterへ昇格します。

これはADSFによって完全分散されたストレージ内にCasandra databaseが保存されているために達成できるのです。

新しくノードがクラスタに追加された場合は、Acropolis Slaveが追加されクラスタの管理層が分散され、結果的には管理が問題になる事はないのです。

Acropolis5nodecluster

パフォーマンス管理、統計集計、仮想マシンのコンソール接続はMasterまたは、Slaveが提供している管理タスクのほんの一部なのです。

これに加えて他のNutanix利点は管理層はサイジング、手動で拡張する必要が一切無いのです。 vAppDatabase サーバ、Windows仮想マシンの展開、インストール、構成、管理やライセンスが不要です。これにより管理環境を単純化しコストも削減できるようになります。

Key point:

  1. The Nutanix Acropolis Management stack is automatically scaled as nodes are added to the cluster, therefore increasing consistency , resiliency, performance and eliminating potential for architectural (sizing) errors which may impact manageability.

The reason I’m highlighting a competitors product is because it’s important for customers to understand the underlying differences especially when it comes to critical factors such as resiliency for both the data and management layers.

Summary:

Nutanix ADSF provides excellent self healing capabilities without the requirement for hardware replacement for both the data and management planes and only requires the bare minimum capacity overheads to do so.

If a vendor led with any of the below statements (all true of vSAN), I bet the conversation would come to an abrupt halt.

  1. A single SSD is a single point of failure and causes multiple drives to concurrently go offline and we need to rebuild all that data
  2. We strongly recommend keeping 25-30% free “slack space” capacity in the cluster
  3. Rebuilds are a slow, One to One operation and in some cases do not start for 60 mins.
  4. In the event of a node failure in a three node vSAN cluster, data is not re-protected and remains at risk until the node is replaced AND the rebuild is complete.

When choosing a HCI product, consider it’s self healing capabilities for both the data and management layers as both are critical to the resiliency of your infrastructure. Don’t put yourself at risk of downtime by being dependant on hardware replacements being delivered in a timely manner. We’ve all experienced or at least heard of horror stories where vendor HW replacement SLAs have not been met due to parts not being available, so be smart, choose a platform which minimises risk by fully self healing.

記事担当者 : SI技術本部 カッシー @Nutanix_NTNX

2018/08/24

Nutanix CE を Nested ESXiへインストールする9つのTips

本内容はコミュニティに投稿されているKashi5409(カッシー)さんの翻訳内容です。

本文を参照したい方はこちらを参照ください※ログインにはコミュニティのアカウントが必要となります

今回はCEのインストールの際に必要なTipsをまとめました


Nested ESXiの環境にどうCEをインストールするか?9つのTipsを記載します


■ Community Editionの準備.

CEはコミュニティへログイン後にダウンロードが出来ます。

現在はisoのインストーラーとimg版があります。

46c37b10bc1748a38b723425f9246bef_2

Tips1 :
CEのインストールには必ずimgを利用してください。

現在のバージョンでISOインストーラーを利用したケースでは仮想マシン作成後に起動できないという

問題が数多く報告されているようです。

■ ダウンロードしたイメージをESXiのデータストアに上げます。

事前に仮想マシンの作成を実施(TypeはESXi)しておき、同フォルダ内にダウンロードしたイメージファイルとDescriptior Fileを作成しアップロードします。

Cee01beb52bc4b0096d55e85b7fdb66a

Tips2:
イメージファイルだけでは仮想マシンは作成できないので次のようなDescriptor Fileを作成してアップロードします。

# Disk DescriptorFile
version=1
encoding="UTF-8"
parentCID=ffffffff
isNativeSnapshot="no"
createType="vmfs"

# Extent description
RW 14540800 VMFS "ce.img"

# The Disk Data Base
#DDB

ddb.adapterType = "lsilogic"
ddb.geometry.cylinders = "905"
ddb.geometry.heads = "255"
ddb.geometry.sectors = "63"
ddb.thinProvisioned = "1"
ddb.virtualHWVersion = "11"

■ SATAコントローラの追加とCE.imgの追加

仮想マシン作成後にSATAのコントローラーを追加します。

B1bdbec8cf39402cbe722336f2721b91

SATAコントローラーの追加の後は既存のディスクの追加を実施してアップロードしたCE.imgを追加します。

SCSIコントローラーにイメージを追加するとインストールが出来ませんので注意が必要です。

E47dc15274014e68b724fcd099173aa220903ed41f9846c08a77c43cfd41a8e9

Tips3 :

CEのイメージ追加には必ずSATAコントローラーが必要になります。

さらにこのSATAコントローラーですが、vSphere Clientからは追加できないのでWeb Clientを利用して追加してください。

 

■ SCSIコントローラーへDiskを2台追加します

CEのインストールには最低でも2台のDiskが必要となります。

利用用途はHot Tier用、Cold Tier用です。

85181bd5d1db4280afee353784e9d5da

■ その他の構成

CVMが正常に起動するようにハードウェアアシスト仮想化支援が有効化を確認してください。

そして、Diskが2つ登録されている事を確認しましょう。

4213402cd51b468389b43e5ed38ca2d5

起動の順番がSATAになっていないケースがあるので、BIOSに入れるようにも設定をするのが良いです。

167378354d90411eb355b41defc0393b

Tips4 :

仮想マシンの仮想化支援が有効化を確認しまし

また、1stデバイスが何かを確認するためにBIOS 画面を確認できるように設定しましょう。

 

■ 起動

SATA Diskが最初になっているのを確認し、なっていない場合は起動の順番を調整し起動します。

2b543859941d4dbfbe9369f39f19a4ac

インストールを開始します

814e38eb7bde4d5a9df4846dd88664db

SSDディスクが無い環境ではここでFakeSSDを作ります。

AHVへrootでログインし次のコマンドを実行してデバイスが認識しているかを確認しましょう


Nutanix AHV
localhost login: root
#fdisk -l
( to know the device is fine )

58fcaf4906fc4e388c75d72f44ae813f/dev/sdbをダミーのSSDに変換します

# cat /sys/block/sdb/queue/rotational
1

※(change the parameter 1 to 0 )

#echo 0 > /etc/block/sdb/queue/rotational
0

#logout

09b23c1589e64b89bef871b384c09a60

Tips5 :

Nested 環境などでSSDが無い場合は/sys/blcks/sdb/queue/rotationalを変更しましょう

 

■ Nested ESXiへCEをインストールします

installコマンドを実行してCEをインストールします。

2610b2e44fda4b598f7d4b61521e65a5_2

必要なパラメーターを記入します。

シングルノードで構成したい場合は [×]Create Single-Node Clusterとしてください

この際にDNSが必要となりますが、実際はNTPサーバとの同期が必要になってきます。

また、EULAを読まないと次へ進めませんので、読んでおきます。

C552d23df95f4878a613390d0f5f167d

Startを実施したら、コーヒータイムにしましょう。

8d5f9a9d50694d5faf61dfe5d1818352

Tips6 :

EULAを読まないと先へ進めません。

シングルノードクラスタの作成には実際にDNSが必要ですが、これは0.pool.ntp.orgと1.pool.ntp.orgの名前解決、時間同期に使うようでこれが出来ないと起動しません。

■ Prismへログインする前に

Prismへログインするにはデフォルトのパスワードを変更します。

デフォルトユーザー名:admin

デフォルトパスワード:Nutanix/4u

変更後にPrism画面へ入るにはCommunityのメール、パスワードが必要になります。

79ef1ab4a2ec4c829a27a9ab93841f31

もしProxyが存在している環境ではncliコマンドでproxyを設定しましょう。

コマンドは次の通りです

$ncli
ncli> http-proxy add name=internet address=xxx.xxx.xxx.xxx port=8080 proxy-types=https,http

Tips7 :
Proxyがある環境では認証前にProxyを設定しましょう

■シングルノードクラスタの為のTips

シングルノードクラスタで名前解決が出来ない場合は

まだCVMの再起動はしないでください!!!!

なぜか?

シングルノードクラスタの場合、NTPサーバと同期がとれないとcluster start を実施しても

Clusterが起動しません。

最初にPrsimにログインしたら、まずNTPサーバを追加してあげてください。

または、ncliコマンドでも追加できます。

ncli> cluster add-to-ntp-servers servers=xxx.xxx.xxx.xxx

もし、CVMを再起動してしまったのであれば、一時的に次の対策をとりましょう。

/etc/hostsファイルへntpのIPを記載します。

実際にNTPサーバのIPを0.pool.ntp.orgとして時間同期ができるように設定してあげてください。

xxx.xxx.xxx.xxx 0.pool.ntp.org --- >> add
which allow cvm to start cluster .

Tips8 :
シングルノードクラスタではNTPサーバ必須です!

■  仮想マシンの作成の為に

現在のCEのバージョンではそのまま仮想マシンを作成、起動しようとすると次の画面で固まってしまいます。

Ea9541d0744d4ea98c5acc5692767b23

これを回避するためには次の2つのステップをすべてのAHVから実行します。

1.HVへrootでログインします

2. /home/install/phx_iso/phoenix/svm_template/kvm/default.xmlへpmu state の値を追加します

A0ae55bb500440f1bfcf7bc346b243c6

あと一息です!

1.HVへrootでログインします

2. /var/cache/libvirt/qemu/capabilities/3c76bc41d59c0c7314b1ae8e63f4f765d2cf16abaeea081b3ca1f5d8732f7bb1.xml の値を変更します。

実際は

<machine name='pc-i440fx-rhel7.2.0' hotplugCpus='yes' maxCpus='240'/> の項目を削除

次の値を変更します

【変更前】

<machine name='pc-i440fx-rhel7.3.0' alias='pc' hotplugCpus='yes' maxCpus='240'/>

【変更後】

<machine name='pc-i440fx-rhel7.2.0' alias='pc' hotplugCpus='yes' maxCpus='240'/>

841c94e09be3470d9ed7979ddab17993

完了したらCluster Stop -> CVMの再起動 -> Cluster Startを実施してみてください。

仮想マシンが作成できるようになっています。

Tips9 :

仮想マシンが作成できるように次の2つのファイルを変更しましょう

1, /home/install/phx_iso/phoenix/svm_template/kvm/default.xml

2, /var/cache/libvirt/qemu/capabilities/3c76bc41d59c0c7314b1ae8e63f4f765d2cf16abaeea081b3ca1f5d8732f7bb1.xml

■ 9つのTipsまとめ

Tips1 :
CEのインストールには必ずimgを利用してください。

現在のバージョンでISOインストーラーを利用したケースでは仮想マシン作成後に起動できないという

問題が数多く報告されているようです。


Tips2:
イメージファイルだけでは仮想マシンは作成できないので次のようなDescriptor Fileを作成してアップロードします。


Tips3 :

CEのイメージ追加には必ずSATAコントローラーが必要になります。

さらにこのSATAコントローラーですが、vSphere Clientからは追加できないのでWeb Clientを利用して追加してください。


Tips4 :

仮想マシンの仮想化支援が有効化を確認しまし

また、1stデバイスが何かを確認するためにBIOS 画面を確認できるように設定しましょう。


Tips5 :

Nested 環境などでSSDが無い場合は/sys/blcks/sdb/queue/rotationalを変更しましょう


Tips6 :

EULAを読まないと先へ進めません。

シングルノードクラスタの作成には実際にDNSが必要ですが、これは0.pool.ntp.orgと1.pool.ntp.orgの名前解決、時間同期に使うようでこれが出来ないと起動しません。


Tips7 :
Proxyがある環境では認証前にProxyを設定しましょう


Tips8 :
シングルノードクラスタではNTPサーバ必須です!


Tips9 :

仮想マシンが作成できるように次の2つのファイルを変更しましょう

1, /home/install/phx_iso/phoenix/svm_template/kvm/default.xml

2, /var/cache/libvirt/qemu/capabilities/3c76bc41d59c0c7314b1ae8e63f4f765d2cf16abaeea081b3ca1f5d8732f7bb1.xml

Prismの操作性の良さを実感いただけるようにCEのTipsをまとめました。

是非お試しいただけると幸いです。

記事担当者 : SI技術本部 カッシー @Nutanix_NTNX

2018/08/23

Foundation 4.1 の新機能

今回は、先日リリースされたFoundation 4.1 の新しい機能についてのご紹介になります。

 

すでにご存じの方も多いかと思いますが、Foundation は、ハイパーバイザーの導入(入れ替え)、

管理コンポーネント(Controller VM)の導入、Controller VM やHypervisor、など

ネットワーク設定、Nutanix クラスタの設定を行なうツールとなります。

 

今回リリースされた Foundation 4.1 の新機能として、

 

  ● 事前に作成したNutanix クラスタの構成ファイルをインポートすることで、Foundation 実行時の

    クラスタの設定(Hypervisor、CVM、IPMI の IP アドレス、クラスタ名など)の簡略化

  ● AOS(CVM)もしくは、Hypervisor のバージョンをそのままの状態で、もう一方を入れ替え

  ● 一部 UI の変更

 

などがありますが、今回は、一つ目の『構成ファイルを使用した Foundation の設定簡略化』について、

ご紹介したいと思います。

 

Foundation 全体の流れとしては

  ① MyNutanix にて、構成ファイル(.json)の作成

  ② Foundation VM 4.1 の準備

  ③ Foundation VM 4.1 へ構成ファイルのインポート

  ④ Nutanix の初期化(Foundation)

  

のようになりますが、①、③を中心にこれまでの操作との違いについて、紹介します。

 

[ ① My Nutanix にて、構成ファイル(.json)の作成 ]

すでにお気づきの方もいるかと思いますが、MyNutanix にログインしたところ、新たに

「Foundation Preconfiguration Portal」という項目が追加されております。ここから、

構成ファイルの作成画面へと遷移します。

 

31b

Preconfiguration のリストが表示されます。”Add New” を押下し、構成ファイルの

新規作成を始めます。

32a

【1. Start:】

構成ファイルに、任意の名前を付け、Hardware Platform を選択します。

(今回は、Nutanix 純正を選択しています)

34a

 

【2. Nodes:】

Block の数と、Block あたりの Node 数を指定します。

(以下、"Click here"をクリックした後の画面になりますが、今回は、1ブロック3ノードを

 指定します。)

  

37a

 

BLOCK SERIAL、IPMI の MAC Address、IPMI、Hypervisor、CVM のIPアドレス、

Hypervisorのホスト名を入力します。

 

なお、4.1 より以下赤枠部分は、デフォルトでは表示されておりません。

[Tool] > [Range Autofill] を選択することで表示されます。

 

ここに IP Address やホスト名の値を一つ入力することで、その配下のセルに、各ノード分の値が

自動的に入力されます。

例えば、IPMI IP の配下の AutoFull のところに、192.168.0.20 と入力すると、

192.168.0.20~22 という値が、Node A~C のところに入力されます。

39a_2


【3. Cluster】

クラスタ名、クラスタの IP、DNS、NTP の設定を入力し、"Next"を押下します。

40b

 

【4. AOS】

"Next" を押下します。

 

41a

 

【5. Hypervisor】

"Next" を押下します。

42a

 

【6. IPMI】

IPMI の Credential を設定しますが、[Tools] > [Fill with <ご利用のPlatform> defaults]を

選択すると、各ベンダーのデフォルト値が自動的に入力されます。

(今回の場合、Nutanix 純正のため、”Fill With Nutanix defaults” を選択します。)

44a_2

45a_2

“Validate”をクリックして、” Download Configuration”をクリックすると、構成ファイルを

ダウンロードすることが可能です。任意のフォルダに保存してください。

 

[ ② Foundation VM 4.1 の準備 ]

詳細については省略しますが、Nutanix のPortal(MyNutanix)より、ディスクイメージ

(ESXi であれば、.ovf、AHV であれば、.qcow2)を入手し、仮想化環境上に

Foundation VM をデプロイ、Foundation VM 上のスクリプト”set_foundation_ip_address”を

使用し、Foudantion VM のネットワーク設定などを行ないます。

 

 

[ ③ Foundation 4.1 へ構成ファイルのインポート ]

WinSCP などを使用し、展開した Foundation VM に作成した構成ファイルをコピーします。

 

Foundation VM のデスクトップ上の、”Nutanix Foundation”をクリックすると、以下のような

画面が表示されます。

”Import an install.nutanix.com file…”をクリックして、コピーした構成ファイルを選択します。

Fvm01a_2

構成ファイルのアップロードに成功しますと、以下のようにファイル名が表示されます。

Fvm03a


"Next" を押下しますと、自動的に、指定したパラメータが入力された状態で表示されます。

Fvm07a

Nutanix クラスタ関連のパラメータも、同様の構成ファイルのパラメータが自動的に

反映される形になります。

Fvm08a1

AOS、Hypervisor の選択画面は、これまでのバージョン同様になります。

Fvm09a

Fvm10a

[ ④ Nutanix の初期化(Foundation) ]

IPMI の画面で、”Start”を押下すると、初期化が開始します。

Foundation の流れ自体は、これまでと同様です。

Fvm11a

ここまで、Foundation 4.1 を用いた、初期化の流れを説明しました。

 

ご紹介した構成ファイル(.Json)をインポートすることで、Foundation 実行時のクラスタの

設定情報(Hypervisor、CVM、IPMI の IP アドレス、クラスタ名など)を都度入力する手間が省け、

Foundationの操作の簡略化することが可能になります。

また、構成ファイルを使用することで、人為的なミスを防ぐことも可能となります。

 

 

記事担当者 : SI技術本部 きたがわ

2018/08/22

本日のFrame検証 : アプリケーションの追加

こんにちは、ネットワールドの海野です。

今回もNutanixが買収したDaaS製品であるFrameの検証レポートをお送りいたします。

このシリーズの記事は以下のとおりです。

本日のFrame検証 : テストドライブの開始

本日のFrame検証 : アプリケーション

本日のFrame検証 : デスクトップ

この記事には以下の内容を記載しました。

・ProductionとSandbox

・Sandboxへのアプリケーションのインストール

・インストールしたアプリケーションの公開

・Productionへの反映


FrameはDaas (Desktop-as-a-Service) 製品ですが、アプリケーションの配信も可能であることは以前のブログでお伝えしたとおりです。

Frameのテストドライブではサンプルアプリケーションが最初から使えるようになっていますが、もちろんご自身でアプリを追加することも可能です。

【ProductionとSandbox】

以前の記事ではLaunchpadでの[Connected to]の部分において、「Sandboxがマスターイメージ兼テスト環境」であり、「Productionが本番環境」であると記載しました。

管理者はSandboxでアプリケーションのインストールとテストを行い、ユーザーはProductionで業務を行います。

イメージ的にはこんな感じになるかと思います。

V014

【Sandboxへのアプリケーションのインストール】

それでは早速[Connected to]がSandboxになっていることを確認して、アプリケーションのインストールをしていきます。

ここではテストとしてサクラエディタのインストールをしてみました。

084

Frameは現状でダブルバイト文字非対応なだけあって、一部文字化けしているところもありました。

086

無事インストールはできたものの、日本語入力はやはりできません。

(以前の記事にも書きましたが、手元のデバイスのIMEをリダイレクトして使う方式のようです。)

090

【インストールしたアプリケーションの公開】

アプリケーションのインストールが完了したら、インストールされた実体である.exeファイルを右クリックします。

すると[Onboard to Frame]というメニューがありますので、これをクリックします。

V015

このアプリケーションをFrame上で実行させるかという確認ダイアログが表示されますので、OKを選択します。

V016

いくつかの確認が表示されますので[ACCEPT]や[OK]で次へ進めます。

V017

その後、仮想デスクトップを公開したときと同じ管理画面を表示させると、今回インストールしたサクラエディタが[sakura]として追加されていることが確認できます。

仮想デスクトップのときと同様の手順でチェックボックスをONにして[sakura]を有効化させます。

V018

無事SandboxのLaunchpadで公開されていることが確認できます。

V019

【Productionへの反映】

Sandboxで問題なくアプリケーションが動作することを確認できたら、次は本番環境であるProductionへの反映をしましょう。

左上の歯車のメニューから[MANAGING WINDOWS APPS]を展開すると、[LAUNCHPAD SESSION SETTINGS]という項目があります。

[GO TO SETTINGS]をクリックして設定メニューを開きます。

V020

SANDBOXタブの中にある[PUBLISH]をクリックするとSandboxに加えた変更がProductionに反映されるという仕組みになっています。

V021

変更が反映されたら先ほどSandboxで[sakura]を有効化したときと同じ要領でProductionでも有効化すると、ProductionのLaunchpadでも[sakura]が表示されています。

(ここでは同時にWiresharkもインストールし、有効化してあります。)

V022

Frame上の本番用公開アプリケーションとしてサクラエディタが利用できるようになりました。

V023

お好きなアプリケーションの公開もNutanixの製品コンセプトにふさわしいシンプルかつカンタンな操作で実現できることがお分かりいただけるかと思います。

記事担当者 : SI技術本部 海野航 (うんのわたる) @Nutanix_NTNX

アクセスランキング

お問い合わせ先
ネットワールド ブログ運営事務局
blog.doc-info@networld.co.jp
フォトアルバム