« 2017年11月 | メイン | 2018年1月 »

2017年12月

2017/12/28

バックアップアプライアンスのHWスペックを調べてみた

こんにちは、バックアップ製品担当の宮内と申します。
(実は昨年1度だけ記事を書いているのですが、覚えている方いらっしゃいますか...)

さて、年の瀬ですね!
今年のバックアップ業界も色々ありました。
個人的に注目していたのはバックアップアプライアンスの動向です。

バックアップアプライアンスとは

バックアップソフトウェア・OS・保存先ストレージなど、必要なものが一体化した製品。
バックアップアプライアンス一台を導入すれば、すぐにバックアップ環境の構築ができます!

アプライアンス製品を検討する検討するときにちょっと困るのが、ハードウェア周りの仕様。
バックアップ製品は基本的にはソフトウェアだから、というのもあるかもしれませんが、 ソフトウェア面の情報に比べると、ハードウェア面は欲しい情報が見つからないこともちらほら...

そこで!今回はバックアップアプライアンスのハードウェアスペックをひたすらまとめてみました!
いろいろな製品があるのですが、今回は弊社取扱製品の中で話題にのぼることの多い Arcserve UDP Appliance (UDPA)Veritas NetBackup Appliance(NBUA)を ピックアップしました。

Arcserve UDP Applianceとは

Arcserce社から発売されているバックアップアプライアンス。
搭載されているバックアップソフトウェアはArcserve UDP
今回は UDP 7300/7320 の情報をまとめました。
★ハードウェアスペックが強化された UDP 8000シリーズも最近リリースされました。

Veritas NetBackup Applianceとは

Veritas社から発売されているバックアップアプライアンス。
搭載されているバックアップソフトウェアはVeritas NetBackup
今回は NetBackup 5240 Appliance の情報をまとめました。
★エンタープライズ環境向けの53x0シリーズもあります。 NetBackup 5340 Applianceが最近リリースされました。

最初に注意書きさせていただきますが、本記事の目的はUDPAとNBUA両製品のハードウェアスペックを明らかにすることであり、2製品を比較し優劣をつけることではありません!
そもそも搭載されているバックアップソフトウェア自体の性質も大分違いますし
「どっちのアプライアンスがいいの?」というのはお客様のご要望によりけりで、一概には言えないのです。
あくまで検討の際の一つの材料として、本記事にまとめたデータがお役に立てば幸いです。

前置きが長くなりましたが、早速見ていきましょう!


■サイズ・重量

  UDPA NBUA
ユニット数 1U 2U
サイズ(WxLxD) [cm] 4.3 x 43.7 x 65 8.89 x 48.26 x 79.38
重量 [kg] 14.5 23.0

□UDPA

比較的軽くてコンパクトです。
余談ですが、白いベゼルは日本限定版らしいですよ!

□NBUA

容量によって拡張シェルフ(1シェルフ2U・最大6シェルフ)が追加できるので
表に記載の内容は本体部分のみのスペックとなります。

■ディスク

  UDPA NBUA
搭載ディスク数 4 8
1ディスクあたりの容量 4 TB / 8 TB 1 TB / 3 TB / 6 TB
保存先容量 12 TB / 24 TB 4 TB / 14 TB / 27 TB
RAID構成 RAID 5 RAID 6 (+ホットスペア)

□UDPA

保存容量は12TB(7300)と24TB(7320)の2モデルがありますが、
全体構成はほぼ変わらず、1ディスクあたりの容量のみが違います。
別途SSD256GBも搭載されています!
※SSD領域は重複排除の計算に使われます

□NBUA

本体部分のみでは3サイズのモデル展開、シェルフを含めると最大294TBまで拡張可能です!大容量!
データ保存領域とOS領域が分かれていて、OS領域も含めると搭載ディスク数は12になります。OS領域はRAID1で構成されています。

■CPU・メモリ

  UDPA NBUA
RAM 32 GB 64 GB / 128 GB
コア数 1 x 6 2 x 8
周波数 1.9 GHz 2.4 GHz

□UDPA

今回は7300の情報ですが、前置きで軽く触れたように、12月からCPU・RAMなどの性能が強化されたUDP 8000シリーズがリリースされています!
コア数やRAMのサイズ自体は変わらないのですが、どれもワンランク上のパーツに変わったということで
「バックアップ・リストアのパフォーマンスが向上したよ!」とArcserve社エンジニアのKさんが教えてくれました。
ちなみにCPU周りの公開情報は見つからなかったので、弊社が所有している検証機をつかって調べています。

□NBUA

RAMはデフォルトは64GBですが、128GBまで増設可能です!
目安としては、拡張シェルフをくっつける場合はメモリも増やしましょう、というのが推奨のようです。

■ネットワークインターフェース

  UDPA NBUA
標準搭載 1GbE x2 1GbE x4+10GbE(Copper) x2
拡張スロット数 2 6
増設可能なオプション SAS / FC / Ethernet SAS / FC / Ethernet / iSCSI

□UDPA

10GbEのポートは標準搭載こそされていませんが、拡張スロットによって追加が可能です。
テープ装置も接続できますよ!

□NBUA

SASは拡張シェルフの接続用です。
追加ポートの数と種類で11タイプが用意されており、そのなかから要件に見合ったものを選択する方式です。

以上、まとめてみました。いかがでしたか?
いずれの製品も、それぞれのバックアップソフトウェアのためにチューニングされた、メーカーお墨付きのハードウェア構成になっています!
興味を持たれた方はぜひ!バックアップアプライアンス製品、ご検討くださいませ!

最後に、それぞれの製品のメーカー紹介サイトは、UDPAがこちら、 NBUAがこちら
今回紹介していないUDP8000シリーズ、NBUA5340の情報もチェックしてみてくださいね!

ここまで読んでくださりありがとうございました!それでは皆さん良いお年を!


書いた人:宮内

IBMでコンテナ化されたクラウドに力を~IBM ITインフラブログより引用~

本記事のIBM社のPower Systems Cloud Offering ManagerのAlise Spence氏によってIBM IT Infrastructure Blogに投稿されたものからの引用です。

原文を参照したい方はPower your containerized cloud with IBMをご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報はぜひ以下のポータルから取得ください(初回はID、パスワードの取得が必要です)。

Fig348

先月、IBMは新たなオンプレミス用のIBM Cloud Privateを発表しています。

このIBM Cloud Privateについては以下のように表現されています。

An innovative and revolutionary platform-as-a-service (PaaS) offering, IBM Cloud Private incorporates the best of open source tools, including Kubernetes container orchestration, with the unique IBM values that enterprises need to be confident in a secure, compliant and performant private cloud platform.

革新的かつ革命的なプラットフォーム-アズ-ア-サービス(PaaS)製品で、IBM Cloud PrivateはKubernetesのコンテナオーケストレーションを含む最高のオープンソースツールをIBMの付加価値である企業に求められるセキュアでコンプライアンスを満たし、パフォーマンスについても確信を持って利用できるプライベートクラウドプラットフォーム上で動作させることができるようになっています。

IBM Power Systemsをネイティブにサポートしており、競合との差別化は以下のような点があげられます:

  • Developers can create blazing-fast apps by deploying cognitive services on hardware optimized for the work at hand, for higher container density and better throughput.
  • Apps that integrate new cloud-native apps and services with core business data on enterprise systems can be co-located with near-zero latency.
  • Data center administrators can deploy Cloud Private on their choice of Power servers including the IBM Hyperconverged Systems powered by Nutanix, LC servers and enterprise servers with PowerVM.
  • 開発者は高いコンテナの統合率と優れたスループットのためのハードウェアに最適化されたコグニティブサービスを展開することで、非常に高速なアプリケーションを作成することができる
  • 新しいクラウドネイティブなアプリやサービスを統合するアプリケーションとエンタープライズシステムのコアビジネスデータをほとんど遅延のない場所に共存させることができる
  • データセンタ管理者はCloud PrivateをIBM Hyperconverged Systems powered by Nutanix、LCサーバ、そしてPowerVMを搭載したエンタープライズサーバを含むPowerサーバの中から選んで展開することができる

それぞれを詳しく見ていきましょう。。

Want to accelerate the speed of your apps? Our optimized hardware puts you in the driver’s seat with higher container density and better throughput.(アプリのスピードを高速化したい? 最適化されたハードウェアがより高い統合率のコンテナ、より良いスループットへと皆様をお連れいたします。)

A properly configured cloud environment delivers efficiency–a huge benefit to any business, especially when delivered by platform performance. Optimized for cognitive services, Power Systems can deliver insights faster. How? Because of fewer systems and improved horizontal and vertical scalability. The IBM POWER9-based AC922 delivers 3.8 times the reduction in AI model training times[1]. Other Power System servers deliver similar performance gains, all leading to faster and more accurate results for next generation deep learning workloads.

And with multi-architecture support for Docker containers, developers can easily control and automate which platform to deploy specific containers to for best results.

適切に構成されたクラウド環境が効率性を提供します ー あらゆるビジネスにとって巨大なメリットです、特にプラットフォームにパフォーマンスがもたらされた場合には。コグニティブサービスに最適化されたPowerシステムは知見をより高速に提示します。どうやって? 選りすぐったシステムと改善された水平、垂直の拡張性によって、です。IBMのPOWER9ベースのAC922はAIモデルの教育時間を3.8倍も削減することに成功しました(*)。他のPowerシステムサーバも同様のパフォーマンス向上を示しており、全ての次世代のディープラーニングのワークロードをより早く、正確な結果へと導いています。

Dockerコンテナをマルチアーキテクチャでサポートすることで、開発者は最良の結果のためにどのプラットフォームへどのタイプのコンテナを展開するかということを制御、自動化することができます。

Integrate modernized cloud-native apps and services with core business data(コアビジネスデータを最新のクラウドネイティブアプリと統合)

Top enterprises use Power Systems for their most critical business data. Frequently, industry or government regulations are forcing them to find ways to make data more accessible while maintaining their required data security and availability. IBM Cloud Private on IBM Power Systems enables enterprises to create or modernize applications while providing tight integration with the critical data that applications require. By co-locating apps and data, clients will see near-zero latency when integrating with data stores managed in Linux, AIX, or IBM i environments.

トップ企業がそのもっとも重要なビジネスデータのためにPowerシステムを利用しています。よくあることとして業界や当局が標準仕様としてデータに必要なセキュリティと可用性を維持しながら、一方でデータへのアクセス性をより高めるような方法を探すべし、としていることがあります。IBM Powerシステム上のIBM Cloud Privateは企業がアプリケーションが求める重要なビジネスデータの緊密な統合を実現しながら、企業がアプリケーションを作成、もしくは近代化することができるようにします。アプリケーションとデータを同一の場所に格納することで、クライアントからはLinux、AIXもしくはIBM iの環境に管理保管されているデータと連携する際もほぼ遅延のないアクセスを実現することができるのです。

Deploy new cloud native apps on choice of infrastructure, including IBM Hyperconverged Systems powered by Nutanix(IBM Hyperconverged Systems powered by Nutanixを含むインフラストラクチャから新たなクラウドネイティブアプリを展開先を選択できる)

IBM Cloud Private runs across the entire IBM Power Systems portfolio, POWER8 or above, requiring a little endian partition running any flavor of Linux. Clients wishing to leverage existing systems or skills can deploy Cloud Private into PowerVM LPARs. Clients looking to maximize performance for AI or data scientist workloads can opt for bare metal support on OpenPOWER systems. And clients looking to build out new infrastructure in support of new services can get the fastest time-to-value with minimal effort using IBM Hyperconverged Systems powered by Nutanix.

IBM Cloud Private for Power Systems Starter Kits makes it quick and easy to get started. These kits offer implementation guidance that helps organizations to get up and running quickly on their choice of Power Systems infrastructure: OpenPOWER scale-out, enterprise servers, or hyperconverged. When ready, clients can leverage a choice of service-optimized Power Packs, which are Reference Architectures to expand compute capacity and deploy production-ready HA clusters.

Click here to learn more about IBM Cloud Private and try the software, or click here to learn more about cloud solutions like IBM Cloud Private on IBM Power Systems and download a solution brief.

IBM Cloud PrivateはIBM Power システムのPOWER8以降のリトルエンディアンのパーティショニングを稼働させているあらゆるLinuxのすべてのポートフォリオで動作します。既存のシステムを活用する事もできますし、もしくはスキルさえあればCloud PrivateをPowerVM LPARS内に展開することもできます。AIやデータサイエンティストのワークロードの性能を最大化したい場合にはOpenPOWERシステムのサポートの元ベアメタルを利用することもできます。そしてもっとも価値創出までの時間の短い、新しいインフラを最小の労力で作成したいという場合にはIBM Hyperconverged Systems powered by Nutanixをつかうとよいでしょう。

IBM Cloud Private for Power Systems Starter Kitsを利用すれば、素早く、簡単に始めることができます。こうしたキットは実装のガイダンスが記載されており、ご自身の選択したPower システムインフラストラクチャ(OpenPOWERのスケールアウト、エンタープライズサーバ、またはハイパーコンバージド)の稼働開始、稼働の手助けとなります。準備ができたら、サービスに最適化されたPower Packを選び活用することもできます。これにはコンピューティングキャパシティの拡張や本稼働系を展開する際の高可用性クラスタのためのリファレンスアーキテクチャが含まれています。

IBM Cloud Privateについてより詳しく学ぶ、もしくはソフトウェアの試用については こちら をクリック。または こちら をクリックして、IBM Cloud Private on IBM Power Systemsなどのソリューションについて詳しく調べたり、ソリューションブリーフをダウンロードして下さい。

もしもアプリケーションの近代化でどれほどスピードが上がるのかを知りたいのであれば、以下のライブウェブキャストにもご参加下さい :

Bring the Changes Your Customers Want: application modernization and agility with IBM Cloud Private on Power Systems(お客様の要求に変化をもたらす : IBM Cloud Private on Power Systemsでアプリケーションの近代化と俊敏性を)

Time and Date:  11:00 AM EST, January 11, 2018 (日本時間 :2018年11月12日1:00 AM)

Register here. https://event.on24.com/wcc/r/1560084/CF1B4670D48B2BAD72B54C8CD25C8A83

(*) •Results are based IBM Internal Measurements running 1000 iterations of Enlarged GoogleNet model (mini-batch size=5) on Enlarged Imagenet Dataset (2240×2240) .

  • Power AC922; 40 cores (2 x 20c chips), POWER9 with NVLink 2.0; 2.25 GHz, 1024 GB memory, 4xTesla V100 GPU ; Red Hat Enterprise Linux 7.4 for Power Little Endian (POWER9) with CUDA 9.1/ CUDNN 7;. Competitive stack: 2x Xeon E5-2640 v4; 20 cores (2 x 10c chips) /  40 threads; Intel Xeon E5-2640 v4;  2.4 GHz; 1024 GB memory, 4xTesla V100 GPU, Ubuntu 16.04. with CUDA .9.0/ CUDNN 7 .

記事担当者: マーケティング本部 三好哲生 (@Networld_NTNX

Ntc2017_2

本当は年明けに・・・と思っていたのですが、1月12日の深夜1時からのIBMさんのウェブセミナーの告知も含まれていたので、こんな日にも記事を出しております、ゴメンナサイ。

Nutanix担当の目線でいくと、Nutanix on Powerの上で、IBM Cloud Privateを動作させれば、「Googleのようなウェブスケールなインフラ上でIBMのクラウドが動く」という事になります。重要なデータをAIやコグニティブサービスを使ってビジネスに活用していく、こうした世の中だからこそのプラットフォームだと思います。

2017/12/27

(更新 100万ではなく120万!!) Nutanixは単一仮想マシンで100万IOPSを達成 - HCIでは世界初!

Fig321

本記事の原文はNutanix社のGlobal Engineering / R&D TeamでManager Business Critical Appsを務めるMichael Webster氏によるものです。原文を参照したい方は1 Million IOPS in 1 VM – World First for HCI with Nutanixをご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報はぜひ以下のポータルから取得ください(初回はID、パスワードの取得が必要です)。

この数ヶ月、私はNutanixの才能のあるエンジニアたちと新しい機能についての取り組みを行ってきました。この機能はNutanix AOSとAHV製品の将来のリリースで一般公開となります。ある土曜日の昼下がり、私はUSにおり、ふと思いついたことがありました。この機能を使ったとして、単一の仮想マシンで我々はどれだけのパフォーマンスを出すことができるんだろう? このときに私はNutanix社のAHVチームのシニアスタッフエンジニアFelipe Franciosi氏を巻き込むことにしました。単一の仮想マシンで100万IOPSに到達することが可能なのだろうか? フランスはニースのNutanix .Next Conferenceで世界初を発表することへ向けて、チューニングが始まりました。この記事にはより刺激的になるようにライブマイグレーションに関するものや、混合IOについても取り上げたい思います。

大きな成果を上げるためには大きなチームを巻き込む必要があります。今回も例外ではありません。Felipe氏はNutanix NX9030のクラスタ上に1つのUbuntuの仮想マシンを用意してくれ、最大で4KB 100% ランダムReadで最大で100万IOPSを叩き出す手助けをしてくれました。幾つもの検証を繰り返し、継続的なパフォーマンスであることや4KBの代わりに8KBでも実現ができないかなども試してみています。Felipe氏との作業の後、最後のチューニングではMalcom Crossly(AHVチームのスタッフエンジニア)にも手伝ってもらっています。我々は8KBの100%ランダムReadで100万IOPSを達成し、更にそれを24時間継続することができました。更に我々の心に打ったのはレイテンシはほんの110マイクロ秒または0.11ミリ秒だったということです。

100万IOPSを単一仮想マシンで叩き出すということはこれまでではなし得られなかったことです。VMwareとMicrosoftはこれまで何度もデモを行ってきました。ですが、いずれのケースもハイパーコンバージドインフラストラクチャ上もなく、さらにちょっと複雑なことを行っていました。VMwareの場合、数百にも及ぶLUN、ゾーニング、マスキング、オールフラッシュストレージ装置を単一仮想マシンに2つもつなぐ、などです。今回の検証の場合、我々は小さな、NX9030がほんの10台のクラスタ(もっとスケールアウトさせることができます)を利用しています。仮想マシンはローカルディスクボリュームを合計で33個(OS用に1つ、残りがIO負荷用)接続しています。

以下はNutanixクラスタ上の単一仮想マシンに最初に継続的なIOテストを行った際にキャプチャしたイメージです。

Fig322

さて、疑問が生まれてきます。本当に単一の仮想マシンで100万IOPSが必要なのでしょうか? しかもランダムReadで? 幾つかのケースではその答えはイエスです。もちろん100万IOPSも必要としないということもありますが。非常に小さなレイテンシのRead操作からメリットを受けられるアプリケーションは多くあります、例えば金融機関の支払いのゲートウェイなどです。

どうして単一の仮想マシンでなくてはならないのか? 近年では殆どの状況において多くの仮想マシンを使うスケーラブルプラットフォームの利用に興味はないのか?という疑問を持つ方もおられると思います。そのとおりです。ですが、Nutanixのような分散スケールアウトシステムの課題は常にパフォーマンスのスケールアップです。多くの仮想マシンを利用してのパフォーマンスのスケールアウトはあたり前のことなのです。しかし、単一の非常に大きな仮想マシンで非常に高いパフォーマンスを得るということはとてもトリッキーな課題です。こうしたことは特に大きなデータウェアハウス環境で重要です。

大きなスケールアップデータウェアハウスにおける能力を確認するために70%Read,30% Write、100%ランダムの64KBというワークロードも検証しています。これはSQL Serverデータベースが生成するのと類似のワークロードです。以下はこの検証の結果のイメージです。

Fig323

見て分かる通り、この構成の単一仮想マシンで我々は継続的に13GB/sのスループットをRead 70%、Write 30%で達成しました。ワーキングセットのサイズは3TB以上です。これによってこの構成はIOスループットの観点から非常に巨大なデータウェアハウスにも利用できるということを示しています。WriteについてはRoCE(RDMA over Converged Ethernet)を利用するRDMAとMallanoxの40GbE CX3 Proアダプターを利用しています。全てのアップリンクはMellanox社のSN2700スイッチに収容され、RDMA用の低遅延のロスのないファブリックで一貫したパフォーマンスを提供しています。

これがクラスターが持つパフォーマンスの全てでしょうか? いいえ、違います。この10ノードを利用して、仮想マシンの数をスケールアウトさせるとより高いパフォーマンスを達成することができます。以下のイメージのデモが示すとおりです。WindowsとIOMeterを利用して10ノードのクラスタと64KBの100%ランダムReadで28GB/sのスループットを達成することができました。

Fig324

IOパターンを70%のランダムReadと30%のランダムWriteに代えた場合、10ノードのクラスタのスループットは21GB/sまで落ちました。

Fig325

仮想マシンの数のスケールアウトが効果があるということを明らかに示しています。単一の仮想マシンでも優れたIOパフォーマンスを叩き出すことができるのです、当然のことです。お楽しみのために、32KBの100%ランダムReadの結果もお見せします。これはとあるオールフラッシュストレージベンダーでよく利用されています。

Fig326

10ノードのNutanix NX9030からなるクラスタで、10の仮想マシンから100%ランダムReadのワークロードを流したところ22GB/sが出ています。このクラスタは非常に小さいもので、32、48もしくはもっと大きなサイズへと拡張可能で、それに合わせてパフォーマンスもリニアに拡張されます。これはNutanix Acropolis分散ストレージファブリックを利用するメリットです。クラスタにノードを追加することで、増えていくワークロードのためにリニアに拡張でき、想定通りの一貫した構成を取れるのです。

これはもちろん想定通りの質問です。もしもライブマイグレーションや環境のアップグレードを行っていないときであればそうかもしれません。ですが、ライブマイグレーションが行われたとしたらどうなるでしょうか?喜んでお答えしましょう。8KBのランダムReadで100万IOPSを実行している途中に、その仮想マシンをライブマイグレーションさせてみました。以下の短いビデオを見ることで、仮想マシンを一つのホストから別のホストへ移行させた際に、平常時に戻る前にIOPSが少し減少するのを確認できます。ビデオではライブマイグレーションの発生時のみではないということも確認できます。


YouTube: 1M IOPS Live Migration

Nutanix AHVハイパーバイザーはCPU、メモリ、そしてストレージIOリソースのバランスをスマートに行い、プラットフォーム上のすべての仮想マシンが取りうる限りの最高のサービスを実現します。ビデオではマイグレーションの後でもパフォーマンスの欠落が無いということも示していますが、これも期待通りです。こちらのJosh Odgers記事をご参照下さい。将来的にどこにボトルネックが移るのかということも含まれています。

こうした変更はもしもWriteがミックスされてくるとどうなるでしょうか? 8KBのIOサイズ、70%のReadと30%のWriteで、期待値としては同じような振る舞いです。以下のビデオは単一の仮想マシンでライブマイグレーションを行っているものですが、その最中に 600K IOPSと4Gものスループットを示しています。


YouTube: 8K 7030 IOPS Live Migration

ここでお見せしている機能はAHV Turbo(IOパスをAHVカーネルから取り除く)で、次のAOS 5.5のリリースへワンクリックアップグレードすることで利用可能になります。AHV上にあるのであれば何の変更も加えずにAHV Turboからのメリットを受けることができます。ですが、もしもパフォーマンスを最大化したいと考えるのであればLinux上でマルチキューブロックIOを有効にするか、Windowsでは最新のvirtio-scsiドライバーを利用して下さい。単一仮想マシンでの検証はまた別の機能を利用していますが、この機能については5.5.1でリリースされる予定です。この機能では単一の仮想マシンは必要であればさらなるストレージIOリソースを利用してパフォーマンスを得ることができます。この機能はAcropolis分散スケジューラーとシームレスに統合されています。最後に仮想マシンは仮想化NUMAを利用しており、AOS 5.5と一緒に登場するAHVで利用できるようになります。我々はAHV TurboをワシントンDCで行われたNutanix .NEXTカンファレンスUSで最初にでもしましたが、Josh Odgersはその他にも8K 70/30についてのハイライトをこちらの記事で記載しています。

[2017年12月14日更新]

AHVをアップグレードした後には、100%の8KのIOサイズのランダムReadで1.2Mを継続させることができました。これに加えて更にCPU利用率とレイテンシが低減されています。イメージは以下:

Fig363

最後に

Nutanixのソフトウェア、Acropolis、Prism、そしてAHVは近年のサーバーハードウェアの能力を解き放ち、最も要件の高いアプリケーションであっても優れたパフォーマンスを実現することができます。新しいハードウェアの革新が業界標準のプラットフォームとしてもたらされればすぐにNutanixソフトウェアはその先進性を利用できるようにします。これによって持続的なパフォーマンスとスケーラビリティの改善のサイクルが実現され、フォークリフトによるハードウェアの入れ替えはもう考える必要がなくなるのです。Intel x86であれIBM Powerのアーキテクチャを選ぶのであれ、AHVは他のハイパーバイザーが羨むようなパフォーマンスを実現することが可能です。我々はAHVの本来の力の触りの部分を初めただけです。今後多くのものが登場するでしょう。チャンネルはそのまま! 2018年の5月のニューオリンズの.NEXT conferenceで更に詳しく!

記事担当者: マーケティング本部 三好哲生 (@Networld_NTNX

Ntc2017_2

さて、今年を締めくくる記事としてはこちらを選びました。将来のAHVではなんと単一VMで100万IOPSを実現できるということです。爆速大好きさん、こちらに集まれー(笑)

・・・ っていうか、32もvDisk繋いだり、色々とAHV Turbo以外にもおまじないが入っているようで・・・。ここまでしなきゃいけないんだったら、Nutanixのシンプルさはなくなってしまいます。今回は参加することに意義がある的な感じですかね。

今回の記事はベンチマークの数字がすごいでしょう? というよりも様々なワークロードに対応ができるだけの改善点をハイパーバイザーに取り込んでいるということに意味があると思っています。HCI専用ハイパーバイザーとしてどれだけ独自の進化をとげるのか・・・?

まさに海の覇者として独自の進化を遂げたサメのようなハイパーバイザーになってきました。(※サメは軟骨魚類という一般的な魚よりも旧世代のアーキテクチャ(笑)を採用している魚ですが、食物連鎖の頂点に位置しています、例えば、泳ぎ続けないと息ができないとか・・・)

おそらく前回の記事の機械学習だとか、色んな意味でそういうことを考えなくても良くしてくれるというNutanixのもう一つの車輪(Prism)側の対応も楽しみです。

乞うご期待です!

2017/12/26

名物vExpert アケミ姉さんのインフラ骨盤矯正ブログ vSAN編 #3

HPE教育サービスの中川明美です。

3回目はvSANと連携するvRealize Operations ManagerとvRealize Log Insightについてご紹介します。

 

#1: VMware vSAN 6.6 What’s New

#2: トラブルトラブルシューティング時に役立つツール 1

#3: トラブルトラブルシューティング時に役立つツール 2

 

vRealize Operations Managerはソリューション(アダプタ)を、vRealize Log Insightはコンテンツパックの追加なく、デフォルトでvSANに関するデータを表示することができるようになりました。こちらのBlogでは、vRealize Operations Manager 6.6.0、vRealize Log Insight 4.5.1を使用しています。

 

vRealize Operations Manager (vROps)

「管理」画面の「ソリューション」で、「VMware vSAN」を選択し、「構成」でvCenter Serverの名前と認証情報を入力します。その後データの収集が開始されます。

A301

「ダッシュボード」の「はじめに」では、標準ダッシュボードが提供されます。これらは5つのカテゴリ (赤枠線内) に分けられます。

A302

vSANに関わる標準ダッシュボードは次の4つです。右ペインのダッシュボードを一度選択すると、左ペイン(赤枠点線内)にダッシュボードの名前が表示されます。

カテゴリ (分類) 名

標準ダッシュボード

操作

vSANデプロイの最適化

vSAN Operationsの概要

キャパシティと使用率

vSANキャパシティの概要

パフォーマンスのトラブルシューティング

vSANのトラブルシューティング

 

個人的には、「vSANのトラブルシューティング」ダッシュボードがお勧めです。このダッシュボードを使用すれば、vSANの構成や状態、キャパシティやパフォーマンスまで確認できます。

どのような情報が得られるかを確認します。17項目が大きく3つに分けられています。

< ①vSANクラスタから始めましょう >

vSANクラスタの構成情報やアラート、クラスタ全体のパフォーマンス状況を表示します。

A303

< ②参加しているホストとディスクグループを見てみましょう >

ディスクグループおよびvSANクラスタ内のESXiホストの情報やワークロードを表示します。

A304

< ③キャッシュおよびキャパシティディスクの健全性を確認します>

ヒートマップで、キャッシュディスクとキャパシティディスクの健全性を表示します。

A305

2つのアラートが気になりますが、後ほど確認します。

 

vRealize Log Insight

管理画面の「統合」で、「vSphere」を選択し、vCenter Serverの名前と認証情報を入力します。その後Logが収集されます。

A306

vSANは10のダッシュボードが提供されています。下図は、「Object Events」を選択した画面です。コンポーネントの5つの状態を表示します。

A307

「Absent」イベントが発生しているのが気になります。グラフをクリックすると、メニューが表示されます。「インタラクティブ分析」を選択し、詳細な情報を表示します。

A308

下図は、「Absent」のインタラクティブ分析画面です。

A309

ここでは、ホストの停止を想定し、vSANクラスタを構成する1台のESXiホストをメンテナンスモードにしました。メンテナスモードへ切り替えた時と、終了した時に生じたイベントを確認します。

<Absentのインタラクティブ分析>メンテナンスモードに切り替えた時のイベント

接続可能な「active」状態から、接続不能な「absent」状態へ変更しています。

A310

<Resyncingのインタラクティブ分析>メンテナンスモードを終了した時のイベント

オブジェクトは、古さを表す「Stale」状態から、再同期の「resyncing」へ遷移しています。オブジェクトとは、VMホームのネームスペース/vmdk/スワップファイル等を指します。

A311

「'oldCompState': 'active', 'newCompState': 'absent'」イベントは、クラスタやオブジェクト/コンポーネントの問題と考えられます。たとえば、クラスタ内のESXiホストの切断、コントローラのリセット、ディスク/ディスクグループの障害が発生しているのではないかと推測できます。

また、このイベント/ステータスが一時的であるかどうかは、同じUUIDに対して反対のログ「'oldCompState': 'absent', 'newCompState': 'active'」が表示された場合に判断できます。

 

「Decommissioning」ダッシュボードを確認すると、Absentイベントが発生している時間帯で、メンテナンスモードに切り替えられたことがわかります。

A312

Log Insightは、膨大なLogをカテゴライズし、視覚的にわかりやすい情報で表示されること、インタラクティブ分析で関連する詳細なLogを表示できることがメリットですね。

 

最後に、vROpsに表示されていた警告表示のアラートを確認します。

A313

アラートをクリックすると、下図の画面が表示されます。KBが表示され、キャッシュサイズの検討を促しています。その下には「詳細情報が必要ですか?」とリンク表示があります。

A314

「追加メトリックの表示」と「ログの表示」をクリックしてみます。

◆追加メトリックの表示◆

読み取りキャッシュに黄色のひし形で警告表示されています。メトリックではキャッシュヒット率の変遷を確認できます。

A315

◆ログの表示◆

vROpsでLog Insightの情報を追加すれば、連携することも可能です。この画面では、キャッシュヒット率が0%になった時間帯で検索し、イベントを表示しています。

A316

vROpsの2つのアラートは、メンテナンスモードに切り替えたことが要因で通知されました。実際の環境でESXiホストが切断され、キャッシュヒット率が低下していたなら、パフォーマンス劣化を招いていたかもしれません。状況を把握しておけば、慌てず対処できますね。

 

vSAN 6.6になって、監視/管理系のツールが強化されています。情報があり過ぎても管理者としてはどう活用するべきかを悩みますね。こちらのBlogでは、ここを押さえておけばある程度のトラブルシューティングができるのではないかとポイントを絞ってご紹介いたしました。

お役に立てましたら、幸いです。

HPE教育サービスでは、vSANのVMware認定コースを提供開始します。トラブルに対応するにはアーキテクチャを知ることは重要です。ぜひこの機会に学んでみませんか。

次の開催日程は、1/29(月)-31(水)です。申し込みはお早めに!

VMware vSAN: Deploy and Manage [V6.6] 3日間コース

日本ヒューレット・パッカード株式会社 教育サービス 中川明美

記事担当者: マーケティング本部 三好哲生 (@miyo4i

Screenshot20141105at0820381

第3段は来週ですと書いておきながら、他の記事のペース具合がすごかったので(誰のせいなんでしょう?)落ち着いた本日公開致します。今回はアケミ姉さんのお得意のvRealizeシリーズです。前回はコマンドがメインのトラブルシュートでしたが、今回は運用ツールのvRealizeを利用しています。

管理ツール、運用ツール、監視ツール・・・なかなか軽視しがちと言うか、いつも使ってるのでなんとかしたい・・・という発想もあるかもしれませんが、VMwareはSDDC、つまりデータセンタ全体ですので、こうした専用ツールへの投資も非常に効果大です。

2017/12/25

Nutanix Xtract for VMs Deep Dive ~ハイパーバイザー変更を吸収する仕組みとは~

本記事は全三回の連載になっています。本記事は全三回の連載になっています。興味のある方は他の回のコンテンツもご覧ください。

第1回: Nutanix Xtract for VMsは使えるのか? 

https://blogs.networld.co.jp/main/2017/12/nutanix-xtract--61ff.html

第2回: Nutanix Xtract for VMs Deep Dive ~データ転送の裏側~

https://blogs.networld.co.jp/main/2017/12/nutanix-xtract--342e.html


第3回: Nutanix Xtract for VMs Deep Dive ~ハイパーバイザー変更を吸収する仕組みとは~

https://blogs.networld.co.jp/main/2017/12/nutanix-xtract--ae65.html

はじめに

 ここまではXtract for VMsを使ったvSphere環境からAHV環境へ移行する仕組みをデータ転送の仕組みから紹介してきました。今回はvSphere環境のESXiからAHV環境へハイパーバイザーを変更した場合に、「ゲストOSにどういった変更が起こるのか?」「変更をどうやってXtract for VMsが吸収しているのか?」といったところを掘り下げて紹介してみたいと思います。

ハイパーバイザー変更の影響とは?

 昔々、「仮想サーバ」が当たり前になる前の時代は、サーバに直接OSをインストールして利用する「物理サーバ」が一般的に利用されてきました。vSphereを始めとするサーバ仮想化ソリューションを導入する際には、Physical Server(物理サーバ)からVirtual Server(仮想サーバ)に移行するためにP2Vと呼ばれる移行作業が必要でした。例えばvSphereの場合vCenter Converterと呼ばれるツールが提供されていて、物理サーバから仮想サーバに容易に行えるようなツールが提供されていました。

物理サーバから仮想サーバに移行する際に注意が必要な事項には以下のようなものがありました。

・ハードウェアが変更される

・NICのMACアドレスが変更される

・元々導入されていたハードウェアのユーティリティが悪さをする

・元々導入されていたセキュリティソフトが悪さをする

 物理サーバの場合、HPE社のProLiantの場合、DELL社のPowerEdgeの場合などサーバベンダーごとにインストールされるユーティリティが異なったり、利用していた共有ストレージがあったりすると、ストレージベンダーが提供されるユーティリティも入っていたりと、サーバごとにハマりどころがあったりしました。

 Xtract for VMsは移行元環境はESXiだけを想定すればいいため、こういったハマりどころはありませんが、ハードウェアの変更やMACアドレスの変更といったものはP2Vと同様で発生します。

 Xtract for VMsは移行元仮想マシンにエージェントソフトなどを導入することなく移行可能というのがウリの1つだったりしますが、移行時には自動的にこういったハイパーバイザーの変更を吸収するためにスクリプトだったりドライバのインストールだったりが行われます。

 だったりで済ますと話が終わってしまいますので、皆さんが興味をお持ちの裏側でどういった処理が実行されているのか前回同様ログファイルから追ってみたいと思います。

 

ハイパーバイザー変更に備えるXtract for VMsの裏側~移行前処理~

 Xtract for VMsではハイパーバイザーの変更に備えて、様々なタスクを実行します。例えばvSphereで利用していたディスクコントローラはAHVではVirtIOに切り替わります。例えばWindows OSではInboxではVirtIOのドライバはもっていません。そのため何も対策をしないで移行しても、AHV環境で移行元の仮想マシンを起動してもシステムディスクが検出できずに起動すらできません。

 Xtract for VMsではこういったことを防ぐために移行元仮想マシンが移行元ハイパーバイザーで稼働している状態でもいくつかのタスクを実行しています。これらのタスクを実行する前にはスナップショットを取得しているため、万が一何かあったとしても容易に元の状態に復帰することが可能です。

xtract-srcagent.logファイルをざっと眺めてみると、以下のようなタスクが実行されていることがわかります。

 

  1. Checking admin permissions
  2. Checking windows installer version
  3. Adding Nutanix sha1 certificate
  4. Adding Nutanix sha2 certificate
  5. Loading user profile
  6. App Mobility drivers are NOT installed
  7. Setting SAN Policy=OnlineAll
  8. Retaining IP information

 

 これらのタスクが実際にどんなことをやっているのか、なぜ必要なのか見ていくことにしましょう。ログファイルをみると実際にこれらのタスクを実行時に呼び出されているスクリプトファイルも確認することができます。これらのタスクで必要なファイルはXtract for VMsの仮想アプライアンスの中の「/opt/xtract-vm/resources/」に保存されているファイルが適宜移行対象の仮想マシンにアップロードされて実行されているようです。

16web_nutanixahv_xtract_for_vm

 

Checking admin permissions

 これはわかりやすいですね、そのままの通りでXtract for VMsではMigration Planを作成する際にゲストOSの認証情報を入力する必要があります。この入力したユーザアカウントがこの後のタスクで必要になるローカルAdministratorの権限を持っているかどうかの確認を実施しています。

 

Checking windows installer version

 これはこの後のタスクとしてAHV環境で必要なドライバ群をインストールする際に要求されるWindowsインストーラのバージョンを確認しています。msiexec.exeファイルのバージョンを確認して一定以上のバージョンでない場合、エラーを返すようになっているようです。

 

Adding Nutanix sha1 certificate / Adding Nutanix sha2 certificate

 なんで証明書なんて追加しているの?と思われるかもしれませんが、昨今のWindowsではドライバ署名の証明書が不正だとそもそもインストールできないといったことがあります。そのため事前に証明書ファイルをコピーしてインストールするといった流れを自動的に行っています。

 

Loading user profile

 これは…。何者なんでしょうかね?きっと以降のタスクでユーザプロファイルに含まれる環境変数とかが必要だから読み込んでいるんじゃないかと推測しています。

App Mobility drivers are NOT installed

 AHVで必要になるドライバ群(App Mobility drivers)をインストールします。これによってAHV上での初回起動時にシステムディスクが見つからないといったことがなく起動が可能になります。事前にインストールしておくだけなので、移行元仮想マシンの再起動が必要といったこともありません。

 

Setting SAN Policy=OnlineAll

 SANなんて構成してないけど…って思われる方もいらっしゃるかもしれませんが、Windowsのディスク管理のポリシーの名前がSAN Policyです。最近のWindowsに対してホットアドでディスクを追加(拡張ではない)すると、追加したLUNがオフライン状態で認識していることにお気づきでしょうか?

  これはWindows OSのSAN Policyの設定が既定ではオフライン共有になっており、新規のLUNを検出したときの動作はオフライン状態となります。それではDドライブ等がオフライン状態で起動されてしまい、アプリケーションが正常に動作しなくなることになります。そこで常にオンライン状態となるようにポリシーを変更するためにdiskpartコマンドを実行してから移行を実施しています。

 

Retaining IP information

 これもその名前のとおり、移行元仮想マシンのIPを保持するためのタスクになります。先ほどハイパーバイザーを変更する際にハードウェアが変更になると説明しましたが、Windowsではハードウェアが変更されると「ローカルエリア接続#2」というようなインターフェースが新規作成され既存の「ローカルエリア接続」の設定を引き継ぐことはできません。

 そこでXtract for VMsでは事前に既存のネットワーク設定のバックアップを取得して、移行後の初回起動時にネットワーク設定のリストアを実施することで力業ではありますがネットワーク設定を引き継ぐことを可能にしています。但し現在のバージョンのXtract for VMsはこういった若干力業でネットワーク設定を移行していることもあり、NICの順序などを意識しなくてはいけない2個以上のNICを持った仮想マシンの移行時にはネットワーク設定を引き継ぐことができないような仕様になっています。この場合、この後紹介する移行後処理として手動でIP設定を引き継ぐ必要があります。

 

ハイパーバイザー変更に備えるXtract for VMsの裏側~移行後処理~

 Xtract for VMsでは移行後のクリーンアップは自動では行われません。管理者が移行完了後に行う必要があります。不要になったVMware Toolsのアンインストールや、非接続状態のデバイスの削除はAHVに移行が行った後で、必ずスナップショットを取得してから実行しましょう。

 

まとめ

 ここまで3回にわたってXtract for VMsを使ったvSphere環境からAHV環境への移行について紹介してきました。Xtract for VMsのような移行ツールは裏側の動きがブラックボックスになっているとなかなか怖くてとっつきにくいですが、こうして中身がわかってくると安心して利用いただけるのではないでしょうか?

 Xtract for VMsを利用することで、お使いのvSphereの環境からシステム停止の時間を最小限にして移行を行うことができます。今まで既存システムの移行がハードルでAHVの採用を見送ってきた方は、是非一度Xtract for VMsを使った移行を検討していただければと思います。

 

2017/12/24

どうしてNutanix AHV(旧称 : Acropolis Hypervisor)は次世代のハイパーバイザーなのか? パート10 - コスト

本記事は[2枚目]Nutanix Advent Calendar 2017への寄稿も兼ねております。是非アドベントカレンダーの他の記事もお楽しみください。1枚目のNutanix Advent Calendar 2017もどうぞ。

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001 そしてVMware Certified Design Expert (VCDX) #90(2桁)として活動しているJosh Odger氏によるものです。

原文を参照したい方はWhy Nutanix Acropolis hypervisor (AHV) is the next generation hypervisor – Part 10 – Costをご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報はぜひ以下のポータルから取得ください(初回はID、パスワードの取得が必要です)。

コストがリストの一番下にあって、驚かれている方もいらっしゃるかもしれません。ですが、これまでの記事を読んできていただいた方はおそらく、業界の他の製品と比べてAHVが様々な面で優れた仮想化プラットフォームであるということにお気づきでしょう。私の意見では、Starterエディションに含まれているから、AHVを「低価格なオプション」もしくは「機能に制限のある廉価なハイパーバイザー」と考えるのは誤りです。(これは全てのNutanixのお客様に無償で提供することにしているという意味でしかありません)

ハイパーバイザーやその管理コンポーネントのライセンス/ELAが明らかに削減されるという点を考慮しないとしても、AHVを利用して頂く実際のコスト上のメリットは劇的な設計、実装、運用の様々なフェーズともちろん、日々の管理の労力の劇的な削減です。

この原因は多くの要素からなります:

設計フェーズのシンプル化

すべてのAHVの管理コンポーネントは組込されており、高可用性構成で、自動的にスケールします。目的に特化した専門家(SME ー Subject Matter Expert)を管理ソリューションの設計に巻き込む必要もありません。何年にも渡って数え切れないほどの高可用性仮想化ソリューションを設計してきた人間の一人として、AHVは最初から私が過去にお客様のために他の製品を利用しながら夢に描いて来たもの、そのものです。

実装フェーズのシンプル化

すべての管理コンポーネント(Prism Centralという例外はありますが)は自動的に展開され、エンジニアがこれらのコンポーネントをインストール/パッチ/要塞化するという要件は存在しません。

Acropolisとすべての管理コンポーネントはすべてCVM内に組み込まれています。これは間違いの起こる可変の部品が少ないということを意味し、それらの検証を行う必要もありません。

経験的に、運用の検証は大抵の場合見落とされがちで、インフラストラクチャはその設計要件とその導入効果が実証される前に本稼働環境へと投入されてしまいます。AHVでは管理コンポーネントは自動的に展開され、コンポーネントが提供されないというリスクはまったくもってありません。更に運用上の検証を行うにしても、従来型の製品とは異なり、可変できる部分が非常に少ないため、検証は非常に早く終えることができます。

日々の運用のシンプル化

AcroplisはAcroplisベースソフトウェア(以前はNOSと呼んでいました)、AHV、ファームウェア、そしてNutanixクラスタチェック(NCC)に対して完全に自動化されたローリングアップグレードの機能を提供しています。それだけではありません、アップグレードのダウンロードの前に互換性のないヴァージョンインストールしてしまうリスクを排除してやハードウェア互換性リスト(HCL)や互換性マトリックスをチェックしてからダウンロードされます。

AHVはキャパシティ管理を劇的にシンプルにします。これは必要とされるキャパシティ管理がストレージプールレイヤだけであるということに由来します。管理者がLUN/NFSマウントするもしくはコンテナにおいてキャパシティを管理するという必要はありません。この能力はよく知られているハイバーバイザーが持っている、例えばvSphere ストレージ DRSの必要性も排除します。

サードパーティのライセンスコストの削減

AHVにはすべての管理コンポーネントが含まれています。もしくはPrism Centralを利用する場合においても事前にパッケージされたアプライアンスを使うだけです。すべてのOSのライセンスは発生しません。すべてのNutanixノード上で動作している高い信頼性を持つ管理コンポーネントはMicrosoft SQLやOracleというようなサードパーティのデータベース製品、もしくはベストなケースで仮想アプライアンスを展開すればよいという場合であったとしてもこれらは高可用性を欠くもので、バックアップや維持が必要になります。AHVではこれらの必要性を排除しています。

管理用インフラストラクチャのコストの削減

仮想化ソリューションに10もしくはそれ以上の管理コンポーネント(それぞれが専用の仮想マシンになっている場合がほとんど)が必要になるということはよくある話です。小さな環境においても一元管理、パッチ、パフォーマンスやキャパシティの管理の機能を利用しようとすればこれらが必要になってしまいます。環境が成長するについれて、もしくは高い可用性の要件が必要になるに連れて、管理仮想マシンの数とそのためのコンピューティングの要件は増えていく傾向にあります。

すべての管理コンポーネントはNutanixコントローラー仮想マシン(CVM)の中で動作しており、CVMはそれぞれのNutanixのノードで起動しています。専用の管理クラスタは必要ありません。コンピューティング/ストレージのリソースの総量も減らすことができます。

管理用インフラストラクチャの削減からの間接的なコスト削減は以下を含みます:

  1. ラックスペースの削減 (RU)
  2. 電源/空調の削減
  3. ネットワークポートの削減
  4. コンピューティングノードの削減
  5. ストレージキャパシティとパフォーマンス要件の低減

大事なことを言い忘れていました、メンテナンスウィンドウやシステム停止時にかかるコストはどうでしょうか?

Acropolisは完全に非破壊的なワンクリックのアップグレードを提供しており、多くの障害ポイントを削減しています(例 : サードパーティのデータベース)、その一方で、非常に信頼性の高いプラットフォームを提供しています。AHVはお客様のメンテナンス時やシステム停止時のコストも削減してくれます。

まとめ:

  1. Acropolisの管理コンポーネントの設計は必要ありません
  2. 管理コンポーネントの日々の維持運用も必要ありません
  3. 複雑性を削減し、ダウンタイムやヒューマンエラーによるダウンタイムの可能性を削減します

インデックスへ戻る

記事担当者: マーケティング本部 三好哲生 (@Networld_NTNX

Ntc2017_2

全10回(実質9回)の本シリーズはこちらでおしまいです。残念ながら原文のパート9の内容はパスワードで保護されているため、日本語にしたとしてもこちらで公開することはできません。

ですが、パート9がなかったとしてもAHVが如何に優れたハイパーバイザーであるかということはお伝えできたのではないかと思っています。しかも、本記事を翻訳している間にAOS 5.5がリリースされ、AHV Turboを含む様々な最新の機能が現在進行形で取り込まれています。次世代である上に更に歩みを止めずに進化し続けている唯一のハイパーバイザーと呼んでよいのではないでしょうか。

最後に今回、9にもなるシリーズ、つまり9日間分のブログの翻訳を決意させてくださった、NutanixのAdvent Calender周辺の管理者の皆様、誠にありがとうございます。まさかの2枚目のカレンダー、今年何をやり忘れているか・・・。AHVでした。来年はAOS 5.5と一緒に登場した新機能で更に武装を強化し、Year of AHVにしましょう!

また、毎日のように更新されるブログを呼んでくださった皆様、ありがとうございます。

2017/12/23

どうしてNutanix AHV(旧称 : Acropolis Hypervisor)は次世代のハイパーバイザーなのか? パート8 - 分析(性能 & キャパシティ管理)

本記事は[2枚目]Nutanix Advent Calendar 2017への寄稿も兼ねております。是非アドベントカレンダーの他の記事もお楽しみください。1枚目のNutanix Advent Calendar 2017もどうぞ。

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001 そしてVMware Certified Design Expert (VCDX) #90(2桁)として活動しているJosh Odger氏によるものです。

原文を参照したい方はWhy Nutanix Acropolis hypervisor (AHV) is the next generation hypervisor – Part 8 – Analytics (Performance / Capacity Management)をご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報はぜひ以下のポータルから取得ください(初回はID、パスワードの取得が必要です)。

AcropolisはAcropolisプラットフォーム、コンピューティング(AHV/仮想マシン)、そしてストレージ(分散ストレージファブリック)をカバーする強力かつシンプルに使える分析ソリューションを提供しています。

他の分析ソリューションとは異なり、Acropolisは追加で設計/展開もしくは構成が必要となるソフトウェアライセンスや管理インフラストラクチャ、もしくは仮想マシンやアプライアンスを必要としません。Nutanixのコントローラー仮想マシンは組み込みで分析機能を提供し、一切外部へ依存関係を持っていません。別の製品や仮想アプライアンスにデータを展開/取込が必要にならないということは、オーバーヘッドが小さいということにもなります。つまり、保存するデータが小さくなるということで、ストレージへの影響も小さくなります。

この機能は組み込みで初日から使えるというだけでなく、環境が時を経て成長するに連れて、Acropolisは自動的に分析機能を拡張していきます。どこかでしきい値を超えて追加のインスタンスを展開する必要性や、分析のための仮想アプライアンスのコンピューティング/ストレージのリソースの割当を増やすまたは、バックエンドにデータベースを追加するというようなことには永遠にならないのです。

分析UIのデモについては以下のYoutubeのビデオを4:50から御覧ください : 


YouTube: Nutanix Prism UI - 28 nodes

まとめ:

  1. 組み込みの分析ソリューション
  2. 追加でのライセンスを必要としない
  3. 設計/実装もしくは仮想マシン/アプライアンスの展開の必要はありません
  4. XCPのクラスタが成長するのとともに自動的に分析機能もスケールします

Acropolisに組み込まれているためオーバーヘッドは小さく、分散ストレージファブリックを活用できます。

インデックスへ戻る

記事担当者: マーケティング本部 三好哲生 (@Networld_NTNX

Ntc2017_2

今回はデモビデオを見て頂く・・・という記事なのですが、分析ソリューションが組み込まれていて、小さなオーバーヘッドで利用できるということは非常に重要です。

また、Prismの使いやすさは見ていただいて理解頂くのが一番です!ぜひビデオをじっくり御覧ください!

2017/12/22

どうしてNutanix AHV(旧称 : Acropolis Hypervisor)は次世代のハイパーバイザーなのか? パート7 - 俊敏性 (価値創出までの時間)

本記事は[2枚目]Nutanix Advent Calendar 2017への寄稿も兼ねております。是非アドベントカレンダーの他の記事もお楽しみください。1枚目のNutanix Advent Calendar 2017もどうぞ。

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001 そしてVMware Certified Design Expert (VCDX) #90(2桁)として活動しているJosh Odger氏によるものです。

原文を参照したい方はWhy Nutanix Acropolis hypervisor (AHV) is the next generation hypervisor – Part 7 – Agility (Time to value)をご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報はぜひ以下のポータルから取得ください(初回はID、パスワードの取得が必要です)。

他のハイパーバイザーと管理蘇シューションを展開する時には、一貫したパフォーマンスを保証したり、ダウンタイムのリスクを最小限に留めるためにある一定のデザインのための労力とそれの作業への専門性が必要です。一方で出来る限りの俊敏性も実現しなくてはならないのです。Acropolisの管理には全くと言っていいほど殆ど設計は必要ありません。組み込みの管理ソリューションは最初から最適化されており、高可用性を備えているからです。これによって他のハイパーバイザーとそれに紐づく管理コンポーネントの展開よりもAHVはより早い展開を実現することが可能です。

AHVをベースとした環境の最初のサイズを気にすること無く、すべての管理、分析、データ保護、そしてBC/DRコンポーネントは自動的に展開され、適切にサイジングされます。AHVのクラスタに限った話ではありませんが、管理の設計の労力は必要ありません。これによって非常に早く(大抵の場合、1時間以内で単一ブロックの展開)その価値を発揮し始めます。

AHVは数え切れないほどの機能も提供し、お客様が迅速にソリューションを展開できるようにしています :

  • 組み込みの管理&分析

クラスタの管理に必要なすべてのツールが自動的にクラスタ内に展開されているという事実は、価値提供開始までの時間はこうしたツールの設計/展開/検証のいずれにも依存していないということを意味しています。AHVを管理するためのクライアントをインストールするという必要性もありません。単にウェブブラウザでアクセスすれば良くなっています。

  • 組み込みのセキュリティ/コンプライアンス監査による、出荷時からの要塞化構成

最初から要塞化されていることで、実装フェーズでセキュリティが崩壊してしまうというリスクを排除することができます。それと同時に、自動化された監査によって、普段の運用の中でセキュリティの設定を変更してしまうというようなことがあったとしてもそうして変更されてしまった設定はセキュリティプロファイルで決められているものに戻されます。

  • インテリジェントなクローン作成

分散ストレージファブリックとの統合により、AHVはほとんど一瞬で仮想マシンのクローンを行うことができます。この機能は仮想マシンの電源の状態には関係ありません。ですから、他のハイパーバイザーのように仮想マシンの電源がオフでないといけないというような制限はないのです。

この機能のデモについてはこちら: Nutanix Acropolis hypervisor acli cloning operations

注意: クローンについてはPrismもしくはacli(Acropolis CLI)で行えます

まとめ:

  1. 最小限の設計/実装の労力でAHVは管理することができます
  2. マルチクラスタの一元管理が必要な場合、単一の仮想マシン(Prism Central)のみが必要となり、これは仮想アプライアンスとして展開できます
  3. 分析、データ保護、レプリケーション、管理の高可用性化のための追加アプライアンス/コンポーネントは必要ありません
  4. 適切なAcropolisプラットフォームの展開に何かに特化した専門家が必要になることはありません

インデックスへ戻る

記事担当者: マーケティング本部 三好哲生 (@Networld_NTNX

Ntc2017_2

さて、パート7は少し短めです。ですが、ビジネスにおいて最も効果を発揮する部分もここでしょう。数週間から数ヶ月掛けてインフラを展開するということも以前は非常に多かったのですが、Nutanixに関して言えば当社のSEがご支援に入って、一週間以上に渡って作業するということは(ハードウェアの設置やNutanix以外の部分を除くと)まずありません。

つまり購入して、すぐにその価値を発揮し始めるNutanixを採用することは投資回収期間を大幅に縮めることにつながります。(もちろん、更にソフトウェアアップグレードでその価値が継続的に上がっていくということも!)

長かったシリーズもあと2つになりましたが、後2日おつきあいお願い致します。

2017/12/21

どうしてNutanix AHV(旧称 : Acropolis Hypervisor)は次世代のハイパーバイザーなのか? パート6 - 性能

本記事は[2枚目]Nutanix Advent Calendar 2017への寄稿も兼ねております。是非アドベントカレンダーの他の記事もお楽しみください。1枚目のNutanix Advent Calendar 2017もどうぞ。

本記事の原文はもともとNutanix社のStaff Solution Architectで、Nutanix Platform Expert (NPX) #001 そしてVMware Certified Design Expert (VCDX) #90(2桁)として活動しているJosh Odger氏によるものです。

原文を参照したい方はWhy Nutanix Acropolis hypervisor (AHV) is the next generation hypervisor – Part 6 – Performanceをご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報はぜひ以下のポータルから取得ください(初回はID、パスワードの取得が必要です)。

性能についてお話をする際に、4KのI/Oベンチマークを使うなど、非現実的なスピードを比較対象として並べていくのは非常に容易いことです。ですが、すべての本当のデータセンタの技術のエキスパートが知っているとおり、IOPSはパズルの本の小さなピースでしかないのです。私の意見では、IOPSはこれほどまでに注目をあびるべきではないほどの注目を浴びています。これについてはこちらの記事でお話をしています。ピークパフォーマンス vs 実際の世界のパフォーマンス

性能についてお話をする際に、私は管理コンポーネント、アプリケーション/仮想マシン、分析、データの信頼性などのすべてとその間のものも含めてお話をしていきます。

さて、AHV(旧称: Acropolis Hypervisor)を動作させているNutanix XCPが全てのコンポーネントにおいて一貫した高いパフォーマンスを保証している幾つかの例を見ていきましょう:

管理の性能:

Acropolisの管理レイヤにはAcropolis Operating System(以前のNOS)、Prism (HTML5のGUI)、そしてAHVの管理スタックが含まれており、「マスタ」と「スレーブ」のインスタンスからなっています。

このアーキテクチャは全てのCVMが動作し、各々平等にプラットフォームの全てのエリアで継続的にスムースに動作することができるように、保証しています。つまり、中心となるアプリケーションやデータベースやコンポーネントは存在せず、それがボトルネックになることもないのです。完全に分散させることこそがウェブスケールプラットフォームを提供する鍵です。

Fig336

おのののコントローラー仮想マシン(CVM)はローカルノードの管理に必要なコンポーネントと分散ストレージファブリックと管理タスクに貢献するためのコンポーネントを動作させています。

例 : 1つのAcropolis「マスタ」が居ますが、これは単一障害点でもパフォーマンスのボトルネックでもありません。

Acropolis マスタ は以下のタスクを担当します:

  1. HAのスケジューラー
  2. ネットワークコントローラー
  3. タスクの実行者
  4. ハイパーバイザーからのローカルの統計を収集/提出
  5. 仮想マシンのコンソール接続のVNCプロキシ
  6. IPアドレスの管理

各々のAcropolis スレーブ は以下のタスクを担当します:

  1. ハイパーバイザーからのローカルの統計を収集/提出
  2. 仮想マシンのコンソール接続のVNCプロキシ

マスタであるか、スレーブであるかにかかわらず、各々のCVMは2つの最も重たいタスクを実行しています。ハイパーバイザーからのローカルの統計を収集/提出と利用している場合は仮想マシンのコンソールの接続です。

初めから分散して設計されているため、XCPのプラットフォームは一貫した高いパフォーマンスを達成できています。中央の、例えば中心となる管理仮想マシンとそれに紐付いたデータベースサーバへ統計情報を送信することはボトルネックになりえますが、何らかの形でのアプリケーションレベルのHA(例 : SQL Aways on Availability Group)が導入されていない場合、これは単一障害点にもなりうるため、殆どのお客様でこれは受け入れがたい状態です。

Acropolisマスタが行っている役割はHAのスケジューラーやネットワークコントローラー、IPアドレス管理、タスク実行者など、全て軽量なタスクです。

HAスケジューラータスクはノード障害時にしかアクティブにならないタスクで、マスタにとってのオーバーヘッドは非常に小さいものです。ネットワークコントローラーのタスクは新たなVLANを構成する際などにしか利用されません。タスクの実行は全てのCVMで実行されている分散されたすべてのタスクを継続的に監視するシンプルなものです。IPアドレスの管理は基本的にはDHCPのサービスで、これも非常に小さなオーバーヘッドです。

パート8で、Acropolis Analyticsについて更に詳しくお話します。

データローカリティ

データローカリティはXCPの他にはない機能で、新しいI/Oは仮想マシンが動作しているローカルノードとクラスタ内の他のノードにレプリケーションされて書き込まれるというものです。データローカリティは次回以降のReadのI/Oがネットワークを経由して転送され、リモートのコントローラーを利用するという必要性を排除します。

仮想マシンがクラスタ内を移動する場合には、WriteのI/Oは常にローカルに書き込まれるため、リモートからのリードはリモートデータのReadが必要な場合にのみ発生します。もしもデータがリモートに有り、その先アクセスされないのであればリモートのI/Oは発生しません。結果として大抵の場合、90%以上のI/Oがローカルから提供されることになります。

現在、うまく設計された10Gbのネットワークでは帯域とレイテンシの問題はさほど問題にならないかもしれませんが、フラッシュのパフォーマンスが幾何級数的に向上していくにつれ、ネットワークは非常に高価な40Gb(もしくはそれ以上の)のネットワークへの移行なくしては簡単に大きなボトルネックとなります。データローカリティは大部分のRead I/Oをローカルから提供し、Writeのコピーのうちの一つをローカルでさばくことによってWrite I/Oからのネットワークのオーバーヘッドを減らすことでネットワークへの依存関係を最小化することに役立ちます。ですから、ローカリティはお客様がパフォーマンスに妥協すること無くより低コストなネットワークを利用することを可能にするのです。

データローカリティはサポートされている全てのハイパーバイザーで動作しますが、AHVは他にはないデータアウェアな仮想マシンの配置をサポートしています : 仮想マシンは障害時やメンテナンス時に仮想マシンのデータのローカルデータの割合が最も高いノードで、つまりリモートのI/Oの可能性が最も低くなるノードで電源が入りそれぞれの仮想マシンのI/Oのオーバーヘッドが低くなります。

さらに、データローカリティはハイパーバイザーや仮想マシンの統計データなどの分析のためのデータの収集についても適用されます。結果として統計データはローカルに書き込まれ2つ目(もしくはRF3が設定されている場合には3番目も)はリモートに書き込まれます。これはつまり、統計データ、非常に膨大にもなりうるデータが分散ファイルシステムとクラスタに有りうる限りの最小限の影響しか与えないということも意味しています。

まとめ:

  1. クラスタとともに管理コンポーネントも拡張され、一貫したパフォーマンスを保証する
  2. データローカリティがデータがコンピューティング(仮想マシン)とデータを可能な限り近くにあることを保証する
  3. データの場所をベースとしたインテリジェントな仮想マシンの配置
  4. 全てのNutanixコントローラー仮想マシンはチーム(ペアではない)で動作し、クラスタ内のすべてのコンポーネントとワークロード(仮想マシン)に適切なパフォーマンスを保障

インデックスへ戻る

記事担当者: マーケティング本部 三好哲生 (@Networld_NTNX

Ntc2017_2

さて、皆様の大好きなパフォーマンスに関連する記事になりました。XCPという名前が多用されているとおり、記事が古いので現在のAHVはこれはさらに先を行っています。

仮想マシンの配置はよりインテリジェントなものとなり、vSphereでいうDRSに相当する動的なものになっていますし、AHV Turboモードによって、ハイパーバイザーを通過する際に発生するオーバーヘッドもNutanixにとっては過去のものになりつつ有ります。

常に進化を続け、購入したノードの性能もソフトウェアで向上していく・・・そうしたNutanixの魅力の一つで外せないのが、この性能で、その中心にあるのがAHVなのです。

2017/12/20

Nutanix Marketplaceはどのように開発者とIT部門を一緒にするのか?

本記事はNutanix社のオフィシャルブログの翻訳版です。原文を参照したい方はHow Nutanix Marketplace Brings Developers and IT Togetherをご確認ください。情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報はぜひ以下のポータルから取得ください(初回はID、パスワードの取得が必要です)。

ニースにおいて、我々は新しいエンタープライズのための先進的なパブリッククラウドのような消費モデルの開発者中心のサービスを発表しました。この記事では開発者とITをより緊密にするという我々の見通しを共有させていただきます。そこではよりよいコラボレーションが育まれ、アプリケーションの俊敏性が増すことになります。これによって組織に劇的な効果が上がることになるでしょう。

開発者とITに共通して必要とされる一般的な目的には市場への迅速な投入の加速、対応時間の短縮、インフラストラクチャの問題の解決に費やす時間の最小化などがあります。しかしながら、開発者は最新の技術の取り込みとオンデマンドなリソースの提供に目を向けがちで、IT側はアプリケーション開発者を手助けする適切なツールの必要性についてはしばし目を伏せがちです。Nutanixは既に管理、アップグレード、ITリソースの拡張のシンプル化などの優れたプラットフォームを提供することで市場への投入時間を短くするという部分については提供をしてきています。しかし開発者は本当にサービスの提供についてNutanixプラットフォームを利用していることの価値を感じているのでしょうか?例えば、コンテナの世界に置ける最先端のイノベーションを活用できているでしょうか?開発の業務に集中できるようにするために自動的にコンテナプラットフォームが展開される様になっているでしょうか?ここにNutanix Marketplaceが登場してきた意味があります。

セルフサービスのちからを与える ー ワンクリック、エニークラウド

Nutanix Marketplaceは我々の2017年Q4でのリリースを予定しています。開発者に一箇所からただのワンクリックで必要なアプリケーションリソースを瞬時に利用開始できるようにします。チームにとっては自身のための特別オーダーメイドとなる様々な展開オプションをユーザーの役割とグループに応じて手に入れることができるようになります。Nutanix Marketplaceからアプリケーションの1つを起動するということは、MarketplaceやまたはカスタムのITが事前に作成した、事前に定義された全体が自動化された手順のフローをインスタンス化するということです。これには仮想マシン、バイナリ、必要なアプリケーション構成が含まれています。これを利用することで開発者は自分自身の必要とするスピードで完全にセルフサービスの状態でサービスを利用することができます。

ITの観点からは、単により良く、迅速なサービスを提供できるということだけに留まりません。アプリケーションはマーケットプレイスからいつも実行可能ですし、再現性があり、数日もしくは数ヶ月のアプリケーションの展開や管理の提携作業を取り除くことになります。すべてのユーザーのアクティビティはエンドツーエンドで追跡可能で、トラブルシューティングや互換性のニーズを解決することにも役立ちます。

マーケットプレイスは我々のオープンなアプローチということを前提に設計されています。開発者はアプリケーションをオンプレミスに、もしくはパブリッククラウドにもしくはその両方にまたがっても展開するということを選択することができます。結果としてITはマルチクラウド戦略を実現しながら、その利用状況やクラウドをまたいだリソースのコストについても可視性を手に入れることができるのです。

Fig319

事前統合のBlueprint

開発者は常に新たな開発、検証、コード投入の新しい考え方やツールを取り込むことで開発のプロセスを改善しようと考えています。これを最終目標として、Nutanixは事前に統合され、検証の済んだblueprintを提供し、ITチームが新しいテクノロジーを自身の環境に迅速に導入できるようにします。これらの事前統合されたblueprintを用いることでIT部門は開発者とともに新しいツールを迅速に試験導入し、共同でそれを利用するかどうかの決断をすることができます。この能力は新しいツールの実権を育むということだけではなく、チーム間のコラボレーションを生み出すことにもなります。

上のスクリーンショットではJenkins、Puppet、Hadoop、そしてMySQLなどの事前統合されたblueprintを確認することができます。NutanixはGoogleとのパートナーシップの中でコンテナのオーケストレーションプラットフォームであるKubenetesのblueprintも提供します。このblueprintではNutanixのオンプレミスとパブリッククラウドの両方へKubernetesクラスタを展開することができます。以下のスクリーンショットでは35ページにも及ぶガイドが必要なほど複雑で、多くのコンポーネントと様々なスクリプトが必要になる厄介な手順がシンプルなblueprintへと翻訳され、マーケットプレイスからワンクリックで利用可能になるということを確認できます。

Fig320

まとめると、Nutanix MarketplaceはIT部門に対し、開発者のための優れたセルフサービス環境を実現するための素晴らしい方法をご提供しながら、より良い統制とマルチクラウド戦略への簡単な道筋を提供します。Nutanixでの自動化についてもっとよく知りたいですか? Nutanix CalmのページまたはCalmの技術メモをダウンロードして下さい。

Forward-Looking Statements Disclaimer

This blog includes forward-looking statements, including but not limited to statements concerning our plans and expectations relating to product features and technology that are under development or in process and capabilities of such product features and technology, our plans to introduce product features in future releases, product performance, competitive position and potential market opportunities. These forward-looking statements are not historical facts, and instead are based on our current expectations, estimates, opinions and beliefs. The accuracy of such forward-looking statements depends upon future events, and involves risks, uncertainties and other factors beyond our control that may cause these statements to be inaccurate and cause our actual results, performance or achievements to differ materially and adversely from those anticipated or implied by such statements, including, among others: failure to develop, or unexpected difficulties or delays in developing, new product features or technology on a timely or cost-effective basis; delays in or lack of customer or market acceptance of our new product features or technology; the introduction, or acceleration of adoption of, competing solutions, including public cloud infrastructure; a shift in industry or competitive dynamics or customer demand; and other risks detailed in our Form 10-K for the fiscal year ended July 31, 2017, filed with the Securities and Exchange Commission. These forward-looking statements speak only as of the date of this presentation and, except as required by law, we assume no obligation to update forward-looking statements to reflect actual results or subsequent events or circumstances.

© 2017 Nutanix, Inc. All rights reserved. Nutanix, AHV, Acropolis Compute Cloud, and the Nutanix logo are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. All other brand names mentioned herein are for identification purposes only and may be the trademarks of their respective holder(s).

記事担当者: マーケティング本部 三好哲生 (@Networld_NTNX

Ntc2017_2

今回もニースで発表になった内容の記事となります。Nutanix Calmはマルチクラウド環境に置けるオーケストレーションを実現するのみならず、スケールアウト、アップグレードなどのアプリケーションライフサイクル全体をコントロールする意欲的なプラットフォームです。

このCalmを最も簡単に利用できるようにするのがこのNutanix Marketplaceです。ワンクリックとある通り、Nutanixの上にこのマーケットプレイスのアプリケーションを展開するのは本当に簡単で、新しい技術を少し試してみようというところから、その先に本格的に導入しようという場合、そしてその環境をパブリッククラウドへと移行させようという場合、様々なライフサイクルの局面で利用することができます。

自動化って・・・開発者のものだよねもしくはDev/Opsだよね、というちょっと大変そうな道ではなく、ワンクリックで簡単な道を用意してくれています。閉ざされた自動化が少しでも開ければと思い、私も期待しています。登場が待ちきれません。(翻訳時には登場が待ちきれませんでしたが、なんとリリースされています!)