*Nutanix Feed

2019/04/18

Nutanix Files 3.5 の新機能~File Analytics(Tech Preview) について(インストール編)~

今回は、やってみたシリーズとして、Nutanix Files 3.5 で追加された File Analytics について試しに導入してみましたので、その内容をご紹介いたします。

※タイトルにもありますように、File Analytics は現時点ではTech Preview の位置づけの機能になります。Nutanix からのサポートも得られません。また、今後GA された際にはご紹介する内容と異なる可能性がある点、予めご了承ください。

それでは、ここからは内容に入っていきます。

File Analytics(日本語では ファイル分析)機能についてですが、これはNutanix Files によって提供されるファイルサーバー内のファイルへの①操作ログと②ファイルの内容に関するデータと統計を提供します。

この機能を利用するには、FileServer VM のほかに専用の Analytics VM を展開する必要があります。

Analytics VM に関する要件は以下の通りです。
010

※現時点では、AOS 5.10.2.x のみが対応しており、2019/4/16 現在、最新の 5.10.3.x ではお試しいただくことができません。

続いて、展開方法についてお伝えしていきます。

他のNutanix 製品同様、とても簡単です。Prism 上で、”ファイルサーバー”を選択しますと、画面右上に表示される”ファイル分析”と表示されますので、クリックします。

021

事前に、Support Portal より入手しておいたAnalytics VM(2019/4/16 現在 Version 1.0.1) のバイナリをアップロードします(AOSなどのソフトウェア アップグレードする際のイメージです)。

そして、Analytics VM の名前、IPアドレス、サブネットなどのネットワーク情報などを設定し、”展開”を押下し、しばらく待ちますと、Analytics VM の展開が完了します。

002

Analytics VM 展開完了後、タブバーにある”ファイル分析”を押下し、ファイル分析機能を有効にします。022

ウィザードに従い、機能を有効にしますと、設定は完了になります。

006

Prism の”ファイルサーバー”を選択し、タブバーの”ファイル分析”を押下すると、別タブとして、Analytics のUI が表示されます。大きく分けて、『Dashboard』、『Audit Trails』、『Anomalies』の 3つの画面が確認できます。

011

ここまで、Analytics VMの展開までお伝えしましたが、今後、具体的にどんなことができるのか、お伝えできればと思います。

参考ドキュメント:

NUTANIX FILES GUIDE 3.5

FILE ANALYTICS

記事担当者 : SI技術本部 キタガワ @Networld_NTNX

2019/04/03

セルフサービスの権限:セルフサービスリストア

本記事の原文は記事の原文はNutanix Community Blog の翻訳になります。原文を参照したい方は、The Power of Self Service: Self Service Restore をご確認ください。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)

 

--------

誤ってファイルを削除したり、重要な構成ファイルを上書きしたりするなどの問題からの復旧は、とりわけ大企業のストレージまたは仮想化の管理者である場合、非常に面倒です。 ほとんどの場合、これにはバックアップまたは仮想化管理の支援が必要になります。バックアップまたは仮想化管理は、あなたと同じチームで作業することすらできず、応答を得るまでに数時間または数日かかることがあります。

 

これが一般的に機能する方法は、アプリケーション管理者が仮想化管理者にリカバリを要求することで、仮想化管理者は、古いスナップショットを復元し、新しいVMとしてこのスナップショット全体を復元する必要があります。 そして、仮想化管理者はファイルを復元できるようになったアプリケーション管理者にVMレベルのアクセス権を付与します。 アプリ管理者が作業を完了したら、彼は仮想化管理者に復旧が完了し、復元された仮想マシンをリサイクルできることを再度伝えなければなりません。

 

1

 

Nutanix 4.6のリリースにより、アプリケーション管理者はNutanix Self Service Restore(SSR)と呼ばれる強力なセルフサービス機能を通じてファイルを回復することができます。 Nutanix管理者はVMごとにSSRを有効にでき、これにより、信頼するアプリ管理者にセルフサービスの権限を与えることができます。

 

有効にすると、アプリ管理者はVM内からスナップショットを簡単に管理できます。利用可能なスナップショットを一覧表示し、特定のスナップショットをマウントまたはマウント解除します。スナップショットがマウントされると、WindowsゲストOSに新しいドライブとして表示されます。管理者は必要なファイルをコピーアウトしてからスナップショットをアンマウントできます。

2  

 

管理者がマウント解除を忘れた場合、マウントされたスナップショットの輻輳を回避するために24時間後に自動的にクリーンアップされます。 もちろん、管理者はスナップショット履歴を検索する必要がある場合に備えて、複数のスナップショットを同時に自分のVMに接続することができます。

 

セルフサービス機能を使用するには、Nutanixゲストツール(NGT)がゲストOS内にインストールされている必要がありますが、これはコントロールプレーン操作のためにゲストから Nutanix CVM へセキュアに通信したり、ディスク署名のクラッシュのハンドリング、

システム予約パーティションを隠すなどのタスクを担当する、Nutanix製品の新しいコンポーネントです。SSRは、VMware vSphereハイパーバイザーとNutanix AHVハイパーバイザーの両方で完全にサポートされています。

 

今回のリリースのSelf Service Restoreには、いくつかの小さな制限事項があります。

・SSRは、WindowsデスクトップおよびサーバーOS、Windows 7またはWindows 2008 R2以降をサポートしています。

・ベーシックパーティションを作成したディスクはバックアップや復元が可能です(ダイナミックディスクは不可)。

・vSphereスナップショットを持つ仮想マシン(vSphere Deltaディスク)は現時点ではサポートされていません。

 

 

これはほんの始まりに過ぎず、アプリ管理者にさらに多くの機能を提供する有望な方向性を表しています。この機能はもちろん、カタログ管理、オブジェクトレベルの復元、外部のバックアップなどの機能を提供する私たちのパートナーのCommvaultのような、本格的なバックアップソリューションに代わるものではありません。VMとファイルレベルのリストアバックアップオプションを探しているお客様で、特にコストを意識しているSMBとROBOのお客様には、このSSR が適用する場合があります。

 

セルフサービス復元機能が追加されたことで、Nutanixは、コンピューティング、ストレージ、および仮想化機能を提供する唯一のハイパーコンバージドソリューションの価値をさらに高め、アプリケーション管理者自身によるバックアップおよび復元機能も提供します。

 

これ以上のデータ保護や障害復旧関連の機能について質問やフィードバックがある場合は、より多くのニュースを常にチェックし、@ Nutanixまたは私個人的には@ MarkNijmeijerCAにご連絡ください。 また、Nutanix NEXTコミュニティで会話を続けてください。

 

この記事はNutanixのPrincipal Product ManagerであるMark Nijmeijerによって書かれました。

 

--------

今回は少し古い記事ですが、Nutanix Self-Service Restore の記事を翻訳させていただきました。

 

年度初めの4月ということもありますので、Nutanix をこれから始める方向けに、Nutanix の特徴的な機能や、基本的な部分のご紹介も織り交ぜていきたいと思います。

 

なお、本文中に制限事項について記載がありましたが、最新の AOS 5.10.x では、Windows 10 や 最新の Windows Server、CentOS や RHEL などのLinux OS でも SSR 機能をサポートしております。

 

2019年4月現在の具体的な要件や制限事項については、こちらをご参照ください。

 

 

記事担当者 : SI技術本部 キタガワ @Networld_NTNX

2019/03/27

Nutanix VirtIO ハードウェア取り出しの無効化

こんにちは、ネットワールドの海野です。

今日はNutanix VirtIOについて記事を書きました。

Nutanix環境において Windows OSの利用時、右下のタスクトレイから仮想ハードウェアの「取り出し」ができてしまいます。

仮想ハードウェアの「取り出し」を行うと仮想マシンの正常動作に影響が発生しますので、

対策方法をまとめました。

01


前提条件

対象となるWindows仮想マシンが Active Directory へ参加していること。

対応の概要

Active Directory の GPO にてスタートアップスクリプトの作成および適用を実施します。

対象となるWindows仮想マシンで「ハードウェアの取り出し」が無効となったことを確認します。

用意するスクリプト (テキストファイルにコピーして拡張子を.batにします。)

reg.exe add "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Enum\PCI\VEN_1AF4&DEV_1000&SUBSYS_00011AF4&REV_00\3&13c0b0c5&0&18" /v Capabilities /t REG_DWORD /d 2 /f
reg.exe add "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Enum\PCI\VEN_1AF4&DEV_1002&SUBSYS_00051AF4&REV_00\3&13c0b0c5&0&28" /v Capabilities /t REG_DWORD /d 2 /f
reg.exe add "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Enum\PCI\VEN_1AF4&DEV_1004&SUBSYS_00081AF4&REV_00\3&13c0b0c5&0&20" /v Capabilities /t REG_DWORD /d 2 /f

手順 (画像でお楽しみください。)

8

9

10

11

12

これで完了です。


以下、参考情報です。

14

15※この記事の元ネタを書いてくださった William Fulmer 氏に感謝申し上げます。
 元ネタ : WHERE DID I READ THAT ( Removing Nutanix AHV Acropolis HotPlug Devices )

16

17

18

今日はこんなところで。

記事担当者 : SI技術本部 海野 航 (うんの わたる)

2019/03/20

Nutanix Move 3.0(旧Xtract for VM)がGA

本記事の原文は記事の原文はDerek Seaman氏の個人ブログの記事の翻訳ヴァージョンです。原文を参照したい方は、Nutanix Move 3.0 (formerly Xtract for VMs) now GA をご確認ください。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)

 


最新の Nutanix Move 3.0 です。Nutanix Move 3.0とは何でしょうか?Move 3.0は、以前はXtract for VMと呼ばれていた製品の次のメジャーリリースです。 Xtract for VMは、Nutanix AHVハイパーバイザーへのVMの簡単な移行を可能にする無償のNutanix製品です。 VMをAHVに移動するにはさまざまな方法がありますが、Moveは最も優れたツールの1つです。私は無償と言いましたか?はい、言いました。私の顧客の何人かはそれを使用し大きな成功を手に入れました。

 

Move 3.0の新機能:

 ・Move のサービスはDockerisedになり、すべての Moveサービスと MoveエージェントサービスはDockerコンテナとして実行されるようになりました。 アーキテクチャ的には、これは移動を「サービス化」し、サービスをほとんど中断することなく機能を追加/更新する機能を提供するとともに、どこでも移動を実行できる柔軟性を提供するための重要なマイルストーンです。

・移行元としてのHyper-VのGAリリース、ESXiとAWSのソースリストへの追加

・Move のワンクリックアップグレード。 (ダークサイトのサポートが登場)

・UI のステータスアップデートの強化を伴う大規模な VM 移行向けユーザーエクスペリエンスの更なる機能強化

・単一のマイグレーションプラン(* 移行ジョブ)の中に、自動で準備されたソースVM と手動で準備されたソースVMの混在を許可するソースVM の混在モードをサポート

・移行元のESXi上で実行されているLinuxソースVMに対するPEMベースの認証のサポート

・最後に、「Xtract for VM」から「Nutanix Move」へのブランド変更

 

Move 3.0は、移行元がESXi 向けにCentos / RHEL 6.3、Suse Linux Enterprise Server 12、Ubuntu 12.0.4サーバーエディション、Ubuntu 18.0.4サーバーエディションのゲストOSもサポートしています。さらに、移行元が Hyper-V 向けにWindows Server 2019ゲストOSのサポートが追加されました。

 

便利なリンク:

Release Notes
User Guide
Downloadable Bits


記事担当者 : SI技術本部 キタガワ @Networld_NTNX

2019/03/14

Xi Leap - 実証済み、高速かつ効率的

本記事の原文はNuatnix Community に投稿されている Nutanix Leap(旧Xi DR サービス)に関する記事の翻訳です。原文を参照したい方は、Xi Leap - Proven, Fast and Efficient をご確認ください。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


この記事はNutanix のPrincipal Technical Marketing Engineer であるDwayne Lessner氏によって書かれました。

 

「悪魔は細部に宿る」という古いことわざがあります。 あなたが何かを考えてから、より多くの支払いが必要になったり、何かを修正したり、または購入したものがうまく動作しないままだったのなら、痛みを感じていたでしょう。 昨年末、私は目標復旧時点(RPO)の重要性に加え、目標復旧時間(RTO)の提供に関する記事を書きました。 私は、Xi East Regionへ接続し使用しているオンプレミスラボクラスタの技術的な詳細をいくつか共有したいと思いました。フェイルオーバーを行ってもアプリケーションのパフォーマンスを維持し続ける、Xi Leaps SLAのRTOを証明したいです。

 

実証済みの結果

テスト中に達成できたこと:

・1VMあたりのリストア時間が8秒未満

・オンプレミスまたはXiの同じ仮想マシンで同等のパフォーマンス(1分あたり+ 60万トランザクション)を達成

・同じイメージから仮想マシンを作成するとき、NutanixスナップショットはXiへの通信よりも効率的である

 

詳細については、ブログの残りの部分を読み、以下に含まれる3つのビデオをご覧ください。

 

現在の私のラボクラスタでは、フェニックスにある環境で動作しており、パワーオンの流れをテストするのに、さまざまなサービス、Active Directory、Citrix for VDIのフェールオーバーテスト、SQLパフォーマンス、およびさまざまな多層アプリケーションがあります。

1

  

私の Xi Region は、Xi Eastでバージニア州アッシュバーンにあります。アリゾナ州フェニックスからアッシュバーンへの平均的なレイテンシは、Palo Altoが提供するソフトウェアVPNを介したレプリケーションで約58ミリ秒です。 オンプレミスの自動設定で5つの異なるネットワークベンダーをサポートしていますが、これらのデバイスに限定されません。

 

2  

効率的なハードウェアベースのスナップショット

私は、6 vCPU、32 GBのRAM、ストレージとして450GB の使用可能な容量がある8つのvDiskを備えた中規模のSQLサーバーを展開しました。 サーバー上の最初のコピーが複製されたらすぐに、追加の10個のコピーをオンプレミスで複製し、Xi Leapで保護することで、Nutanixスナップショットの効率性を示したかったのです。 以下のビデオは、メタデータがどのように追跡されているのかを示していますが、全体の450 GB×10回を複製している訳ではありません。 Xiテナントにログインするまでに、レプリケーションが完了したことがわかります。 したがって、同じイメージから多数のVMを構築しているのであれば、Xiでネットワークとストレージのコストを全容量分支払う必要はありません。 また、これらはハードウェアベースのスナップショットなので、長いスナップショットチェーンについて心配する必要はなく、手動でそれらをつぶすために時間を費やす必要はありません。

Nutanix hardware based snapshots allow for efficient data transfer for Xi Leap
YouTube: Nutanix hardware based snapshots allow for efficient data transfer for Xi Leap

 

低 RTO

10個のSQL VMが完全にXiに複製されたので、復元にかかる時間を見てみましょう。 200台以上の仮想マシンに障害が発生した場合、完全な復元には約20分かかります。 簡単なフェイルオーバープロセスを見るために以下を見てください。

 

Xi Leap for Fast RTOs (Recovery Time Objective)
YouTube: Xi Leap for Fast RTOs (Recovery Time Objective)

 

上記のビデオは、仮想マシンあたり10秒以内にVMを復元できることを実証できました(ビデオでは仮想マシンあたり7.7秒でした)。復旧のスピードは、オンプレミスとクラウドソリューションで同じイメージフォーマットを使用していることに起因します。同じイメージフォーマットを使用すると、仮想マシンの変換プロセスを経ずに、準備が整ったらオンプレミスに戻ることもでき、オンプレミスに戻る RTO を低減することができます。ビジネスクリティカルなサービスをバックアップし稼働させるという重圧があるとき、同じ管理フレームワークとVMイメージフォーマットを持つことでユーザーエラーを回避するべきです。

 

安定したハイパフォーマンス

XiにはいくつかのちょうどいいサイズのSQL VMがあったので、新しいクラウドストレージ構造を考え出すことを心配することなく、オンプレミスで実行するのと同じようなパフォーマンスを達成する方法を示すことで、復元プロセスを集約したかった。以下のビデオでは、オンプレミスとクラウドで同じデータセンターオペレーティングシステムを使用しているため、パフォーマンスを犠牲にすることなく柔軟性が得られます。

 

3


図1オンプレミスとクラウドでの同様のパフォーマンス

Xi SQL Server Performance
YouTube: Xi SQL Server Performance


 

Xi Leapを使用すると、パフォーマンスを心配することなく、ITスタッフを再トレーニングすることなく、また2つ目のDRデータセンターを維持することなく、ビジネスを迅速に再開および運用することができます。 オンプレミスの利点をすべて維持しながら、ワンクリックでフェイルオーバーを実現します。

 

Disclaimer: This blog may contain links to external websites that are not part of Nutanix.com. Nutanix does not control these sites and disclaims all responsibility for the content or accuracy of any external site. Our decision to link to an external site should not be considered an endorsement of any content on such site.

Photo2019 Nutanix, Inc. All rights reserved. Nutanix, the Nutanix logo and the other Nutanix products and features mentioned herein are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. All other brand names mentioned herein are for identification purposes only and may be the trademarks of their respective holder(s).


記事担当者 : SI技術本部 キタガワ @Networld_NTNX

2019/03/06

Nutanix Files と Nutanix Files Pro ライセンスのクラウドライクな柔軟性

本記事の原文はNutanix Community に投稿されているNutanix Files(旧 Acropolis File Services)の新しいライセンス体系に関する記事の翻訳です。原文を参照したい方は、Cloud Like Flexibility for Nutanix Files and Nutanix Files Pro Licensing をご確認ください。

 

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


この記事は、ストレージサービス担当シニアプロダクトマーケティングマネージャ、Devon Helmsによって執筆されました。

2年足らず前にAcropolis File Services(AFS)を立ち上げて以来、エンドユーザーの採用が急速に進んできました。 私たちは現在、ペタバイト規模のデータを管理している1000近くのお客様を抱えています。 これらのお客様の多くは、レガシーNASソリューションに代わる、スタンドアロンのNASクラスタとしてAFSを展開しています。 これらのお客様は、私たちが過去4年間に渡り行なったエンジニアリング投資より、NAS市場で効果的に競争できるソリューションをもたらしたことに気づかせてくれました。

その結果、昨年11月15日に、Nutanix Files と Files Proを立ち上げました。 Files は、既存のAOSクラスタにNAS機能を追加したいお客様のためのものです。 Files Proは、当社のソリューションを専用のNASクラスタとして展開したいお客様のためのものです。

 

容量ベースのライセンス

Nutanix FilesとNutanix Files Proの両方が、新しい“Used capacity”ベースのライセンス(capacity based licensing)を導入しています。

 

 “Used capacity” とは、管理する容量を指し、ライセンス基準の指標です。一例として、お客様が専用NAS クラスタに 250TB のファイルデータを持っている場合、250TB の Nutanix Files Pro ライセンスを購入します。クラスタの物理容量がより大きい場合でも、お客様は、必要な容量のソフトウェアライセンスを購入するだけで済みます。

 

容量ベースのライセンス構造の利点

 このライセンス方式には、多くの利点があります。主な利点は、数か月あるいは数年使用されないかもしれない容量を事前購入する費用を控除するために、お客様が必要に応じて支払うモデル(pay-as-you-grow)を使用できるようになることです。もう一つの関連する利点は、長期計画の簡素化です。私たちのお客様の多くは、非構造化データが爆発的に増加し、その増加をあらゆるレベルの正確に予測することは困難です。

 

容量ベースライセンスと、Nutanix Filesおよび、Nutanix Files Pro の独自のスケールアップ-スケールアウトアーキテクチャを組み合わせることで、お客様はニーズに合わせて時間の経過とともに簡単かつ柔軟に環境を拡張することができます。

 

AOS を利用するお客様のための Nuatnix Files 無料容量

この新しいライセンスモデルは、まだNutanix Files やNutanix Files Pro を自身の環境に採用していない多くのNutanix のお客様には間違いなく興味を持ってもらえるでしょう。 現在、Nutanix AOS クラスタごとに1 TBのNutanix Files 容量を無償提供しています。 この容量により、既存のAOS のお客様は、自分の環境でNutanix Files をテストし、このシンプルで柔軟でインテリジェントなファイルストレージソリューションの利点を直接体験することができます。

 

Nutanix Files と Nutanix Files Pro の利点

容量ベースのライセンスは、Nutanix Files および、Nutanix Files Pro が提供する多くの新機能の一つに過ぎません。3月のリリースでは、エンドユーザがどのようにデータにアクセスしているのか見通したり、潜在的な脅威を可視化したりする新しいFile Analytics 機能を提供するでしょう。また、新しいNFSv3 とマルチプロトコル機能をリリースし、お客様の様々なアーキテクチャが混在した環境に柔軟性を提供するでしょう。

あなたは http://nutanix.com/files でファイルストレージにおけるこれらの大きな進歩のすべてについて学ぶことができます。



C_3 2019 Nutanix, Inc. All rights reserved. Nutanix, the Nutanix logo and the other Nutanix products and features mentioned herein are registered trademarks or trademarks of Nutanix, Inc. in the United States and other countries. All other brand names mentioned herein are for identification purposes only and may be the trademarks of their respective holder(s).


記事担当者 : SI技術本部 キタガワ @Networld_NTNX

2019/02/27

最小限のダウンタイムでVMをAHVへ移行

本記事の原文はNutanix Communityに投稿されているNutanix Move(旧称 Xtract )に関する記事の翻訳です。原文を参照したい方は、 Migrate your VMs to AHV with Minimum Downtime をご確認ください。

 

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


 

この投稿は、Nutanix Technology Champion(NTC)のMattias Sundling氏(データセンターおよびクラウドサービス部門長、A3)によって執筆されました。

 

サービスプロバイダーになることで、オンプレミスの仮想環境を実行しているお客様に常にサービスを提供できます。 それらの大部分は、VMware ESXiおよびMicrosoft Hyper-V上で実行されています。VMの可用性と私たちが費やす時間への影響を最小限に抑えながら、これらのワークロードをパブリッククラウドサービスに移動するプロセスを合理化するために、最初のベータ版以来Nutanix Move(以前はXtractと呼ばれていました)を使用しています。 リリースされたのは1年以上前のことで、VMware ESXiをサポートしていました。 だから、私たちはHyper-VをサポートするMoveのベータプログラムがあることにとても興奮していました。

 

ターゲット(移行先)のAHVクラスターに仮想アプライアンスとして実行される新しいバージョン(のMove)をインストールし、それをお客様のHyper-Vホストに接続しました。 その後、Nutanix Moveはすべてのホストからインベントリを取得し、選択したVMの Migration Plan(*1)を作成することを可能にします。 管理者/ルート資格情報を入力することで、すべてのゲストOSの準備が自動的に行われ(Nutanix VirtIOドライバのインストールとIP設定のエクスポート)、ネットワークマッピングの入力も求められます。

*1 移行ジョブのようなもの

 

Move001

 

Migration Planを構成したら、ユーザーに影響を与えずに、選択したVMのseeding the data(データの初期同期)を開始できます。 最初の同期が完了すると、VMのサイズによっては時間がかかることがありますが、進行中の同期は10分ごとに行われます。 最後のステップは、cutover を行うことで、これは移行元のVMをシャットダウンしてから移行したVMの電源を入れる前に最後のオフライン同期を1回実行することです。

 

このアプローチで気に入っていることの1つは、移行したVMで問題が解決しない場合、非常に良い切り戻すプランがあることです。 仮想NICを有効にしてソースVMの電源を入れるだけで、シャットダウン前の状態に戻ります。

  

VirtIO ドライバを使用して作成されたため、移行されたVM は初めてAHV で起動し、正常に実行されます。まずはDHCP、その後エクスポートされたIP設定が自動的に適用されるため、必要に応じてIPアドレスがMACアドレスを含めて保持されます。

 


YouTube: Nutanix Move Overview in 90 Seconds

私たちは、Nutanixに報告したベータ版のマイナーなバグに気付いただけで、すべての移行は成功したので、結果には満足しました。Nutanix Moveは、Hyper-Vのお客様に多く使用されるだろうし、お客様をレガシー環境から、Nutanix AHV をベースとするパブリッククラウドに移行することを可能にします。

 


この度 Xtract と呼ばれていた、VM の移行ツールの名称が Nutanix Move と呼ばれるようになりました。

これを機に、Nutanix Move に関して、あらためて知りたいという方がいらっしゃいましたら、手前味噌ではありますが、ネットワールドらぼの過去の Xtract 関連記事もあわせてご参照いただければと思います。

 

記事担当者 : SI技術本部 キタガワ @Networld_NTNX

2019/02/20

AHVへのVLAN設定

本記事の原文はであるNutanix Communityに投稿されているAHVのOpen vSwitchの基本に関する記事の翻訳です。

投稿されてから時間はたっていますが、AHVを構成する際にベースとなる構成の為、改めて紹介していきます。

原文を参照したい方はVirtual LANs for your Acropolis Hypervisor Virtual Machinesご確認ください。

情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


784ia358bc964aa457ed

最初の記事ではLoad Balancingを紹介し本日はAHVとController VMのVLAN についてお話をします。

ストレージと管理トラフィックは実際にユーザー仮想マシンのトラフィックを別にしていますが、AHVに関してもこれは例外ではありません。VLANはユーザーVMのタイプ管でのトラフィックの分離を提供するのに便利です。

仮想化において多くのVLANはしばしばトランクされ、仮想マシンによって異なるワークの利用を行います。

Nutanixでは下の図のようにVLANコンフィグレーションでCVMとAHVをデフォルトVLAN(untagged , or Native)VLANに設定する事を推奨しています。

784ia358bc964aa457ed_2

Note:このデフォルト構成のVLANはユーザーVMの為にAHVが101, 102がトランクとして構成されています。

AHVとCVMへのトラフィックはVLAN Tagを構成していませんが、デフォルトの構成のuntagged 通信がAHVとCVM通信に好ましくないケースやセキュリティポシリー上、許可されない場合はVLANTagをホスト、CVMへ次の用に追加する事が出来ます。

785icb9c4d95fb243e72

クラスタ内の全てのAHVホストのbr0へVLANタグを構成する方法です。

全てのホストで以下を実施してTagを追加します。

nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl set port br0 tag=10"
nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl list port br0"

クラスタ内の全てのCVMへVLAN タグを追加する方法です。

全てのホストへ同じように追加します。

nutanix@CVM$ change_cvm_vlan 10

本Tagの構成を実施する場合は一台づつ実施してping等が疎通出来る事を確認して次のホストへ実施という方法を推奨します。

(そのためには一旦クラスタの停止->VLAN追加 ー>ホスト起動)という形が理想です

このデザインではAHVホストとCVMトラフィックはVLAN ID 10のTagが追加されている状態となります。ユーザーVMはaCLIまたはPrismでネットワークの構成を実施します。

CVMのストレージデータと管理トラフィックはサンプルで表示しているVLAN10で通信されます。

ストレージデータと管理トラフィックで分離する必要がある場合は

ネットワークセグメンテーション等を活用して分離する事も可能です。

CVMとAHVホストはUserVMとは別のネットワークで通信が出来るようになっています。

AHVをご利用する際に考慮する項目としてこれまでに、物理スイッチとホストのネットワーク構成

OpenvSwitchの設定、ブリッジの作成に関する説明を記載しておりますので、設定の際に参考頂ければ幸いです。

記事担当者 : SI技術本部 カッシー @Networld_NTNX

2019/02/13

Acropolis Hypervisorのネットワークロードバランス

本記事の原文はであるNutanix Communityに投稿されているAHVのOpen vSwitchの基本に関する記事の翻訳です。

投稿されてから時間はたっていますが、AHVを構成する際にベースとなる構成の為、改めて紹介していきます。

原文を参照したい方はNetwork Load Balancing with Acropolis Hypervisorご確認ください。

情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


763i74215f1c55a62e72_2

Acropolis Networkingの最初の記事でブリッジとbondについてお話ししました。

今回は物理ノードにおける複数のネットワークの利用方法について説明します。

771i19a614e729de5917_2


ブリッジを分けることでCVM通信は10Gbインターフェイスでルートされ、ユーザVMは10Gbか1GbのAdapterを利用してトラフィックが流れます。

OVS bond内におけるロードバランスに対する準備が出来ました。

主に考慮しないといけないのはフォールトトレランスとスループットです。

フォールトトレランスの為には上記の図のように最低でも2つのNICを利用する必要があります。

一度ボンドが2つ以上のネットワークで構成されると、一つのbondで提供されるスループットを管理できるようになります。次の全てのbondモードはフォルトトレランスを実現しています。

このビデオではAcropolis HypervisorとOpenvSwitchにおけるロードバランスの違いを説明しています。是非、nu.schoolを確認してみてくださ。

このビデオには"allssh"などbondの構成に便利なショートカットも紹介しています。


BondモードではBond内のトラフィックは複数の物理インターフェイスで分散されます。

デフォルトのモードはActive-Backupでbond内の1つのActiveリンクのみを利用し他のインターフェイスはActive Linkが落ちるまで利用されません。

BondモードとActive なインターフェイスを確認するには次のコマンドで確認できます。

nutanix@CVM$ ssh root@192.168.5.1 "ovs-appctl bond/show"

デフォルトのコンフィグのActive-Backupです、結果は次のものと近いもにになるでしょう。

---- bond0 ----
bond_mode: active-backup
bond-hash-basis: 0
updelay: 0 ms
downdelay: 0 ms
lacp_status: off

slave eth2: enabled
active slave
may_enable: true

slave eth3: enabled
may_enable: true

Active-Backup

Active-Backup bond モードはシンプルで簡単に上位スイッチに追加の設定なしに接続できる方法です。

サーバ側の全てのVMのトラフィックはBond内の一つActiveなリンクだけを使います。。

全てのBackup linkは利用されないままです。

10Gbの2つのインターフェイスがある場合、最大のスループットは全ての仮想マシンで10Gbpsとなります。

772i377649a697233636_2


Active-backupモードはデフォルトで有効ですが、AHVで次のコマンドを実行し構成する事も出来ます。

nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl set port bond0 bond_mode=active-backup"


Balance-slb

複数の上位スイッチのリンクの利用により帯域幅を有効活用できます。

私たちはこのbalance-slbのモードの利用を推奨します。

このOVSのbalance-slb モードはBond内の全てのリンクを利用し、トラフィックを測定して仮想マシンをトラフィックの多いインターフェイスから少ないインターフェイスに移動させ、bondのリバランス期間が過ぎると、OVSはトラフィックを測定しソースMACハッシュに基づいてトラフィックを分散します。

ソースMACからのトラフィックはBondの利用率を均等にする為、トラフィックの低いインターフェイスへ移動するかもしれません。完全にバランスが取れた状態が常に可能という事ではありません。

ここの仮想マシンのNICはbondの中の一つのインターフェイスを利用します。複数の仮想マシンNICを持つトラフィックはハッシュアルゴリズムに基づきインターフェイス間で分散されます。

結果的にはAHVが10Gbpsのインターフェイスを2つ持っている場合は、AHVは20Gbpsのスループットを利用できるが、VMは10Gbpsのスループットの利用となります。


デフォルトのリバランス間隔は10秒ですが、ソースMACアドレスハッシュの過度は移動を避けるために60秒にする事を推奨しています。

(現在のKBでは60->30となっています。)

私たちはこの構成を2つの上位スイッチとAcropolis Hypervisorで確認しています。

追加のスイッチの構成無しに、スイッチとの相互接続さえ出来ていれば利用可能です。


balance-slbは全てのCluser内の全てのAHVノードで次の通り実行する事で設定可能です。


nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl set port bond0 bond_mode=balance-slb"

nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl set port bond0 other_config:bond-rebalance-interval=60000"

ー>現在はbond-revalance-interval=30000

設定の確認は次のコマンドで可能です。
nutanix@CVM$ ssh root@192.168.5.1 "ovs-appctl bond/show bond0"
---- bond0 ----
bond_mode: balance-slb
bond-hash-basis: 0
updelay: 0 ms
downdelay: 0 ms
next rebalance: 59108 ms
lacp_status: off

slave eth2: enabled
may_enable: true
hash 120: 138065 kB load
hash 182: 20 kB load

slave eth3: enabled
active slave
may_enable: true
hash 27: 0 kB load
hash 31: 20 kB load
hash 104: 1802 kB load
hash 206: 20 kB load


LACP and Link Aggregation

この構成をする場合は十分に検証を行ってください。

それはLACP,balance-tcpは上位のスイッチの構成が必要であり、AHVのノードがスイッチの設定がされていないポートに接続されるとネットワーク接続が無効になるかもしれないからです。

しかし、一つのVMから複数のリンクで構成される上位スイッチに対して最大の帯域幅を利用できることになります。OVSのlink aggregationはLACPとbalance-tcpが必要です。

LACPにより複数リンクの別々の物理スイッチは一つのL2リンクとして表示されます。

トラフィックはトラフィックハッシュアルゴリズムを基にactive-activeに分散んされ、スイッチのマックアドレステーブルに関係なくlinkのメンバーで分散します。

これはuplinkが一つのL2リンクとして表示されるからです。

Link Aggregation , LACP , balance-tcpによりAHVのノードが2つの10Gbpsアダプタを搭載している場合は、一つのVMで20Gbpsの帯域を利用できます。

774iaa103d96e3c9d67d_2

LACP,balance-tcpには次のコマンドを実行します。

また上位スイッチではLACPが必要です。



nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl set port bond0 lacp=active"

nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl set port bond0 bond_mode=balance-tcp"

上位とのLACPネゴシエーションに失敗した場合、デフォルトではbondを無効にしすべてのトラフィックをブロックします。

次のコマンドでLACPのネゴシエーション失敗時、Active-backupへの切り戻しを実施できるようになります。
(こちらの設定を実施時はスイッチ側の設定をこちらのKBに従って設定、確認をしましょう)

nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl set port bond0 other_config:lacp-fallback-ab=true"

Finding the right balance

お客様の仮想化環境要件に合わせて最適なbondモードを選択しましょう。

本記事では簡単な方法から難しい方法までを載せています。

10Gbpsを2つでbondを構成すると以下の通りです。

Active-backup - AHV , VM共に一つのActive-NIC (Switch 設定不要)

balance-slb    -  AHV 20Gbps , VM 10Gbps ( Switch 設定不要)

balance-tcp    -  AHV , VM 20Gbps  ( Switch 設定必要)

記事担当者 : SI技術本部 カッシー @Networld_NTNX

2019/02/06

最大のパフォーマンスをAHVとOpen vSwitchから

本記事の原文はであるNutanix Communityに投稿されているAHVのOpen vSwitchの基本に関する記事の翻訳です。

投稿されてから時間はたっていますが、AHVを構成する際にベースとなる構成の為、改めて紹介していきます。

原文を参照したい方はMaximum Performance from Acropolis Hypervisor and Open vSwitchご確認ください。

情報は原文の投稿時のままの情報ですので、現時点では投稿時の情報と製品とで差異が出ている場合があります。

当社のNutanix社製品についてはこちら。本ブログのNutanix関連記事のまとめページはこちら

ネットワールドのNutanix関連情報は、ぜひ当社のポータルから取得ください。

(初回はID、パスワードの取得が必要です)


763i74215f1c55a62e72

Nutanixではデータネットワークをストレージのバックプレーンとして利用し、次の事がお客様がAHVを利用する上でAHVがデータセンターネットワークに接続するための良い方法なのかを決められる事を目的としています。

いくつかのバックグランドから始めましょう。AHVはOpen vSwitch(OVS)はCVM、HypervisorとゲストVM、物理ネットワークが接続されています。

OVS のサービスは各AHVノードで稼働し、OVSのサービスは自動的に起動します。

このブログはAHVの一部の内容であり、Open vSwitch BridgeとBondsの内容を包括しています。

来週のパートではロードバランス、VLANとAcropolisの管理ネットワークに触れていきますので、是非来週もご覧ください(できれば翻訳しようと考えてます)

OVS内の、bondのポートはAHVホストの物理インターフェイルにありデフォルトではbond0と名前がづけられbr0が作成されます。

(現在の最新のAOS 5.10ではボンド名はbr0-up , Bridge名はbr0となりますのでご注意ください)

ノードのイメージング(初期化)が完了したとは全てのインターフェスは一つのbondへ設定されます。これはFoundation Imagingプロセスの要件となります。

次のダイアグラムはイメージング直後の1ノードのネットワーク構成となります。

763i74215f1c55a62e72_2

次にnu.schoolのVideo(youtube動画)でデフォルトの構成についてもっと多くの事を学ぶとことが出来ます。デフォルトの設定を変更するためのコマンドやacli,cli toolについてのいくつか参考になるものも見つけることが出来るでしょう


YouTube: Tech TopX: AHV Host Networking [Part01]

大事なポイントはNutanixのCVMは10Gbアダプタに設定する事です(今では40Gbもあります)

これで最大のBandwidthと低いレイテンシーの実現をCVMへ提供するのです。それに加えてUser VMによって物理トラフィックを分けたいと思う事もあるかも知れません。

このネットワークを分離する事はセキュリティポリシー、仮想マシンのネットワーク(例えばルーティング、FireWall,ロードバランス)などによって必要になるかもしれません。

これはAHV OVS構成の推奨で1GbのNICを使った新しいブリッジの作成です。

764id82d1e145f720178

推奨の構成は10Gと1Gのインターフェイスを別々のBondへ構成し、CVMとUserVM通信は常に最速のLinkを使います。

ここでは10G(eth2, eth3)はbond0(br0-up)へグループし、CVMとUser VM1 へ

1GのインターフェイスはBond1へグループしUser VM2で利用します。

bond0とbond1はそれぞれブリッジ (br0 , br1)へ追加します。

この構成ではCVMとUser VMは10Gbのインターフェイスを利用し ブリッジ br1はCVMとbr0にいるVMから物理的にネットワークを分ける必要がある仮想マシンの為に利用できるようになります。

Eth0 , Eth1はさらに別のアップリンクのスイッチへ接続して分離する事も出来ます。

2つの上位スイッチはそれぞれのbondのインターフェイスのペアが接続し、bondの中では一つのインターフェイスがアクティブとして動作します。これはデフォルトのActive-Backup モードを利用した際の動作です。

ロードバランスについては次週に記載します。

Nutanix Clusterの各ノードで次を実施し、各Acropolis hostでブリッジbr1を追加、ローカルのAcropolis Hypervisor へはCVMから192.168.5.1 に対して接続できます。

CVMへログインしブリッジ br1を作成】

nutanix@CVM$ ssh root@192.168.5.1 "ovs-vsctl add-br br1"

CVMからeth0 , eth1 をすべてのCVMのデフォルトのbr0から削除します。

これらのインターフェイスはeth2 , eth3をBridgeに残して削除されます。「10g」は全ての10g インターフェイスを指定する事になります。(もちろんeth2,eth3のようなインターフェイス指定も可能です)

【br0へ10Gのみを追加する場合]

nutanix@CVM$ manage_ovs --bridge_name br0 --bond_name bond0 --interfaces 10g update_uplinks

ー>現在のデフォルトの--bond_nameはbr0-upとなります

【br0へeth2,eth3のみを追加する場合]

nutanix@CVM$ manage_ovs --bridge_name br0 --bond_name bond0 --interfaces eth2,eth3 update_uplinks

ー>現在のデフォルトの--bond_nameはbr0-upとなります

eth0とeth1をbr1へ追加する方法、「1g」のインターフェイス指定をすることも可能です

【br0へ1Gのを追加する場合]

nutanix@CVM$ manage_ovs --bridge_name br1 --bond_name bond1 --interfaces 1g update_uplinks

今や、1gbのインターフェイスが存在するbr1が存在しています。

aCLIコマンでUser VM2の為のネットワークを作ることができます。

PrismのGUIからネットワークを確認する際にブリッジ名とネットワーク名は役に立つのでここは名前を解りやすくしましょう

[cvmからbri1へvlan 99を作成、登録するコマンド]

nutanix@cvm$ acli net.create br1_vlan99 vswitch_name=br1 vlan=99

これで一つのAHVとCVMが10Gを通して接続する事が出来るようになり、User VMは10G か1Gかに接続する事が出来るようになりした。上にのせているyoutubeも参考になるので、ご参照ください。

 

ここでさらに便利なコマンドをご紹介!

ブリッジの作成などは全てのCVMに対して実施する必要がありますが、Nutanix Cluster全体のCVMはAHVへコマンドを投げることも出来ます。

全てのCVMへCLIを実施するには allssh、全てのAHVでCLIを実施するにはhostsshです。

この辺りをうまく利用しAHVの管理性を高めてみてはいかがでしょうか

Screenshot_14

記事担当者 : SI技術本部 カッシー @Networld_NTNX

アクセスランキング

お問い合わせ先
ネットワールド ブログ運営事務局
blog.doc-info@networld.co.jp
フォトアルバム