*EMC Feed

2016/11/24

EMC UnityはVeeamファーストで行こう!

今年5月に「EMC VNX/VNXe」の後継として、日本で販売が開始された「EMC Unity」ですが、VMwareのストレージとして既に利用されている方やこれから導入しようと計画している方も多いと思います。そこで、Unityと相性ピッタリのバックアップソフトであるVeeam Backup & Replication (以下、VBR)を一緒に使うと、どのようなメリットがあるのかをご紹介します。


■Unityスナップショットからのリストア

Unity自体にスナップショット機能があり、CIFSのファイルサーバー用途では、WindowsのVSSと連携してファイル単位でのリストアが可能です。しかし、VMwareのデータストアとして利用している場合は、データストア丸ごとのリストアとなってしまい、1つのデータストア上に多数の仮想マシンがある環境では気軽に利用することができません。

Veeam14_7

 

 そんな時に便利なのが、VBRのVeeam Explorer for Storage Snapshotsです。Unityのスナップショットから仮想マシンの中のファイルをリストアすることができます。

Veeam02


Explorerから元の仮想マシンに対して直接リストアすることもできますし、任意の場所にファイルをコピーすることもできます。

Veeam15_3


更に、同様の手順で仮想マシンの中のアプリケーション単位(Active Directory,Exchange,SQL Server,SharePont Server,Oracle)でリストアすることも可能です。

Veeam03_2


例えば、Active Directoryのドメインコントローラの仮想マシンの場合には、ストレージスナップショットからユーザーやグループポリシー、DNSレコードをリストアできます。

Veeam04_3


短い間隔でスナップショットスケジュールの設定をしていれば、より最新のスナップショットデータから簡単にリストアすることができ、同じデータストア上の他の仮想マシンにも影響がないため、気軽にスナップショットを利用できます。


■Unityスナップショットの活用

Veeam Explorer for Storage Snapshotsのメリットは、Unityのスナップショットからのリストアだけではありません。インストタントVMリストア機能と組み合わせて、Unityのスナップショットから仮想マシンを直接起動することも可能です。これにより、仮想マシンに障害が発生した場合でも、リストアするよりも短時間で仮想マシンを立ち上げて、業務を継続することが可能です。

Veeam05


ストレージスナップショットから起動した仮想マシンはVBRのコンソールからStorage vMotionを実行することで、そのまま本番環境として利用することも可能です。

Veeam20_3

 
障害が発生していない場合でもスナップショットから起動した仮想マシンは、本番環境の完全に分離されたコピーになりますので、アプリケーションのインストールやパッチ適用のテスト環境、仮想マシン上で障害が発生している場合には、トラブルシューティング用の環境としての利用など、スナップショットを様々な用途で活用することができます。

最近では、バックアップデータから仮想マシンを直接起動できるバックアップ製品も増えてきていますが、VBRでは2010年にリリースされたバージョン5からインスタントVMリカバリ機能を提供しており、更に他社の上を行くストレージスナップショットからの起動を提供しています。


■Unityのスナップショットと連携したバックアップ

スナップショットは便利な機能ですが、ストレージ筐体そのものに障害が発生した場合には、全てのデータが消えてしまいます。そのため、別の媒体にデータを保存する”バックアップ”を行うことが重要ですが、バックアップにおいてもUnityにVBRを組み合わせるメリットがあります。

それは、Unityのスナップショットと連携してバックアップができることです。他社の仮想環境用のバックアップソフトでもUnity上の仮想マシンをバックアップすることはできますが、他社製品はストレージがUnityかどうかは見ていません。どのストレージを使っていても全て同じです。

しかし、VBRはデータストアがUnityのストレージであることを理解し、vSphereのスナップショットだけでなく、Unityのスナップショットと連携してバックアップをしてくれます。vSphereのスナップショットだけの場合、仮想マシンの容量が大きく、バックアップ時間がかかるケースや、バックアップ中に仮想マシンへの変更が多いケースでは、デルタファイル(Redoファイル)の肥大化やスナップショット削除時のマージ処理で問題が起きる可能性がありますが、Unityのスナップショットと組み合わせれば、このような問題を解決することができます。

バックアップジョブの設定もチェックを付けるだけです(デフォルトでチェックが付いています)ので、意識することなく簡単にストレージスナップショットと連携してのバックアップが可能です。

Veeam19_2

※Unityの接続(FC,iSCSI,NFS)にあわせて、VBRのサーバがUnityのストレージにアクセスできるようにUnity側やVBRのOS側の設定は必要になりますので、ご注意ください。

■どうやってUnityVeeamを組み合わせるの?

Unityと連携するには設定が難しいのでは?と思う方もいるかもしれませが、設定ウィザードに従い、Unityを登録するだけでVBRが自動的にストレージを検出してくれます。ウィザードの流れを見ていきましょう。

 ①[EMC]を選択します。

Veeam17_2


②[Unity]を選択します。

Veeam08_3

 
③Unity管理用のホスト名かIPアドレスを入力します。

Veeam09_2


④Unityの認証情報を入力します。

Veeam10_2


⑤自動でUnityが使用しているプロトコルを認識し、プロトコルにチェックが付きます。

Veeam11_2


⑥Unityの情報がサマリーで表示されますので、Finishで完了です。

Veeam12_2


⑦Unityの作成済みスナップショットと仮想マシンが表示されます。

Veeam13_3

このように簡単にUnityを登録できますが、vSphereとUnity、Veeamと複数の製品が絡むため不安だという方は、弊社の導入サービスをご利用いただければ、vSphere・Unity・VBR全て弊社で設定させていただきますので、ご安心ください!
http://www.networld.co.jp/support/introduction/


ご紹介した全ての機能はUnityだけでなく、VNXやVNXeでも利用できますので、VNX/VNXeを既にご利用の方は今からでも遅くありません。今のうちに、VBRを導入しておけば、何年後かにVNX/VNXeをUnityにリプレースする際にも、引き続き、VBRを利用することが可能です。

VMware環境でEMCストレージをご使用の際には、Veeamを真っ先に思い出していただければ幸いです。

 担当:臼井

2016/11/07

DataDomainデータ移行の基礎

1_2

2_3

3_2

4_3

5_2

6_2

7

8

9

10

11

12

13

14

15_2

16

17_2

18


2016/05/03

★Unity&Unity VSAリリース★

皆さんこんにちは!

とりあえず検証してみた!シリーズ」のニュータイプ 渡会です。

現在私はEMC World 2016 In Las Vegasにきています!

そして!アメリカ時間201652日!

日本時間53日(おそらく)についに待ちに待った

Unity

001

002

003

がリリースされました!!!パチパチパチパチパチパチパチパチ

Unityは!

UnityとはVNX(色々出来るけど複雑)とVNXe(簡単だけど機能制限有り)といった2種類のストレージのいいとこ取りをした製品となっています。

Unityのコンセプトはずばり!

              ・シンプル

              ・モダン

              ・柔軟

              ・安価

4コンセプト製品となります。

Unityは現在のVNXe3200/VNX5200VNX5800までのパフォーマンスレンジをカバーしています。

しかし値段はハイブリッドの最小構成で10000ドル前後から購入可能となりそうです。

これだけ安価にもかかわらずハイパフォーマンスを提供できるすばらしいストレージがリリースされました!

※詳細な価格に関しては「emc-info@networld.co.jp」まで!

 

そしてUnityには同時に

Unity Virtual Storage AplianceUnity VSA

がリリースされました。

 

Unity VSAとは!

Unity Virtual Storage Aplianceのことでこの製品はESXサーバ上で稼動するUnityとなっています。

EMCさんは昨今ストレージをどんどんSoftware-Defined-Storage(SDS)化をしておりついにミッドレンジストレージも仮想化されました!!

(以前にIsilonVirtual Editionも記載しているのでよければぜひお読みください)

URLhttp://blogs.networld.co.jp/main/2016/02/isilonsd-edge-04df.html

 

さてインストール前にUnity VSAの機能紹介を行います。

まずはUnityUnity VSAの機能比較を以下表にまとめます。

 

機能

UnityVSA

Unity Hardware

SMB

NFS

iSCSI

FAST VP

Sasynchronous Unified Replication
(SAN/NASReplication

Unisphere HTML 5 GUI +REST API

Quality of Service(QoS)

Monitoring & Reporting

Thin Provisioning

VVols

FAST Cache

×

Data at Rest Encryption

×

Fibre Channel

×

Synchronous Replication
(SAN Only)

×

 

こちらの表を見ていただいてもわかるとおり物理版・仮想版との差はあまりありません。

そのためこのUnity VSAは今までストレージを置くには小さいかなと思われていた各支店・拠点等に導入しさらに本社・各拠点で相互Replicationを実施しお互いのバックアップデータを持ち合うといった構成も可能となりメリットが出ると感じています。

また機能に差異が無いので機能検証・実環境へのテスト導入に需要が出そうです

 

では次にUnity VSAの制限値を見たいと思います。

 

Unity VSA
(Based on Max License)

vDisk最大使用数

16

vDisk最大容量

50 TB

NAS Server最大作成数

16

ファイルシステム最大サイズ

50 TB

ファイルシステム最大作成数

32

Pool LUN最大作成数

64

スナップショット最大作成数

128

201653日時点

 

またこのUnity VSAに関しては3つのライセンス体系があります。

1.    Community Edition(無償)

2.    Professional Edition(有償)

3.    VVols Edition(有償)

各ライセンスの違いに関しては以下に記載します。

 

Community

Professional

VVols

機能

ALL

VVols Only

ライセンス

Free
(Unlimited)

Subscription

RPQ for VNX2

使用可能容量

4 TB

10/25/50 TB

50 TB

ノード

Single

サポート

Community

EMC(Enhanced)

用途

Non-Production

Production

次にUnity VSAをインストールするための機器仕様を以下に記載します。

ESXサーバ要件

要件

CPU

Xeon E5 Series Dual Core CPU 64-bit x86 Intel 2 GHz+

(or equivalent)

OS

VMware ESXi 5.5(Minimum)

(VMware ESXi6.0 Recommended)

メモリ

Minimum16 GB(ESXi5.5)/Minimum 18 GB(ESXi6.0)

ネットワーク

4×1GbE/4×10GbE(Recommended)

RAIDコントローラ

RAID card 512 MB NV cache, battery backed

(recommended)

Unity VSAの仮想マシン要件を以下に記載します。

仮想マシン要件

要件

vCPUs

2(2GHz+)

メモリ

12 GB

Virtual Network(vNICs)

Management1GbE×1
Data
1GbE×4 or 10GbE×4

System×1

Support Protocols

iSCSI/NFS/CIFS

ここまで各種仕様等を記載しましたがここから実際にインストール手順を記載していきます!

 

Unity VSAのデプロイ★

1       以下URLよりUnity VSAをダウンロードします。

https://www.emc.com/auth/unityvsasoftwaredownload.htm

2       vCenter ServerWeb Client or vSphere Clientでアクセスします。

004

3       vCenterメニューより「OVFテンプレートのデプロイ」を実行します。

005

4       OVFテンプレートのデプロイ」ウィザードが起動するので以下手順に沿って設定を行います。

006

4.1      ソースの選択

ローカルファイルにチェックを入れ参照ボタンをクリックします。

007

[ファイルを開く]画面が表示されるのでダウンロードしたOVAファイルを選択し「開く(O)」ボタンをクリックします。

008

[ソースの選択]画面に戻るので「次へ」ボタンをクリックします。

009

4.2      詳細の確認

セキュリティリスクに関する警告が表示された場合は「追加の構成オプションの承諾」にチェックを入れ「次へ」ボタンをクリックします。

010

4.3      名前およびフォルダの選択

[フォルダまたはデータセンタの選択]欄より仮想マシンを作成するデータセンタまたはフォルダを選択し[名前:]欄に仮想マシン名を入力し「次へ」ボタンをクリックします。

011

4.4      リソースの選択

デプロイされたテンプレートを実行するクラスタ・ホスト・vAppいずれかを選択し「次へ」ボタンをクリックします。

012

4.5      ストレージの選択

Unity VSAを格納するデータストアを選択します。

Unity VSAOS部分を格納するデータストアの選択となります。

※ここで選択するデータストアと実際にデータが格納されるデータストアは分けることが推奨されます。

013

[仮想ディスクフォーマットの選択:]欄より「シックプロビジョニング(Eager Zeroed)」を選択し「次へ」ボタンをクリックします。

※仮想ディスクフォーマットはシックプロビジョニング(Eager Zeroed)が推奨されます。

014

4.6      ネットワークのセットアップ

管理ネットワークとデータネットワークに使用する仮想スイッチを選択し「次へ」ボタンをクリックします。

015

4.7      テンプレートのカスタマイズ

[System Name]Unity VSAに設定するシステム名(ホスト名)を入力します。

016

IPv4 or IPv5を展開しUnity VSAに設定する管理IP情報を入力し「次へ」ボタンをクリックします。

017_2

4.8      終了準備の完了

設定内容の確認をし「デプロイ後にパワーオン」にチェックをし「終了」ボタンをクリックします。

018

5       Web Clientに戻りデプロイが開始されます。

019_2

6       デプロイ完了後自動でUnity VSAが起動するのでコンソールを開き起動完了まで待ちます。

※起動完了後は以下のようにLoginプロンプトが表示されます。

※起動完了まで30分程度かかる場合があります。

020_2

7       以下IDPWでログインします。

IDservice

PWservice

023_2

8       正常にデプロイできたことを確認するため以下コマンドを実行します

svc_diag

9       以下のように「failure」が出力されなければ正常にデプロイ完了です。

024_2

10    データ用ディスクを追加するためUnity VSAを選択し右クリックします。

025_2

11    メニューが表示されるので「設定の編集」をクリックします。

026_2

12    [設定の編集]画面が表示されるので以下手順に従ってディスクを追加します。

027_2

12.1    [新規デバイス]プルダウンメニュより「新規ハードディスク」をクリックします。

028_2

12.2    新規ハードディスクが選択されたことを確認し「追加」ボタンをクリックします。

029_2

12.3    新規ハードディスクが追加されるので展開します。

030_2

12.4    ハードディスクの各項目が表示されるので以下入力し「OK」ボタンをクリックします。

    容量:ディスクとして使用する容量を入力

    場所:使用するデータストアを指定

    ディスクプロビジョニング:シックプロビジョニング(Eager Zeroed

031_2

13    Web Clientに戻り仮想マシンの再構成が開始されるので再構成が完了した時点でデプロイの完了となります。

032_2

以上でUnity VSAのデプロイが完了です!

なんとも簡単に構築できてしまいました。この後はVNXeUnityの構築と同じくUnisphereにアクセスし初回起動ウィザードから構築を行っていきます。

 

今回はUnity VSAのデプロイまでとしたいと思います。

 

次回はUnityUnity VSAで搭載されている目玉機能である以下機能に関して画面を交えながら説明したいと思います。

 ・FAST VP(仮想ストレージアプライアンス版のに階層化が可能!!)

 ・ついに搭載NAS Replication!!

 ・ついに搭載Quota!!

 ・ついに搭載Virtual Data Mover

 ・仮想化環境に最適VVols

 ・他社を追随するファイルシステム縮小

これらに関しては日本帰ってからじっくりと検証したいと思います。


 

 

引き続きEMC Worldで情報収集を行いたいと思います。

EMC Worldでの最新情報に関してはEMC ism 2016で発表させていただきますので是非ご参加お待ちしております。

EMC iSM 2016

EMC WORLD2016@ラスベガスの最新情報をメーカーより先にお届け!!

【来場時アンケートご記入のお客様全員にQUOカード500円分プレゼント!】

↓↓詳細な情報・ご登録はこちらから↓↓

EMC ismhttps://networld.smartseminar.jp/public/seminar/view/625

 

以上

2016/04/27

ネットワールド、Veeam 始めるってよ

 弊社では色々なメーカーのバックアップソフトを扱っておりますが、この度、新たなメーカーのバックアップソフトが加わることになりました。そのメーカーとは Veeam Software です!下記のプレスリリースで発表されています。

https://www.veeam.com/news/veeam-expands-into-japan-to-deliver-availability-for-the-always-on-enterprise.html

そこで、今回はVeeam Softwareとバックアップソフトをご紹介しましょう。

 

①  Veeam Softwareとは

Veeam社の本社はスイスのバールにあり、仮想環境向けデータ保護と監視ツールを提供するソフトウェアベンダーです。2006年の設立から約10年が経ちますが、売り上げと顧客数を急速に伸ばしています。

Veeam01

②  主力製品について

主力製品はデータ保護製品のVeeam Backup & Replicationと監視ツールのVeeam ONEです。また、この2つがセットになったVeeam Availability Suite もあります。

Veeam03

Veeam Backup & Replicationはバージョンアップを重ね、ユーザーが望む多くの機能を実装してきました。そして、今年1月には新バージョンとなる v9 をリリースしています。

Veeam04_3

 

③  特徴的な機能

この製品が他のバックアップソフトと何が違うのかが気になると思います。細かな違いは多々ありますが、特徴的な機能をいくつかご紹介します。

 (1)ストレージ・スナップショットとの統合
vSphereの仮想マシンのバックアップでは、vStorage API for Dada Protection(以下、VADP)を使用しますが、VADPによるスナップショットではバックアップ中の変更量に応じてログファイルのサイズが大きくなっていくため、バックアップ時間が長くなった場合や変更量が多い場合はスナッショット領域が肥大化してしまいます。

また、スナップショットを削除する際にはマージ(結合)処理が伴いますが、ログファイルが大きくなると、マージ処理に時間がかかったり、不安定になることもあります。

Veeam Backup & Replicationでは、この問題を解決するためにストレージ(NetApp,HP StoreVirtual/StoreServ,EMC VNX/VNXe)とのスナップショット連携機能を提供しています。vSphere上でスナップショットを作成した後、ストレージのスナップショットを作成し、すぐにvSphere上のスナップショットを削除することでスナップショットを保持する時間を短くすることができます。

Veeam05

更に、NetAppのストレージの場合、SnapMirror/SnapVaultと連携することが可能で、SnapMirrorのレプリケーション先・SnapVaultのバックアップ先からバックアップすることでプライマリストレージに影響を与えることなくバックアップできます。vSphere のデータストアとしてNetAppを利用している方には最適です。

Veeam06

ちなみに、次期バージョン(9.5)では、Nimble Storageとのストレージ連携ができるようになる予定ですので、ご期待ください。
https://www.veeam.com/blog/integration-nimble-storage-veeam-availability-suite.html

 (2)アプリケーション対応
VADPでのバックアップはエージェントレスでのバックアップになりますが、VeeamBackup & Replicationはアプリケーション(Active Directory,MSSQL,SharePoint,Exchange,Oracle)を意識したバックアップが可能です。他社のバックアップ製品でも同様の機能を提供しているものはありますが、VMware ToolsのVSSに依存していたり、仮想マシンへエージェントのインストールが必要になります。

それに対して、VeeamBackup & Replication VMware ToolsのVSSインテグレーションコンポーネントは使用せず、Veeamが独自実装したMicrosoftのVSSインテグレーションを使用し、エージェントレスでのアプリケーションを意識したバックアップが可能です。 

Veeam07 

また、VADPのバックアップからのアプリケーションのオブジェクト単位のリストアに対応しているバックアップソフトはいくつかありますが、MS SQL Serverについては、テーブル単位のリストアのリストアも可能で、更に他社ではまだ実現できていない?Oracleのリストアにも対応しています。

 (3)重複排除ストレージとの連携
Veeam Backup & Replicationのバックアップデータ先(リポジトリ)としては、Windows・Linux・NAS(CIFS)・テープなど多くの種類に対応していますが、その中でもバックアップのパフォーマンスが良いのが、EMC DataDomainやHP StoreOnceの重複排除ストレージと組み合わせた場合です。

EMC DataDomainやHP StoreOnceをCIFSとして利用しても良いのですが、Data DomainのDD BoostやStoreOnceのCatalystといったソースサイド重複排除機能を利用すれば、プロキシサーバ上で重複排除を行い、重複排除された(最適化された)データのみをバックアップストレージに送信することで、低速リンク経由でもバックアップデバイスへ高速にデータを送信できます。

Veeam09

通常、DD BoostやStoreOnce Catalystを使う場合は専用のPluginを各メーカーのサイトからダウンロードしてインスト-ルする必要がありますが、Veeam Backup & ReplicationはPluginが予めインストールされていますので、すぐに利用することができます。

尚、Data DomainはDDOS 5.4~5.7まで、StoreOnceはOS 3.13.1以降が対応しております。
https://helpcenter.veeam.com/backup/vsphere/system_requirements.html#target

 (4)セルフサービス機能

日々のバックアップは管理者がスケジュールでバックアップしていても、仮想マシンやその中のファイルをリストアすることになった場合、ユーザーが管理者に連絡してリストアしてもらうのは、管理者・ユーザーのどちらにとっても手間のかかる作業です。

Veeam Backup & ReplicationはEnterprise Managerでのセルフサービスによるリストア機能を提供しています。セルフサービスによりユーザーは専用のリストアポータルサイトにアクセスすることで、仮想マシン単位・ファイル単位・アプリケーション単位のリストアが可能になり、管理者・ユーザー両者の負荷を軽減させることができます。

Veeam10

 

④  価格体系

ライセンスはCPUソケット単位の課金でStandard/Enterprise/Enterprise Plusの3つのエディションと小規模環境向け(6ソケットまで)のEssentialsがあります。エディションによって使える機能が異なり、例えば、前述のストレージ連携をする場合は、Enterprise Plusが必要になります。

※エディション比較表

https://www.veeam.com/jp/backup-version-standard-enterprise-editions-comparison.html


以上、今回は簡単にご紹介させていただきましたが、他にも色々な魅力的な機能がありますので、仮想環境のバックアップにお悩みの方やVeeam製品が気になって夜も眠れない方は、下記までお気軽にお問合せください。

Email :veeam-info@networld.co.jpPropartner_logo_distr_img

担当:臼井

2016/04/12

ついに日本国内リリースされたVxRAIL【セットアップ編】

 こんにちは、石塚です。VxRail国内リリースから1か月が経ちましたが、リリース直後から多くのお客様からお問い合わせを頂いています。 やはりハイパーコンバージドは注目株なのは間違いありませんね。

 

 今回も前回に引き続きVxRailについてご紹介したいと思います。今回取り上げるテーマは「簡単導入は本当なのか!?」です。 前回のなかでもご紹介しましたが、簡単且つスマートで確実なインストールが可能と謳われています。 しかし、実際にVxRailをまだ見たことの無い方にとっては「本当か?」とか「何をもって簡単と言っているんだ?」などの疑問があるかと思います。 今回は長文にはなってしまうのですが、スクリーンショットを多く使い、「この記事さえ読めば誰でもVxRailを構築できる」と言うレベルを目指してご紹介したいと思います。

 

作業の前に準備するもの

 イキナリ箱を開けても何となーく導入できるぐらい簡単なのですが、クッキング番組のようにまずは予め準備頂きたいものをご説明します。

 まずはハードウェアとして準備頂くもののリストです。

  1. VxRail(1箱にアプライアンス本体、電源ケーブル、ベゼルがまとめられています)
  2. 10Gbスイッチ(アプライアンス毎に8つのポートが必要です)
  3. 10Gbスイッチに適合したケーブル×8つ
  4. 200V電源ポート×2つ
  5. Windows PC(ブラウザとしてFirefoxもしくはChromeをインストール済み)

 

 ここでポイントになるのは10Gbスイッチです。 VMware Virtual SANの場合、強い推奨となっている10Gbスイッチですが、VxRailの場合は各ノードごとに搭載されている10Gbポート×2つで全てのデータ通信を行うので「10Gbスイッチは必須」になっています。 例外的にVxRail60だけは1Gb×4つで構成されています。 また、この10Gbスイッチの構成には必ず以下の構成をお願いしています。

  • Default VLANを構成して下さい(恒久的に利用します)
  • 全てのノード間の管理セグメントにはマルチキャスト通信が必要です
  • 全てのノード間のVSANセグメントにはマルチキャスト通信が必要です

 上記3点はアプライアンスの増設時に追加されるアプライアンスを検出するためと、VSANの要件になっています。 EMC社が提供しているVDX6740B(Brocade OEMの10Gbスイッチ)については、細かい導入ガイドがあり、サンプル構成ファイルもあるのでこちらを参照すると分かりやすいかと思います。 この資料はEVO:RAILシリーズのころのものですが、VxRailでも同様なのでご安心下さい。 VDXであれば10Gbスイッチも含めて一元保守になりますね。 また、導入手順書を作成するツール(SolveDesktop)にはCisco Nexusについての構成も同様に構成方法が掲載されています。

01_2

 SFP+モデルの場合のケーブルの種類ですが、これは接続する10Gbスイッチ側の要件を確認して準備下さい。 VxRailはアクティブケーブルでもパッシブケーブルでもサポートされています。 ※VDXをお使いになられる場合はアクティブケーブルになります。

 続いてご質問の多い電源仕様です。 大容量メモリを搭載した4つのサーバが動いていますので、現時点では200Vが必要になっています。 これもVxRail60だけは例外的に100Vでもサポートされています。

 環境的な最後の準備はセットアップするWindows PCについてです。 ブラウザとしてFirefoxもしくはChromeを準備して下さい。Internet Exploreでは正常に実行できないことがあります。 VxRailの工場出荷時のIPアドレスは192.168.10.200になっています。同セグメントが存在している場合はIPが重複しないか確認をして下さい。また、デフォルトのIPに接続し、そして実運用のIPへそのまま接続することになるので、セットアップするWindows PCには実運用のIPアドレスに疎通可能なIPアドレスと、VxRail工場出荷デフォルトIPに接続可能なIPアドレス(例えば192.168.10.210など)の両方のIPアドレスを設定して下さい。

02

 上記の例では実運用セグメントのIPとして10.10.50.101/16が設定されていて、セットアップ用セグメントのIPとして192.168.10.210/24を割り当てています。

 続いて、準備するパラメータについては以下の通りです。

<システムパラメータ>

  1. NTPサーバ
  2. DNSサーバ
  3. オプション)Active Directory情報(ドメイン名, ユーザ名, パスワード)
  4. オプション)HTTPプロキシ情報(プロキシサーバIPアドレス, ポート番号, ユーザ名, パスワード)

<管理パラメータ>

  1. ESXiのホスト情報(ホスト名(1から始まる通し番号になります))
  2. vCenterホスト名
  3. VxRail Managerのホスト名(VxRailの管理GUIを提供するゲストOSのホスト名)
  4. ESXiの管理IPアドレス(4つ以上の通し番号)
  5. vCenterのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  6. VxRail ManagerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  7. 上記の管理IPセグメントのネットマスク
  8. 同管理IPセグメントのゲートウェイ
  9. ESXiのパスワード
    ※複雑性を求められ、特定の記号(&’”;=`\$)は利用できません。
     また、キーフレーズ及びそれに類するものも利用できません。
     例えば Welc0me1! のような複雑性が必要になります。

 

<vMotionパラメータ>

  1. ESXiのvMotion用IPアドレス(4つ以上の通し番号)
  2. 同vMotionセグメントのネットマスク
  3. 同vMotionセグメントのVLAN ID

 

<Virtual SANパラメータ>

  1. ESXiのVirtual SAN用IPアドレス(4つ以上の通し番号)
  2. 同Virtual SANセグメントのネットマスク
  3. 同Virtual SANセグメントのVLAN ID

 

<仮想マシンネットワークパラメータ>

  1. 仮想マシンネットワーク名(仮想スイッチポートグループ名)
  2. 仮想マシンネットワークのVLAN ID

 

<ソリューションパラメータ>

  1. ログサーバ(vRealize Log Insight(バンドル済み)もしくはSyslog)の選択
  2. ログサーバのホスト名
  3. ログサーバのIPアドレス
  4. VxRail Manager ExtensionのIPアドレス(ハードウェア監視するためのゲストOSのIPアドレス)

 以上が必要になるパラメータの全てです。

 これらを以降で紹介する初期セットアップウィザードで入力するだけで、vSphere、vCenter、仮想スイッチ、vMotion、Virtual SAN、Log Insightなど全ての初期セットアップが完了します。ボタンを押せばあとは15分待つだけです!

それではセットアップ開始!

 必要なハードウェア、10Gbスイッチの構成、パラメータの準備ができたら、あとは箱を開けてセットアップするだけです。このステップでのポイントは電源をノード#4 ⇒ ノード#3 ⇒ ノード#2 ⇒ ノード#1の順番で起動する、と言う流れです。そしてそれぞれのノードは15秒程度の間隔をあけて起動して下さい。あとは5分程度待てばセットアップが開始できるようになります。

 

 まず、初期セットアップ用のIPアドレスである192.168.10.200/24」にブラウザで接続します。

03

 上記のようなウェルカムページが表示されます。注目すべきはこの時点で日本語であることです。 セットアップからしてグラフィカルで、且つ日本語が使えると言うのは管理者様にとって本当に優しいと思います。「開始する」ボタンをクリックして次へ進みます。

04

 毎度おなじみ使用許諾についての条件書が提示されます。 一読して右下の「同意する」をクリックして下さい。

05

 前述の各種準備についての確認ページです。 10Gbスイッチの構成、VLANの構成(管理用のDefault VLAN、vMotion、Virtual SAN各VLAN)が完了していることを確認したらそれぞれのチェックボックスをクリックしてマーキング(例のようにチェックボックスが青く変化します)して、右下の「次へ」ボタンをクリックして下さい。

 

0502

 続いてセットアップの方法を選択します。 通常はウィザードに則ってセットアップすると思いますので、「ステップバイステップ」をクリックします。

06_2

 まずはシステムパラメータを入力します。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<システムパラメータ>

  1. NTPサーバ
  2. DNSサーバ
  3. オプション)Active Directory情報(ドメイン名, ユーザ名, パスワード)
  4. オプション)HTTPプロキシ情報(プロキシサーバIPアドレス, ポート番号, ユーザ名, パスワード)

07_2

 続いて管理パラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 現バージョン(3.0.0)の場合はホスト名はショートネーム(ホスト部)での入力になります。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<管理パラメータ>

  1. ESXiのホスト情報(ホスト名(1から始まる通し番号になります))
  2. vCenterホスト名
  3. VxRail Managerのホスト名(VxRailの管理GUIを提供するゲストOSのホスト名)
  4. ESXiの管理IPアドレス(4つ以上の通し番号)
  5. vCenterのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  6. VxRail ManagerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  7. 上記の管理IPセグメントのネットマスク
  8. 同管理IPセグメントのゲートウェイ
  9. ESXiのパスワード
    ※複雑性を求められます。
     特定の記号( & ’ ” ; = ` \ $ )は利用できません。
     キーフレーズ及びそれに類するものも利用できません。
     上記を踏まえると、例えば Welc0me1! のような複雑性が必要になります。

08

 続いてvMotionパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<vMotionパラメータ>

  1. ESXiのvMotion用IPアドレス(4つ以上の通し番号)
  2. 同vMotionセグメントのネットマスク
  3. 同vMotionセグメントのVLAN ID

 

09

 同様にVirtual SANパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<Virtual SANパラメータ>

  1. ESXiのVirtual SAN用IPアドレス(4つ以上の通し番号)
  2. 同Virtual SANセグメントのネットマスク
  3. 同Virtual SANセグメントのVLAN ID

 

10

 あともう一息です。 今度は仮想マシンネットワークパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 3つ以上のセグメントを構成しておきたい場合はページ下部にある「もう1つ追加」をクリックして必要セグメントを追加登録して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<仮想マシンネットワークパラメータ>

  1. 仮想マシンネットワーク名(仮想スイッチポートグループ名)
  2. 仮想マシンネットワークのVLAN ID

 

11

 入力作業の最後はソリューションパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<ソリューションパラメータ>

  1. ログサーバ(vRealize Log Insight(バンドル済み)もしくはSyslog)の選択
  2. ログサーバのホスト名
  3. ログサーバのIPアドレス
  4. VxRail Manager ExtensionのIPアドレス(ハードウェア監視するためのゲストOSのIPアドレス)

 

12

 全てのページに必要なパラメータを入力したら「検証」ボタンをクリックして正当性を確認します。

 

13

 このようなエラーが表示された場合、該当パラメータを確認したり、環境状態を確認するなどの対処を行って、再度「検証」を行って下さい。 トラブルシューティングの材料としては、左下にある「ログを表示」をクリックするとバックグラウンドで行っている内容(どこに何を行っているか)が分かります。

 

14

 無事、検証がクリアされると「VxRAILの構築」ボタンをクリックしてセットアップを開始します。

 

15

 このページで「構成の開始」ボタンをクリックすることでセットアップが開始されます。 表示されている通り、実運用IPアドレスにリダイレクトされますので、アクセスできる状態が必要になります。(作業前に2つのIPアドレスを設定しているのはこのためです。)

 

16

 現在セットアップしている状況は上記のように把握できます。 セットアップの内容としては以下の通りです。 これら31ステップの作業を全自動で、しかもたったの15分で行っているのですから、これはどう考えても楽チンですよね!

<VxRailの初期セットアップの内容>

  1. Setup password on VxRail Manager VM
  2. Configure VxRail Manager VM Hostname
  3. Install private DNS(dnsmasq) on VxRail Manager VM
  4. Configure private DNS(dnsmasq) on VxRaill Manager VM
  5. Perform vCenter Server first boot configuration
  6. Install private DNS(dnsmasq) on vCenter
  7. Configure private DNS(dnsmasq) on vCenter
  8. Setup management network ESXi hosts
  9. Configure NTP on ESXi Hosts
  10. Configure Syslog in ESXi hosts
  11. Configure Syslog in vCenter
  12. Configure Syslog in VxRail Manager VM
  13. Restart Loudmouth in VxRail Manager VM
  14. Create Service Account on vCenter
  15. Register ESXi hosts with vCenter
  16. Setup ESXi hostname
  17. Create Distributed Switch
  18. Register ESXi hosts with Distributed Switch
  19. Create Distributed Portgroup
  20. Configure ESX Networking
    Management, vMotion, VM networks on vmnic0, and VSAN Networking on vmnic1 in an Active/Standby configuration on a single Standard Switch)
  21. Rename “VM Network” to be “vCenter Server Network”
  22. Remove standard Switch
  23. Setup DNS on ESXi host to use DNS(dnsmasq) on vCenter
  24. Restart Loudmouth on ESXi hosts
  25. Create Storage Policy for VSAN with vCenter
  26. Rename VSAN Datastore from vsanDatastore to MARVIN-Virtual-SAN-Datastore
  27. Set vCenter to auto-start
  28. Enabled Enhanced vMotion Compatibility
  29. Configure ESXi root password
  30. Initialize vCenter licensing ready for Product Activation Code(PAC)
  31. Enable HA

 3分クッキングよろしく、15分経って以下のように完了メッセージが出たら右下の「VXRAILの管理」ボタンをクリックして下さい。

17 15分待てば出来上がり!

 

 VxRail Managerと呼ばれている統合管理GUIのログイン画面が表示されます。 ここでは管理者アカウント(administrator@vsphere.local)と先に入力したvCenterへのパスワードを入力して「認証」ボタンをクリックして下さい。

18 まずは administrator@vsphere.local でログインします

 

 色々触って確認したいところですが、最後にVxRail ManagerとVxRail Manager Extensionを連携させる儀式が残っています。 右側にあるメニュー一覧から「EXT」をクリックし、続いて右下にある「VXRAIL MANAGER EXTENSION」ボタンをクリックして下さい。

 

19 もう1ステップだけセットアップが残ってます。

 まず、毎度おなじみ使用許諾が表示されるので、一読して「同意する」ボタンをクリックして下さい。

 

20 毎度おなじみ使用許諾画面

 

 

 続いて中央に見えている「これで完了です!」ボタンをクリックして下さい。

 

21 ここでも日本語表示が当たり前。

 物理的な管理及び、メーカサポートとの連携のためのVxRail Manager Extensionを構成するためのパラメータを入力します。

 

22

<VxRail Manager Extensionパラメータ>

  1. vCenter IPアドレス
  2. DNSサーバ情報(オプション)
    ※オプションとなっていますが、インターネット連係が必要なので
     管理ネットワーク上のDNSサーバを指定して下さい
  3. vCenterのrootパスワード
  4. ESXiのrootパスワード

 入力が終わったら左下にある「送信」ボタンをクリックして数分待ちます。 以下のようにVxRail Manager Extensionのログイン画面が表示されたら本当の完了です。 念のためVxRail Managerと同じように administrator@vsphere.local でログインを確認して下さい。

 

23 念のため administrator@vsphere.local でログインできるか確認しましょう

 

 これにてセットアップは終了です。 事前準備さえ終わっていれば、箱を開けてから実質1時間程度で仮想インフラが完成します。 ゲストOSを作成することも可能ですし、vMotionやHA、DRSも構成済みの状態です。

 

 今回はスクリーンショットを多用したため長編大作気味になってしまいましたが、やっていることは本当にシンプルで、作業内容自体は簡単なものになっています。 仮想インフラの構築はここまでシンプル且つスピーディに行えるようになった、と感じて頂けたら嬉しいです。

 

 次回は日常運用のお話として、ゲストOSの作成手順やステータスの確認やログの採取手順をご紹介しようと思います。

 

 

2016/03/31

なぜなに Data Domain 第九回 - DD Boost over FC で最速バックアップを体感してみませんか?

皆さんこんにちは。

Data Domain のお時間です。

 Dd

Data Domain とバックアップサーバの接続方法は色々ありますが、今回はその中でも一番スループットの出る DD Boost over FC について、前後編でお届けします。

 

DD Boost って何?という方はまず 第四回 Data Domain DD Boostでバックアップ性能を向上! をご確認ください。前回の記事の 第八回 Data Domain と Backup Exec バックアップパフォーマンス動作検証レポート では、DD Boost のパフォーマンスにも触れています。

 

Data Domain の接続方法は色々あるといいましたが、実際はこんなにあります。

 

・CIFS

・NFS

・VTL(FC)

・DD Boost(over Ethernet)

・DD Boost(over FC)

・DD Boost(Enterprise Applications)

 

これらの中で、最大のスループットを出せるテクノロジーが DD Boost です。DD Boost for Enterprise Application は少し特殊なので置いておいて、DD Boost over Ethernet と DD Boost over FC の違いはバックアップサーバとの結線が LAN か SAN か、というところになります。 

LAN はデータ転送時にデータ以外のオーバーヘッド情報が SAN より大きいため一般的には SAN の方が高速と言われています。DD Boost over FC は DD Boost over Ethernet よりも対応製品が少なく、情報も出回っていないことから今回社内の DD2200 を使用してやってみました!

 

今回は対応製品のひとつ、Veritas(旧Symantec) NetBackup で検証してみました。

 

 

まずは Data Domain の設定をします。

  1. 忘れてはいけません、バックアップサーバと Data Domain を FC で接続しましょう。


  2. 何はともあれ DD Boost を有効にします。

    008_2

     

  3. ストレージユニットを作成します。こちらは特に over FC 用の設定はありません。普通にストレージユニットを作成します。

    009_2

     

  4. over FC 用の設定を行います。
    [Server Name] は バックアップサーバが over FC で接続する時に指定する名前を入れます。今回は「dd2200-lab1-1」にしました。
     [Server Name] は NetBackup の設定で使用しますので忘れないようにしましょう。
    [DD Boost Access Group] は over FC でデータを転送する Initiator を設定します。

    010_2



Data Domain の DD Boost over FC 設定が完了しました。
次はバックアップソフトである、NetBackup の設定です。
 

 

次は NetBackup 側の設定です。

  1.  NetBackup サーバが Data Domain のホスト名を名前解決できるように hosts もしくは DNS に Data Domain のホスト名を登録します。NetBackup の基本ですね。ここで登録するホスト名は、Data Domain 側で設定した [Server Name] です。

  2. NetBackup に DD Boost プラグインをインストールします。
    DD Boost プラグインは EMC サイトよりダウンロードします。バージョンの互換性がありますので、Data Domain の DD Boost 互換性リストから互換性の確認をしましょう。

    まずは NetBackup のサービスを停止しましょう。サービス稼働中はプラグインのインストールはできません。

    002
    次にダウンロードした DD Boost プラグイン tar.gz ファイルを展開します。

    003


    DD Boost プラグインをインストールします。

    004


    最後は忘れずに NetBackup のサービスを起動しましょう。

    005

     

  3.  NetBackup の管理画面から Data Domain を登録します。
    実際に NetBackup で DD Boost を使用する場合は、Storage Server, Disk Pool, Storage Unit の設定が必要ですが、「
    Coufiguration Disk Storage Server」 という項目からウィザードですべて設定が可能ですので、今回は「Coufiguration Disk Storage Server」から設定を行います。

    006_2

  4. NetBackup では DD Boost を使用する場合 Data Domain は Stoage Server として登録します。

    007


    Data Domain の情報を設定します。
    [Storage server type] は「DataDomain」を入力します。DD Boost を使用してData Domain へバックアップする時の決まり事ですね。間にスペースは入れません。
    [Storage Server name] は先ほど Data Domain 側で設定した [Server name] を入力します。が、 over FC でバックアップしますので [Server name] の前に「DFC-」を入れます。これは over FC の時の決まり事です。
    [Select media server] は Data Domain へデータを転送する(FC 接続している)NBUサーバを指定します。
    [User name], [Password] は 保存先の Data Domain ストレージユニットへのアクセス権のあるDD Boost ユーザ情報を入力します。

    011_3



    入力した情報に間違いがなければ以下のように Storage Server(Data Domain) の登録が完了します。

    012


    Data Domain の登録が完了しました。

  5. 続けて Disk Pool の設定を行います。
    [OpenStorage (DataDomain)] を選択します。NetBackup では DD Boost 等、サードパーティのストレージ機能と連携する場合は OpenStorage という機能を使用します。

    013
    先ほど登録した Storage Server を選択します。

    014
    Storage server の登録時に設定した DD Boost ユーザがアクセス可能な DD ストレージユニットが表示されるので、バックアップデータを保存する DD ストレージユニットを選択します。

    015


    Disk Pool の名前を入力します。名前は何でも良いです。

    016

    Disk Pool が作成されました。

    017

  6. 最後にNBU ストレージユニットを作成します。
    ここでの名前が NetBackup で保存先を指定する時の名前ですので、分かりやすい名前を付けましょう。
    018


    Finish です!

    NetBackup で DD Boost over FC を使用する準備が整いました。

    019

前編はここまでです。 

決まりごとは多いですが構築自体は比較的簡単にできますのでぜひお試しください。

後半は NetBackup のポリシー(バックアップジョブ)を作成して実際の動作を確認してみましょう。 

 

 

- 過去記事 -

 

 

 

担当 齋藤・吉田

 

2016/03/28

EMC ScaleIOのハイパーコンバージド環境にI/Oパフォーマンスの飛躍を

本記事はPernixData社のホワイトペーパーの翻訳版です。原文は「Attaining Breakthrough I/O Performance In EMC ScaleIO Hyperconverged Environments」にて参照可能です。

イントロダクション

ScaleIO

EMC ScaleIO はソフトウェアをベースとしたソリューションであり、vSphereホストに搭載されたディスクをプールし、ホスト間のインターコネクトを実現することで、ハイパーコンバージドインフラストラクチャ(HCI)を構成します。ホスト上の仮想マシン(VM)はScaleIOによってブロックストレージとして構成されたデバイスをVMFSデータストアやRDMデバイスとして利用することが可能です。HCIはコンピューティングレイヤ(仮想マシン)とストレージレイヤの間の距離を縮め、I/Oパスをホスト内だけに留めることができます。これによって、単一の物理レイヤであるサーバはコンピューティングプラットフォーム(VMware ESX ハイパーバイザーで管理)とストレージプラットフォーム(EMC ScaleIO)の両方として動作させることが可能となり、これはハイパコンバージドプラットフォームとして知られています。

ScaleIO ソフトウェアはサーバとクライアントコンポーネントから構成されています(下図)。サーバコンポーネントはLinuxベースの仮想マシンにインストールされており、ESXホスト上で動作します。サーバコンポーネントはScale IO Data Server(SDS)と呼ばれています。クライアントコンポーネントはScale IO Data Client(SDC)と呼ばれており、SDS仮想マシンが動作しているのと同じホストのESX kernel上の軽量なドライバーとしてインストールされます。ScaleIOのHCI環境では、コンピューティングに加えて、ストレージ機能を仮想マシンに提供するため、SDSとSDCの両方が全ての適切なホストにインストールされている必要があります。Scale IOについての更に詳しい情報についてはEMC VSPEX Private Cloudをご参照ください。

Fig365アプリケーションからのI/OリクエストはSDCからSDSに対して構成されている論理アダプタ(logical adapter)を経由して、上の図に記載の物理ストレージへ送られます。このパスはデータの格納箇所によっては長くなってしまうことがあり(EMC VSPEX Private Cloudの第3章 "Storage Layer"をご参照ください)、高いI/Oアクティビティが行われる場合には不必要な遅延がボトルネックとして露呈します。ScaleIO仮想マシンのCPU負荷もI/Oレイテンシが予期しない動きをすることへ影響を与える要素の一つです。Scale IOはSAN環境におけるパスと比較するとアプリケーションからのリクエストから物理ストレージまでを短くすることができていますが、そのパスはまだ長く、混雑しがちです。結果としてこのパスを通るI/Oのレイテンシはまた高いと言わざるを得ません。

FVP

PernixData FVP® ソフトウェアは高速なRAMやSSDのようなホストリソースを利用し、低遅延の耐障害性のあるデータ高速化レイヤをvSphere ホストのクラスタ全体に提供することが可能です。このレイヤは頻繁にアクセスされるデータの格納場所やアプリケーションによって書き込まれる新しいデータの高速なI/Oを完了させる場所として利用することができます。

Fig366ESXカーネル内で動作し、他の様々なソフトウェアソリューションよりもコンピューティングレイヤに非常に近いレイヤに位置する(上の図を参照)ことから、FVPはデータのReadを劇的に改善することが可能です。アプリケーションは様々なタイミングでデータにアクセスします。FVPはこうしたリクエストに対して高速化レイヤー内のデータで応答します。高速化レイヤー内にデータがない場合にだけ、FVPはプライマリストレージへとそのリクエストを転送します。ですが、そのプライマリストレージからリクエストに応じて読み込まれたデータのコピーはデータ高速化レイヤに書き込まれ、将来のリクエストに備えることになります。

FVPはデータが高速化レイヤに書き込まれた直後にACK(完了通知)を返すことによって、Writeも高速化します。バックグラウンドではFVPがプライマリストレージへと送信されることを保証しますが、プライマリストレージへ書き込むレイテンシは仮想マシンからは見えなくなります。

ScaleIOをFVPと一緒に利用することで、I/Oのパフォーマンスはそのキャパシティから分離された最高のパフォーマンスを誇るHCI環境となります。この分離はIT管理者がそれぞれの要件に対して独立して管理、そして成長できるということを保証します。FVPはReadデータを削減し、Writeのレイテンシを劇的に低減するだけでなく、ScaleIOストレージ構成や複数のストレージの混在にかかわらず、一貫した均一のレイテンシを提供するのです。本ホワイトペーパーは以下では、ScaleIOとFVPを統合したインフラストラクチャにおいて実施した検証における定量的な効果について述べることにします。

検証の構成

本ホワイトペーパーにおける検証では4ノード構成のScaleIOベースのハイパーコンバージドインフラストラクチャを利用しました。検証の構成は以下の図の通りです。

Fig367それぞれのノード上にWindowsオペレーティングシステムが動作する仮想マシンを動作させました。4つ全ての仮想マシンにIOMeterをインストールしてあります。IOMeterはそれぞれのカオスマシンの仮想ディスクに対して事前に設定されたI/O負荷を生成して、負荷を与えるように構成されています。

ベースラインテストの後、FVPをそれぞれのScaleIOノードにインストールしました。FVPとホストメモリを利用して、すべての4つのノードをまたがった高速化レイヤを作成しています。IOMeterを動作させているテスト仮想マシンを順次FVPクラスタへと追加します。「Write-Back高速化」として知られるポリシーを用いて、仮想マシンのReadとWriteの双方を高速化します。IOMeterを高速化した仮想マシン内で動作させ、繰り返し、それぞれのスループットの総計とレイテンシの平均を記録しました。

検証

本ホワイトペーパーの検証で利用したI/Oワークロードのプロファイルは以下の図の通りです。ワークロードはReadとWriteのバーストを定期的な間隔で生成するように構成してありますが、同時には発生しないようにしてあります。バーストしていない期間におけるReadとWriteの操作はピーク時におけるものよりもかなり低く設定してあります。このIOmeterのワークロードはIOPSが定期的にスパイクするような一般的なワークロードのプロファイルを模したものであり、ReadとWriteのバーストは予期せずに発生します。

Fig368検証はReadとWriteのピーク性能を図ることとその際のそれぞれのテストケースにおけるレイテンシを図ることを主目的とします。それぞれの仮想マシンのIOMeterはI/O負荷を同時に発生させるように構成してあります。それぞれの仮想マシンのピーク性能は合計されて全クラスタに対して発生するため、全てのノードのレイテンシの平均値はクラスタレベルでの平均値を表すことになります。

検証結果

IOMeterはReadとWriteの両方のリクエストを同時に生成するため、この「検証結果」のセクションではそれぞれの操作を個別に見ていくことで理解しやすいようにしています。

ReadとWriteに対するFVPの影響

ScaleIOベースのHCI環境においてのFVPのReadとWrite操作に対しての影響を理解しやすように、単一の仮想マシン内でIOMeterを動作させるという検証を実施します。

Read

ベースラインとFVPを利用した場合のReadのパフォーマンスを以下の図に示します。図の上のグラフはピーク時のベースラインとFVPを利用した場合とそれぞれのReadの平均レイテンシを比較しています。

Fig369

Fig370

IOMeterの仮想マシンがFVPによって高速化された際にはReadのレイテンシは対応するベースラインでの結果に対して86%低減されています。これによってピーク時のIOPSはFVPによって8倍分増加しています。

Write

ベースラインとFVPを利用した場合のWriteのパフォーマンスは以下の図に表されています。図の上のグラフはピーク時のベースラインとFVPを利用した場合とそれぞれのWriteの平均レイテンシを比較しています。

Fig371

Fig372

Writeがピークに達した際のWriteのレイテンシはWriteが高速化されている場合には55%低減されており、このレイテンシの低減によってピーク時のWriteのIOPSは1.2倍分増加しています。

FVPによるパフォーマンスの拡張

ScaleIOのハイパーコンバージドインフラストラクチャはノードを追加することでリニアにI/Oパフォーマンスを拡張していくことが可能です。これは一極集中のアーキテクチャではないためです。巨大なScaleIOインフラストラクチャは強力な並列ストレージシステムとなります。

前出のセクションで、FVPが単一のScaleIOノードのI/Oパフォーマンスを劇的にブーストさせることが出来ることを示しました。ScaleIOのアーキテクチャを考慮すると、FVPをそれぞれのScaleIOノードにインストールして高速化レイヤを拡張させることで、ScaleIOインフラストラクチャ全域にわたってパフォーマンスをブーストさせることが可能となります。4ノードのScaleIOインフラストラクチャと4つのIOMeter仮想マシン(各ノードに1つづつ)において実施した検証によってこれを定量的に示すことができます。

Fig373

Fig374

Fig375

Fig3762つの棒グラフが示すとおり、ReadのIOPSとWriteのIOPSの両方がFVPの有無に関係なくScaleIOノードを追加するごとにリニアに拡張されています。さらに、それぞれのノード上の仮想マシンをScaleIOノード上に構成されたFVPクラスタに追加することでFVPによって線形にパフォーマンスはブーストされながら、それに対応するレイテンシはほぼ一定に低く保たれています。

ReadとWriteの双方は仮想マシンがFVPで高速化されている場合には同じレイヤから供給されるということを付け加えておきます。IOMeterでのレイテンシはReadとWriteで同じになっています。見てわかるほどのReadとWriteのレイテンシの低減は殆どのアプリケーションにとって劇的な効果をもたらします。アプリケーションはRead-変更-Writeという操作を大量に実行しているからです。ReadまたはWriteもしくはその両方のレイテンシが高い場合にはアプリケーション全体がスローダウンし、エンドユーザーはより多くの時間を待たなくてはならなくなります。

サマリ

ScaleIOはソフトウェアベースのソリューションでvSphereホストのローカルストレージとホスト間のインターコネクトを活用して、既存のvSphereベースのクラスタをハイパーコンバージドインフラストラクチャへと変革することが可能です。ScaleIOベースのハイパーコンバージドインフラストラクチャはインフラストラクチャ内のノードを増やすことでI/Oパフォーマンスをリニアに拡張することが可能です。PernixData FVPはメモリやSSDのような高速なサーバリソースを活用し、ScaleIOノード個々のI/O性能を劇的に向上させることが可能です。

本ホワイトペーパーの検証では超並列で拡張可能なサーバベースのストレージインフラストラクチャをScaleIOで構成した上で、FVPによってこのインフラストラクチャのパフォーマンスとキャパシティを分離させることで、非常に高いIOPSと低いレイテンシを実現できることを示唆しました。高速化したHCIはReadとWrite操作双方に一貫した均一のレイテンシを提供しながら、パフォーマンスをリニアに、そしてその下のストレージハードウェアとは独立して改善拡張することが可能です。

参考文献

EMC VSPEX Private Cloud

http://www.emc.com/collateral/technical-documentation/h13156-vspex-private-cloud-vmware-vsphere-scaleio-pig.pdf

Iometer

http://www.iometer.org/

PernixData FVP

http://www.pernixdata.com/pernixdata-fvp-software

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)

2016/03/16

ついに日本国内リリースされたVxRAIL【イントロ編】

こんにちは、石塚です。かなり久しぶりにブログ登場です。

登場しなかった期間の個人的なご報告として、今年もEMC Electに選出され、さらにVMware vExpertにも選出頂きました。 今年も各種イベントや本ブログ、そしてEMC Community Network で皆様のお役に立てる情報を発信していきたいと思います。

私は昨年からハイパーコンバージドを中心に活動しているわけですが、EMC社から新たにVCEブランドでリリースした VxRail (ブイエックスレール)がついに日本でも発表されました!! VxRailはVSPEX BLUEの後継機でもあるわけですが、今回はVxRailがどのように変わったのかをお伝えしようと思います。

ブレてないプロダクトコンセプト(簡単導入・簡単管理・簡単拡張)

 変わったところをお伝えすると言いながら、まずはブレてない製品コンセプトをおさらいしたいと思います。 VSPEX BLUEでもそうでしたが、VxRailも簡単導入簡単管理簡単拡張と簡単3ポイントが基本コンセプトになっています。 初期設定から完全にGUIで利用できて、さらに当然のことながら日本語です。 シンプル&グラフィカルなVxRail Manager(旧EVO:RAIL Engine)でvSphereの統合管理が可能ですが、これまでのvSphereと同様の運用がしたければvSphere Web Client(及びVI Client)を利用することも可能です。 ハードウェアの管理もVxRail Managerと同じ操作感で実装されているVxRail Manager Extension(旧BLUE Manager)で管理者様の負担を軽減します。

 簡単導入の点では、導入時の事前チェックプロセスがより詳細なものになりました。例えば指定されたVSANネットワークが正しく通信できない場合や、DNSサーバやNTPサーバへきちんと疎通ができない場合は先に進めません。初期セットアップのトラブルの殆どがネットワークトラブルだったと言う経験から実装された検証機能なのかと思います。これでさらに導入がシンプル&スマートになるでしょう。

通信ができない場合はエラーになって確認を促します

Error_2

 そして管理面ではシャットダウンがGUI上のボタン1つで可能になっています。VSANで構成されているため、VSPEX BLUEではやや煩雑な電源断手順が必要だったのですが、これを一気に解消してくれました。 しかも、実際にシャットダウンする前には「正常な状態であるか」をきちんとチェックしてくれます。問答無用で電源断するようなことは無いので、この点でも安心&確実な運用を支援してくれるはずです。 標準でサーバ管理ポート(Remote Management Module, RMM)が利用できて、RMM経由で電源を投入することが可能ですから、わざわざ設置されている場所に赴かなくても、リモートで電源操作が可能です。 機能エンハンスとしてのインパクトは小さい印象を受けますが、実運用面では大切な機能だと思います。

シャットダウンもボタン1発!しかも事前チェック付!!

Shutdown

今回のリリースの目玉はモデルラインナップの拡充!!

 今回のVxRailのリリースで最大の注目ポイントは間違いなくモデルラインナップになると思います。 VSPEX BLUEも非常に優秀で完成された製品でしたが、モデル選択はメモリ搭載容量(128GB/192GB)とネットワークインターフェース(RJ45/SFP+)の合計4モデルに絞られていました。 EMCと言えば「選択肢が豊富」と言う印象があったので残念ポイントだったのですが、今回のVxRailではCPU、メモリ、ディスク容量、インターフェースが複数の選択肢から選べるようになりました。さらに2016年Q2(4月~6月)にはさらにローエンドモデルとオールフラッシュモデルのリリースが予定されています。

ハイブリッドモデル(SSD+HDD)

Modellist_hybrid

オールフラッシュモデル(SSDのみ)

Modellist_afa

 上のリストにも記載されていますが、Q2以降では1ノード単位での追加が可能になりますし、その後にも色々な機能拡張が予定されています。 これらの機能拡張は全てvSphereの進化に追従できる純然たるvSphereアーキテクチャで実装されているからこそだと言えます。

基本ソフトウェアはvSphere6ベース

 VSPEX BLUEはvSphere5.5ベースでした。 このため、VSANのパフォーマンスや使い勝手、実績面でお客様からのご質問を多く頂いていましたが、VxRailはvSphere6ベース(6.0 update1)になりました。このため、色々な機能制限が向上し、パフォーマンスも向上しています。

VxRailと旧EVO:RAILとの比較Diff_vxevo

 VSANの実績としても、1000人以上のユーザ規模のVDI環境での利用も事例として出てきています。 スモールスタートできて、そのままスケールアウトできるメリットを生かせるVDI環境にはうってつけなのかと思います。

 

 今回はVxRailのイントロダクションとして、ここまでにしておきたいと思います。次回以降、初期セットアップや管理画面の操作性、ゲストOSの作成・管理、拡張などをご紹介してきたいと思いますのでご期待下さい。

2016/02/25

クラウドを活用できる今話題のEMC CloudArrayとは!? ④

いよいよ、最終回です!

最後にウィザードを利用せずに設定していき、CloudArrayを極めていきたいと思います。

引き続き、EMC担当の片山です。

前回は初期セットアップウィザードを利用してCIFS設定をしてきましたが、今回は各設定を理解した上で個別に今までの設定を実施していきたいと思います。この操作が一通りできれば、あなたも今日からCloudArrayマスターを名乗れます! 

簡単な設定の流れとしては、下記を項目の様になります。

N_3



では、上記の流れで項目の順を追って説明していきたいと思います。

(1)Cloudプロバイダの設定

まず第一に、利用したいCloudプロバイダを設定していきます。

左側メニュから【CLOUD PROVIDERS】をクリックします。【Configure New Cloud Provider】をクリックします。

C

【Select Cloud Provider】のメニュから、今回も検証で利用している【Amazon S3】を選択して、【Continue】をクリックします。

D

Amazon S3に接続に必要な情報を入力します。入力後【Save Cloud Provider】をクリックします。これでCloudプロバイダ設定は完了です。

E

(2)CACHE設定

次に、PoolからCacheを切り出す設定をしていきます。GUIの左側メニュから【CACHE MANAGEMENT】⇒【Caches】をクリックします。そして【Configure New Cache】をクリックします。

A_4

まずはCacheの名前を入力します。次にここでは、【Pool_1】から10GBを利用する形でCacheを作成しています。値に間違いがなければ【Configure New Cache】をクリックします。

B_2

【Create One Big Cache Using All Available Capacity】は複数Poolから大容量のCacheを作る際にチェックをします。

(2)POLICY設定

次に、Cache⇒Cloudプロバイダの紐づき設定であるポリシーを作成しておきます。 左側のメニュから【PROVISONING POLICYS】をクリックし、【Configure New Provisioning Policy】をクリックします。

F

まず、ポリシー名を入力します。またここでさきほど設定したCloudプロバイダ設定とCache設定を選択して紐づけます。紐づきが正しければ、「Configure Provisionig Policy」をクリックします。

G

(2)接続プロトコルの有効化(CIFS)

左側メニュより、【SHARES】⇒【Settings】をクリックして、CIFS機能を有効にします。

※ デフォルトは無効になっています。

I

CIFS機能を有効にすると表示される【CIFS】メニュをクリックします。ここではサーバ名やWorkgroup環境、ActiveDirectory等のCIFSサーバの基本設定をしますが、今回は検証ですぐにアクセスして利用するためWorkgroup、【Allow Guest Access For CIFS Shares】にチェックを入れゲストアクセスを許可しています。

※AD連携、Workgroup環境でローカルユーザーを作成することも可能です。

※AD環境でダイナミックDNS機能連携はないためホストをDNSに登録する必要があります。

J_2

次に、Volumeと共有を作成するため、【New Share】をクリックします。

K

(2)Volume、Shareの作成とPolicyの紐づけ設定

【New CIFS Share】ウィンドウが開きますので、【Share Name】を入力します。次に、さきほど作成したCache(10GB)⇒Amazon S3への【Policy】を選択します。【Capacity】には50GiBを入力します。最後に【Save】をクリックします。

M_5

以上でCloudArryaへの設定は完了です。CloudArrayのIPアドレスへアクセスすると普通にアクセスできるかと思います。これであなたもCloudArrayマスターです!

最後に設定完了のついでに、構築したCloudArrayのCIFSサーバに、600MBと3,000MB程度のファイルを共有に対して同時に書込んで見たいと思います。そして、ダッシュボードで監視してみます。

データ自体はCacheに書込まれるため、書込み遅延が発生するような事はありませんが、Cloudに書込まれていないデータはDirty Pageとして【Current Cache Activity】に表示されています。また、FIFOデータ処理方式により、圧縮、暗号化処理が完了次第、順次Cloudに転送していることがわかるかと思います。

※ 圧縮、暗号化を設定しない場合でも分割と最適化をしているのか同様の動きをします。

1_3

 

 少し待って再度確認してみると、右上の【Cache Usage】のUsedのグラフが約3.6GBぐらいになっているのがわかります。Dirty Pageはほぼ横ばいの"0"となり、定期的にCloudプロバイダへReplicationが一定の間隔で継続していることがわかります。

2_3

この結果からも、仮にCloudプロバイダへのReplicationが書込みに追いつかず、Dirty Pageが90%以上に達っしてしまうと、そのCacheを利用している対象領域へのアクセスが一時停止してしまうため、CloudArrayのCache容量をどう設定するかが非常に大事だという事が見て取れるかと思います。やはりCache設計には注意が必要になります。

これで4回目となった今回の記事【クラウドを活用できる今話題のEMC CloudArrayとは!?】ですが、EMCクラウドゲートウェイ製品はどうでしたか?まだ発展途上の製品ではありますが、思ったより設定がシンプルで、VE版であればすぐに検証及び導入できそうに思えるかと。もし興味がある方は是非お試しを!

 

記事:片山

 

今回の記事一覧はこちら

クラウドを活用できる今話題のEMC CloudArrayとは!?①

クラウドを活用できる今話題のEMC CloudArrayとは!?②

クラウドを活用できる今話題のEMC CloudArrayとは!?③

クラウドを活用できる今話題のEMC CloudArrayとは!?④

 

 

2016/02/22

いよいよリリース! VSAN 6.2 すべてはErasure Coding!! 細かな機能も抑えておこう

この記事は前々回、前回につづき新しいVSAN 6.2についての記事です。是非こちらの記事もお読みください。

いよいよVSAN 6.2がリリースされています。詳しくはこちらの桂島様の記事でカバーされていますので、是非ご覧になってください。

ご紹介している「Erasure Coding」、大注目の「インライン重複排除&圧縮」についてはAll flash構成のみでサポートされます。桂島様の記事によると重複排除&圧縮で2~7倍の容量効率、Erasure Codingを併用する10倍までの容量効率を実現できるとのことです!

また、EMC/VCE社からはVSPEX BLUEの後継に当たるVxRailも発表されています。VSAN Ready Node程細かく指定はできませんが、選べる構成の幅が大きく広がり、さらに「4ノード縛りにこだわらない」という発言も飛び出しているようです(ネタ元)ので、EVO:Railの画一的な構成ではなく、今後幅広く利用していくことが可能になっています。

リリースされたErasure Codingの実装について(前回の記事の訂正を含む)

先日の記事ではリリース前の情報から推測しての記載でしたのであたかもパリティデータを専門で担当するノードがあるような図になっていましたが、実際の実装ではパリティも各ノードに分散して保持されます。

Paritydistribution※ 図については桂島様の記事よりお借りしてきました。

また、サポートされるのはRAID-5およびRAID-6のみで、それぞれの最小要件はRAID-5は4ノード(3+1)から、RAID-6は6ノード(4+2)からとなります。つまり、VxRailのような4ノードのアプライアンスでもRAID-5が利用できるため、VDIなどのある程度キャパシティの必要な構成も対応が可能です。(クドいかもしれませんが、RAID-5を含むErasure Codingはオールフラッシュ構成のみでサポートされます)

QoS

ストレージポリシー内で各VMDKあたりのIOPSの上限値を設定できるようになりました。ストレージポリシー内で設定できるということはオンデマンドで(VMの再起動などなく)これを変更出来るということです。過度にオーバープロビジョニングするような構成は想定されていない(コスト高になりますから・・・)ので最低値の設定はありませんが、業務に不必要なVMがノードのI/Oを食い潰すようなことを防ぐことができますので、ビジネスクリティカルアプリケーションの動作について、より安心が出来るようになっています。IOPSでの指定ですので、ブロックサイズも見なくてはなりませんが、非常に強力な機能です。(今回の記事内で唯一Erasure Codingと直接関係しません。)

Qos

※ 上の画像はVMwareのCTOオフィスのDuncan Epping氏のブログからお借りしました。

インメモリ・リードキャッシュ

容量効率やQoSの影に隠れていますが、個人的には非常に重要と思う機能がこちらです。VSANはノード間でデータを分散します。VMのReadリクエストに対する応答は「データを持っているもっとも遅いノードを待たなければならない」ことになります。

前回の記事はWriteのトラフィックだけを解説しましたが、Readのトラフィックも同様にネットワークを何度も流れることになります。特にRAID5/6の構成の場合、「たまたまローカルのノードにデータが有った」ということもありえませんので、ローカルのノードにリードキャッシュを保持するということはパフォーマンスの観点からもネットワークの観点からも非常に重要な機能です。

Traffic_for_read_request_2※ 図の統一のためにErasure Codingもハイブリッド構成のようにしてありますが、All Flashのみで対応です

Duncanさんの記事によるとこのリードキャッシュは非常に小さいもので、各ホストの物理メモリの0.4%または最大でも1GBとのことですが、上で解説したとおり、Readのためのネットワークトラフィックを削減するため、およびネットワークトラフィックによるレイテンシの低下を防ぐためには非常に重要な機能です。

気がついている方も入るかもしれませんが、このインメモリキャッシュはPernixData社の無償製品FVP Freedomエディションに相当する機能です。アプリケーションにとっては小さなキャッシュサイズでも非常に大きな効果が得られる場合がありますので、是非心に留めておいてください。

CheckSum

VSANはネットワークを通じてデータを書き込むため、ネットワーク転送によってデータが変化していないことを保証する必要があります。近年のネットワーク品質を考えればほとんどありえないことですが、そこまで保証するのがVSANです。金融機関などで万が一が起こったとしたら、大混乱です。これも一種のErasure Codingと言えるかもしれませんが、RAID5/6が横方向にパリティを発行するものだとすると、CheckSum機能は縦方向に対してはチェックサムを発行し、VMから出たデータが正しくキャパシティ層に着地したことを保証するものです(データが変更されていることを検知するのが目的で、復元することが目的ではないのでパリティではなく、チェックサムが利用されています)。

まとめ

他にも管理系の機能なども充実していますが、今回のシリーズはあくまで「Erasure Coding」のシリーズでしたので、関連する部分に留め、別の機会にしたいと思います。

とにかく、新しいVSANは良く出来ている! 注目されている容量効率の面からだけでなく、ネットワークトラフィック、そしてパフォーマンスの観点からも理にかなっているのです。

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)