*EMC Feed

2016/06/03

なぜなに Data Domain - 第十回 - Data Domain システムのアップグレード

こんにちは。

Data Domainも今回で第十回目となりました。
第九回目ではDD Boost over FC の最速バックアップについて見てきました。
今回は機能のご紹介ではなく、Data DomainOSのアップグレード手順について紹介します。

flair DDOSのアップグレード手順を見て行きましょう。

1. 事前準備
DDOSのアップグレード前に以下が準備されていることを確認します。


◆ 作業端末
   アップグレード対象のData Domain システムのWeb管理コンソール
  (Data Domain System Manager)に接続可能なPC

◆ 
DDOSパッケージファイル(X.X.X.X.rpm)

   EMC Onliene Support より入手しましたDDOSパッケージファイル
   ・ EMC Onliene Supprt: https://support.emc.com
   
・ Download: EMC Data Domain DDOS5.X.X.X.X Software


2. DDOSアップグレード手順
以下の手順にてアップグレードを実行します。


<DDOSパッケージファイルのアップロード>
1) ダウンロードしたDDOSパッケージファイル(X.X.X.X.rpm)を作業端末の

   任意のディレクトリに配置します。
2) 作業端末からアップグレード対象のData Domainシステム(System Manager)に接続します。
   http://Data Domain IP Address /ddem
3) 「Maintenance」-「System」-「Uprade Package」をクリックし、アップグレードする

   DDOSパッケージファイル(X.X.X.X.rpm)をアップロードします。
4) 「File Name」配下にアップロードされた DDOSパッケージファイル(X.X.X.X.rpm)
   表示されます。

1_5


<Replication Pairの稼働状態を確認>

5) 「Replication」-「Summary」をクリックし、レプリケーションペアの稼働状況を確認し、
   データ転送が発生していない事を確認します。
    ・ State: Normal
     Pre-Commp Replication: 0.00Gb

<Data Domain システムの再起動>
6) DDOSアップグレード前にCLIよりData Domain システムを再起動します。
   # system reboot

flair DDOSアップグレード前にシステム再起動は必要になります。


<DDOSパッケージファイルからアップグレード>
7) システム再起動後、作業端末からアップグレード対象のData Domainシステム

  (System Manager)に接続します。
   http://Data Domain IP Address /ddem
8) 「Maintennance」-「System」をクリックし、アップロードされたDDOSパッケージファイル
  (X.X.X.X.rpm)を選択します。

2_2
9) 「Perform System Upgrade」をクリックします。
10) System Upgradeの確認メッセージが表示されます。「OK」をクリックします。
11) System Upgrade処理が開始されますので、完了するまで待機します。

5_2

12) System Uppgrade後、自動的にData Domainシステムを再起動します。

6

13) Data Domainシステム再起動後、作業端末からData Domainコンソール(CLI)
    接続します。
14) "alert"コマンドにてエラーを示すアラートが出力されていない事を確認します。
    # alerts show current
    # No actrive alerts
15) "filesys"コマンドでファイルシステムが起動されている事を確認します。

    # filesys status
    # the filesystem is enabled and running

※ 起動していない場合、起動するまで待機します。

  # The filesystem hasecourdtered aproblem
  ↓
  # The filesystem is enabled adn starting up. Please wait
   ******** The filesysten is not responding ********
  ↓
  # The filesystem is enabled and running

16) Data Domainファイルシステム起動後、Data Domainシステムに接続します。
    http://Data Domain IP Address/ddem
17) レプリケーションのステータスを確認し、データ転送がないことを確認します。
     ・ State: Normal
     ・ Pre-Commp Replication: 0.00Gb

 
flair Data Domain システムをアップグレードする際、該当Data Domainシステムを
   アップグレードする前にシステムの再起動をする必要がある点はご注意ください。


次回は別の機能、技術的な部分についてご紹介したいと思います。
それでは次回もよろしくお願いします。

担当:斉藤・吉田
   
 

 
 


 

2016/05/03

★Unity&Unity VSAリリース★

皆さんこんにちは!

とりあえず検証してみた!シリーズ」のニュータイプ 渡会です。

現在私はEMC World 2016 In Las Vegasにきています!

そして!アメリカ時間201652日!

日本時間53日(おそらく)についに待ちに待った

Unity

001

002

003

がリリースされました!!!パチパチパチパチパチパチパチパチ

Unityは!

UnityとはVNX(色々出来るけど複雑)とVNXe(簡単だけど機能制限有り)といった2種類のストレージのいいとこ取りをした製品となっています。

Unityのコンセプトはずばり!

              ・シンプル

              ・モダン

              ・柔軟

              ・安価

4コンセプト製品となります。

Unityは現在のVNXe3200/VNX5200VNX5800までのパフォーマンスレンジをカバーしています。

しかし値段はハイブリッドの最小構成で10000ドル前後から購入可能となりそうです。

これだけ安価にもかかわらずハイパフォーマンスを提供できるすばらしいストレージがリリースされました!

※詳細な価格に関しては「emc-info@networld.co.jp」まで!

 

そしてUnityには同時に

Unity Virtual Storage AplianceUnity VSA

がリリースされました。

 

Unity VSAとは!

Unity Virtual Storage Aplianceのことでこの製品はESXサーバ上で稼動するUnityとなっています。

EMCさんは昨今ストレージをどんどんSoftware-Defined-Storage(SDS)化をしておりついにミッドレンジストレージも仮想化されました!!

(以前にIsilonVirtual Editionも記載しているのでよければぜひお読みください)

URLhttps://blogs.networld.co.jp/main/2016/02/isilonsd-edge-04df.html

 

さてインストール前にUnity VSAの機能紹介を行います。

まずはUnityUnity VSAの機能比較を以下表にまとめます。

 

機能

UnityVSA

Unity Hardware

SMB

NFS

iSCSI

FAST VP

Sasynchronous Unified Replication
(SAN/NASReplication

Unisphere HTML 5 GUI +REST API

Quality of Service(QoS)

Monitoring & Reporting

Thin Provisioning

VVols

FAST Cache

×

Data at Rest Encryption

×

Fibre Channel

×

Synchronous Replication
(SAN Only)

×

 

こちらの表を見ていただいてもわかるとおり物理版・仮想版との差はあまりありません。

そのためこのUnity VSAは今までストレージを置くには小さいかなと思われていた各支店・拠点等に導入しさらに本社・各拠点で相互Replicationを実施しお互いのバックアップデータを持ち合うといった構成も可能となりメリットが出ると感じています。

また機能に差異が無いので機能検証・実環境へのテスト導入に需要が出そうです

 

では次にUnity VSAの制限値を見たいと思います。

 

Unity VSA
(Based on Max License)

vDisk最大使用数

16

vDisk最大容量

50 TB

NAS Server最大作成数

16

ファイルシステム最大サイズ

50 TB

ファイルシステム最大作成数

32

Pool LUN最大作成数

64

スナップショット最大作成数

128

201653日時点

 

またこのUnity VSAに関しては3つのライセンス体系があります。

1.    Community Edition(無償)

2.    Professional Edition(有償)

3.    VVols Edition(有償)

各ライセンスの違いに関しては以下に記載します。

 

Community

Professional

VVols

機能

ALL

VVols Only

ライセンス

Free
(Unlimited)

Subscription

RPQ for VNX2

使用可能容量

4 TB

10/25/50 TB

50 TB

ノード

Single

サポート

Community

EMC(Enhanced)

用途

Non-Production

Production

次にUnity VSAをインストールするための機器仕様を以下に記載します。

ESXサーバ要件

要件

CPU

Xeon E5 Series Dual Core CPU 64-bit x86 Intel 2 GHz+

(or equivalent)

OS

VMware ESXi 5.5(Minimum)

(VMware ESXi6.0 Recommended)

メモリ

Minimum16 GB(ESXi5.5)/Minimum 18 GB(ESXi6.0)

ネットワーク

4×1GbE/4×10GbE(Recommended)

RAIDコントローラ

RAID card 512 MB NV cache, battery backed

(recommended)

Unity VSAの仮想マシン要件を以下に記載します。

仮想マシン要件

要件

vCPUs

2(2GHz+)

メモリ

12 GB

Virtual Network(vNICs)

Management1GbE×1
Data
1GbE×4 or 10GbE×4

System×1

Support Protocols

iSCSI/NFS/CIFS

ここまで各種仕様等を記載しましたがここから実際にインストール手順を記載していきます!

 

Unity VSAのデプロイ★

1       以下URLよりUnity VSAをダウンロードします。

https://www.emc.com/auth/unityvsasoftwaredownload.htm

2       vCenter ServerWeb Client or vSphere Clientでアクセスします。

004

3       vCenterメニューより「OVFテンプレートのデプロイ」を実行します。

005

4       OVFテンプレートのデプロイ」ウィザードが起動するので以下手順に沿って設定を行います。

006

4.1      ソースの選択

ローカルファイルにチェックを入れ参照ボタンをクリックします。

007

[ファイルを開く]画面が表示されるのでダウンロードしたOVAファイルを選択し「開く(O)」ボタンをクリックします。

008

[ソースの選択]画面に戻るので「次へ」ボタンをクリックします。

009

4.2      詳細の確認

セキュリティリスクに関する警告が表示された場合は「追加の構成オプションの承諾」にチェックを入れ「次へ」ボタンをクリックします。

010

4.3      名前およびフォルダの選択

[フォルダまたはデータセンタの選択]欄より仮想マシンを作成するデータセンタまたはフォルダを選択し[名前:]欄に仮想マシン名を入力し「次へ」ボタンをクリックします。

011

4.4      リソースの選択

デプロイされたテンプレートを実行するクラスタ・ホスト・vAppいずれかを選択し「次へ」ボタンをクリックします。

012

4.5      ストレージの選択

Unity VSAを格納するデータストアを選択します。

Unity VSAOS部分を格納するデータストアの選択となります。

※ここで選択するデータストアと実際にデータが格納されるデータストアは分けることが推奨されます。

013

[仮想ディスクフォーマットの選択:]欄より「シックプロビジョニング(Eager Zeroed)」を選択し「次へ」ボタンをクリックします。

※仮想ディスクフォーマットはシックプロビジョニング(Eager Zeroed)が推奨されます。

014

4.6      ネットワークのセットアップ

管理ネットワークとデータネットワークに使用する仮想スイッチを選択し「次へ」ボタンをクリックします。

015

4.7      テンプレートのカスタマイズ

[System Name]Unity VSAに設定するシステム名(ホスト名)を入力します。

016

IPv4 or IPv5を展開しUnity VSAに設定する管理IP情報を入力し「次へ」ボタンをクリックします。

017_2

4.8      終了準備の完了

設定内容の確認をし「デプロイ後にパワーオン」にチェックをし「終了」ボタンをクリックします。

018

5       Web Clientに戻りデプロイが開始されます。

019_2

6       デプロイ完了後自動でUnity VSAが起動するのでコンソールを開き起動完了まで待ちます。

※起動完了後は以下のようにLoginプロンプトが表示されます。

※起動完了まで30分程度かかる場合があります。

020_2

7       以下IDPWでログインします。

IDservice

PWservice

023_2

8       正常にデプロイできたことを確認するため以下コマンドを実行します

svc_diag

9       以下のように「failure」が出力されなければ正常にデプロイ完了です。

024_2

10    データ用ディスクを追加するためUnity VSAを選択し右クリックします。

025_2

11    メニューが表示されるので「設定の編集」をクリックします。

026_2

12    [設定の編集]画面が表示されるので以下手順に従ってディスクを追加します。

027_2

12.1    [新規デバイス]プルダウンメニュより「新規ハードディスク」をクリックします。

028_2

12.2    新規ハードディスクが選択されたことを確認し「追加」ボタンをクリックします。

029_2

12.3    新規ハードディスクが追加されるので展開します。

030_2

12.4    ハードディスクの各項目が表示されるので以下入力し「OK」ボタンをクリックします。

    容量:ディスクとして使用する容量を入力

    場所:使用するデータストアを指定

    ディスクプロビジョニング:シックプロビジョニング(Eager Zeroed

031_2

13    Web Clientに戻り仮想マシンの再構成が開始されるので再構成が完了した時点でデプロイの完了となります。

032_2

以上でUnity VSAのデプロイが完了です!

なんとも簡単に構築できてしまいました。この後はVNXeUnityの構築と同じくUnisphereにアクセスし初回起動ウィザードから構築を行っていきます。

 

今回はUnity VSAのデプロイまでとしたいと思います。

 

次回はUnityUnity VSAで搭載されている目玉機能である以下機能に関して画面を交えながら説明したいと思います。

 ・FAST VP(仮想ストレージアプライアンス版のに階層化が可能!!)

 ・ついに搭載NAS Replication!!

 ・ついに搭載Quota!!

 ・ついに搭載Virtual Data Mover

 ・仮想化環境に最適VVols

 ・他社を追随するファイルシステム縮小

これらに関しては日本帰ってからじっくりと検証したいと思います。


 

 

引き続きEMC Worldで情報収集を行いたいと思います。

EMC Worldでの最新情報に関してはEMC ism 2016で発表させていただきますので是非ご参加お待ちしております。

EMC iSM 2016

EMC WORLD2016@ラスベガスの最新情報をメーカーより先にお届け!!

【来場時アンケートご記入のお客様全員にQUOカード500円分プレゼント!】

↓↓詳細な情報・ご登録はこちらから↓↓

EMC ismhttps://networld.smartseminar.jp/public/seminar/view/625

 

以上

2016/04/27

ネットワールド、Veeam 始めるってよ

 弊社では色々なメーカーのバックアップソフトを扱っておりますが、この度、新たなメーカーのバックアップソフトが加わることになりました。そのメーカーとは Veeam Software です!下記のプレスリリースで発表されています。

https://www.veeam.com/news/veeam-expands-into-japan-to-deliver-availability-for-the-always-on-enterprise.html

そこで、今回はVeeam Softwareとバックアップソフトをご紹介しましょう。

 

①  Veeam Softwareとは

Veeam社の本社はスイスのバールにあり、仮想環境向けデータ保護と監視ツールを提供するソフトウェアベンダーです。2006年の設立から約10年が経ちますが、売り上げと顧客数を急速に伸ばしています。

Veeam01

②  主力製品について

主力製品はデータ保護製品のVeeam Backup & Replicationと監視ツールのVeeam ONEです。また、この2つがセットになったVeeam Availability Suite もあります。

Veeam03

Veeam Backup & Replicationはバージョンアップを重ね、ユーザーが望む多くの機能を実装してきました。そして、今年1月には新バージョンとなる v9 をリリースしています。

Veeam04_3

 

③  特徴的な機能

この製品が他のバックアップソフトと何が違うのかが気になると思います。細かな違いは多々ありますが、特徴的な機能をいくつかご紹介します。

 (1)ストレージ・スナップショットとの統合
vSphereの仮想マシンのバックアップでは、vStorage API for Dada Protection(以下、VADP)を使用しますが、VADPによるスナップショットではバックアップ中の変更量に応じてログファイルのサイズが大きくなっていくため、バックアップ時間が長くなった場合や変更量が多い場合はスナッショット領域が肥大化してしまいます。

また、スナップショットを削除する際にはマージ(結合)処理が伴いますが、ログファイルが大きくなると、マージ処理に時間がかかったり、不安定になることもあります。

Veeam Backup & Replicationでは、この問題を解決するためにストレージ(NetApp,HP StoreVirtual/StoreServ,EMC VNX/VNXe)とのスナップショット連携機能を提供しています。vSphere上でスナップショットを作成した後、ストレージのスナップショットを作成し、すぐにvSphere上のスナップショットを削除することでスナップショットを保持する時間を短くすることができます。

Veeam05

更に、NetAppのストレージの場合、SnapMirror/SnapVaultと連携することが可能で、SnapMirrorのレプリケーション先・SnapVaultのバックアップ先からバックアップすることでプライマリストレージに影響を与えることなくバックアップできます。vSphere のデータストアとしてNetAppを利用している方には最適です。

Veeam06

ちなみに、次期バージョン(9.5)では、Nimble Storageとのストレージ連携ができるようになる予定ですので、ご期待ください。
https://www.veeam.com/blog/integration-nimble-storage-veeam-availability-suite.html

 (2)アプリケーション対応
VADPでのバックアップはエージェントレスでのバックアップになりますが、VeeamBackup & Replicationはアプリケーション(Active Directory,MSSQL,SharePoint,Exchange,Oracle)を意識したバックアップが可能です。他社のバックアップ製品でも同様の機能を提供しているものはありますが、VMware ToolsのVSSに依存していたり、仮想マシンへエージェントのインストールが必要になります。

それに対して、VeeamBackup & Replication VMware ToolsのVSSインテグレーションコンポーネントは使用せず、Veeamが独自実装したMicrosoftのVSSインテグレーションを使用し、エージェントレスでのアプリケーションを意識したバックアップが可能です。 

Veeam07 

また、VADPのバックアップからのアプリケーションのオブジェクト単位のリストアに対応しているバックアップソフトはいくつかありますが、MS SQL Serverについては、テーブル単位のリストアのリストアも可能で、更に他社ではまだ実現できていない?Oracleのリストアにも対応しています。

 (3)重複排除ストレージとの連携
Veeam Backup & Replicationのバックアップデータ先(リポジトリ)としては、Windows・Linux・NAS(CIFS)・テープなど多くの種類に対応していますが、その中でもバックアップのパフォーマンスが良いのが、EMC DataDomainやHP StoreOnceの重複排除ストレージと組み合わせた場合です。

EMC DataDomainやHP StoreOnceをCIFSとして利用しても良いのですが、Data DomainのDD BoostやStoreOnceのCatalystといったソースサイド重複排除機能を利用すれば、プロキシサーバ上で重複排除を行い、重複排除された(最適化された)データのみをバックアップストレージに送信することで、低速リンク経由でもバックアップデバイスへ高速にデータを送信できます。

Veeam09

通常、DD BoostやStoreOnce Catalystを使う場合は専用のPluginを各メーカーのサイトからダウンロードしてインスト-ルする必要がありますが、Veeam Backup & ReplicationはPluginが予めインストールされていますので、すぐに利用することができます。

尚、Data DomainはDDOS 5.4~5.7まで、StoreOnceはOS 3.13.1以降が対応しております。
https://helpcenter.veeam.com/backup/vsphere/system_requirements.html#target

 (4)セルフサービス機能

日々のバックアップは管理者がスケジュールでバックアップしていても、仮想マシンやその中のファイルをリストアすることになった場合、ユーザーが管理者に連絡してリストアしてもらうのは、管理者・ユーザーのどちらにとっても手間のかかる作業です。

Veeam Backup & ReplicationはEnterprise Managerでのセルフサービスによるリストア機能を提供しています。セルフサービスによりユーザーは専用のリストアポータルサイトにアクセスすることで、仮想マシン単位・ファイル単位・アプリケーション単位のリストアが可能になり、管理者・ユーザー両者の負荷を軽減させることができます。

Veeam10

 

④  価格体系

ライセンスはCPUソケット単位の課金でStandard/Enterprise/Enterprise Plusの3つのエディションと小規模環境向け(6ソケットまで)のEssentialsがあります。エディションによって使える機能が異なり、例えば、前述のストレージ連携をする場合は、Enterprise Plusが必要になります。

※エディション比較表

https://www.veeam.com/jp/backup-version-standard-enterprise-editions-comparison.html


以上、今回は簡単にご紹介させていただきましたが、他にも色々な魅力的な機能がありますので、仮想環境のバックアップにお悩みの方やVeeam製品が気になって夜も眠れない方は、下記までお気軽にお問合せください。

Email :veeam-info@networld.co.jpPropartner_logo_distr_img

担当:臼井

2016/04/12

ついに日本国内リリースされたVxRAIL【セットアップ編】

 こんにちは、石塚です。VxRail国内リリースから1か月が経ちましたが、リリース直後から多くのお客様からお問い合わせを頂いています。 やはりハイパーコンバージドは注目株なのは間違いありませんね。

 

 今回も前回に引き続きVxRailについてご紹介したいと思います。今回取り上げるテーマは「簡単導入は本当なのか!?」です。 前回のなかでもご紹介しましたが、簡単且つスマートで確実なインストールが可能と謳われています。 しかし、実際にVxRailをまだ見たことの無い方にとっては「本当か?」とか「何をもって簡単と言っているんだ?」などの疑問があるかと思います。 今回は長文にはなってしまうのですが、スクリーンショットを多く使い、「この記事さえ読めば誰でもVxRailを構築できる」と言うレベルを目指してご紹介したいと思います。

 

作業の前に準備するもの

 イキナリ箱を開けても何となーく導入できるぐらい簡単なのですが、クッキング番組のようにまずは予め準備頂きたいものをご説明します。

 まずはハードウェアとして準備頂くもののリストです。

  1. VxRail(1箱にアプライアンス本体、電源ケーブル、ベゼルがまとめられています)
  2. 10Gbスイッチ(アプライアンス毎に8つのポートが必要です)
  3. 10Gbスイッチに適合したケーブル×8つ
  4. 200V電源ポート×2つ
  5. Windows PC(ブラウザとしてFirefoxもしくはChromeをインストール済み)

 

 ここでポイントになるのは10Gbスイッチです。 VMware Virtual SANの場合、強い推奨となっている10Gbスイッチですが、VxRailの場合は各ノードごとに搭載されている10Gbポート×2つで全てのデータ通信を行うので「10Gbスイッチは必須」になっています。 例外的にVxRail60だけは1Gb×4つで構成されています。 また、この10Gbスイッチの構成には必ず以下の構成をお願いしています。

  • Default VLANを構成して下さい(恒久的に利用します)
  • 全てのノード間の管理セグメントにはマルチキャスト通信が必要です
  • 全てのノード間のVSANセグメントにはマルチキャスト通信が必要です

 上記3点はアプライアンスの増設時に追加されるアプライアンスを検出するためと、VSANの要件になっています。 EMC社が提供しているVDX6740B(Brocade OEMの10Gbスイッチ)については、細かい導入ガイドがあり、サンプル構成ファイルもあるのでこちらを参照すると分かりやすいかと思います。 この資料はEVO:RAILシリーズのころのものですが、VxRailでも同様なのでご安心下さい。 VDXであれば10Gbスイッチも含めて一元保守になりますね。 また、導入手順書を作成するツール(SolveDesktop)にはCisco Nexusについての構成も同様に構成方法が掲載されています。

01_2

 SFP+モデルの場合のケーブルの種類ですが、これは接続する10Gbスイッチ側の要件を確認して準備下さい。 VxRailはアクティブケーブルでもパッシブケーブルでもサポートされています。 ※VDXをお使いになられる場合はアクティブケーブルになります。

 続いてご質問の多い電源仕様です。 大容量メモリを搭載した4つのサーバが動いていますので、現時点では200Vが必要になっています。 これもVxRail60だけは例外的に100Vでもサポートされています。

 環境的な最後の準備はセットアップするWindows PCについてです。 ブラウザとしてFirefoxもしくはChromeを準備して下さい。Internet Exploreでは正常に実行できないことがあります。 VxRailの工場出荷時のIPアドレスは192.168.10.200になっています。同セグメントが存在している場合はIPが重複しないか確認をして下さい。また、デフォルトのIPに接続し、そして実運用のIPへそのまま接続することになるので、セットアップするWindows PCには実運用のIPアドレスに疎通可能なIPアドレスと、VxRail工場出荷デフォルトIPに接続可能なIPアドレス(例えば192.168.10.210など)の両方のIPアドレスを設定して下さい。

02

 上記の例では実運用セグメントのIPとして10.10.50.101/16が設定されていて、セットアップ用セグメントのIPとして192.168.10.210/24を割り当てています。

 続いて、準備するパラメータについては以下の通りです。

<システムパラメータ>

  1. NTPサーバ
  2. DNSサーバ
  3. オプション)Active Directory情報(ドメイン名, ユーザ名, パスワード)
  4. オプション)HTTPプロキシ情報(プロキシサーバIPアドレス, ポート番号, ユーザ名, パスワード)

<管理パラメータ>

  1. ESXiのホスト情報(ホスト名(1から始まる通し番号になります))
  2. vCenterホスト名
  3. VxRail Managerのホスト名(VxRailの管理GUIを提供するゲストOSのホスト名)
  4. ESXiの管理IPアドレス(4つ以上の通し番号)
  5. vCenterのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  6. VxRail ManagerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  7. 上記の管理IPセグメントのネットマスク
  8. 同管理IPセグメントのゲートウェイ
  9. ESXiのパスワード
    ※複雑性を求められ、特定の記号(&’”;=`\$)は利用できません。
     また、キーフレーズ及びそれに類するものも利用できません。
     例えば Welc0me1! のような複雑性が必要になります。

 

<vMotionパラメータ>

  1. ESXiのvMotion用IPアドレス(4つ以上の通し番号)
  2. 同vMotionセグメントのネットマスク
  3. 同vMotionセグメントのVLAN ID

 

<Virtual SANパラメータ>

  1. ESXiのVirtual SAN用IPアドレス(4つ以上の通し番号)
  2. 同Virtual SANセグメントのネットマスク
  3. 同Virtual SANセグメントのVLAN ID

 

<仮想マシンネットワークパラメータ>

  1. 仮想マシンネットワーク名(仮想スイッチポートグループ名)
  2. 仮想マシンネットワークのVLAN ID

 

<ソリューションパラメータ>

  1. ログサーバ(vRealize Log Insight(バンドル済み)もしくはSyslog)の選択
  2. ログサーバのホスト名
  3. ログサーバのIPアドレス
  4. VxRail Manager ExtensionのIPアドレス(ハードウェア監視するためのゲストOSのIPアドレス)

 以上が必要になるパラメータの全てです。

 これらを以降で紹介する初期セットアップウィザードで入力するだけで、vSphere、vCenter、仮想スイッチ、vMotion、Virtual SAN、Log Insightなど全ての初期セットアップが完了します。ボタンを押せばあとは15分待つだけです!

それではセットアップ開始!

 必要なハードウェア、10Gbスイッチの構成、パラメータの準備ができたら、あとは箱を開けてセットアップするだけです。このステップでのポイントは電源をノード#4 ⇒ ノード#3 ⇒ ノード#2 ⇒ ノード#1の順番で起動する、と言う流れです。そしてそれぞれのノードは15秒程度の間隔をあけて起動して下さい。あとは5分程度待てばセットアップが開始できるようになります。

 

 まず、初期セットアップ用のIPアドレスである192.168.10.200/24」にブラウザで接続します。

03

 上記のようなウェルカムページが表示されます。注目すべきはこの時点で日本語であることです。 セットアップからしてグラフィカルで、且つ日本語が使えると言うのは管理者様にとって本当に優しいと思います。「開始する」ボタンをクリックして次へ進みます。

04

 毎度おなじみ使用許諾についての条件書が提示されます。 一読して右下の「同意する」をクリックして下さい。

05

 前述の各種準備についての確認ページです。 10Gbスイッチの構成、VLANの構成(管理用のDefault VLAN、vMotion、Virtual SAN各VLAN)が完了していることを確認したらそれぞれのチェックボックスをクリックしてマーキング(例のようにチェックボックスが青く変化します)して、右下の「次へ」ボタンをクリックして下さい。

 

0502

 続いてセットアップの方法を選択します。 通常はウィザードに則ってセットアップすると思いますので、「ステップバイステップ」をクリックします。

06_2

 まずはシステムパラメータを入力します。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<システムパラメータ>

  1. NTPサーバ
  2. DNSサーバ
  3. オプション)Active Directory情報(ドメイン名, ユーザ名, パスワード)
  4. オプション)HTTPプロキシ情報(プロキシサーバIPアドレス, ポート番号, ユーザ名, パスワード)

07_2

 続いて管理パラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 現バージョン(3.0.0)の場合はホスト名はショートネーム(ホスト部)での入力になります。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<管理パラメータ>

  1. ESXiのホスト情報(ホスト名(1から始まる通し番号になります))
  2. vCenterホスト名
  3. VxRail Managerのホスト名(VxRailの管理GUIを提供するゲストOSのホスト名)
  4. ESXiの管理IPアドレス(4つ以上の通し番号)
  5. vCenterのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  6. VxRail ManagerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  7. 上記の管理IPセグメントのネットマスク
  8. 同管理IPセグメントのゲートウェイ
  9. ESXiのパスワード
    ※複雑性を求められます。
     特定の記号( & ’ ” ; = ` \ $ )は利用できません。
     キーフレーズ及びそれに類するものも利用できません。
     上記を踏まえると、例えば Welc0me1! のような複雑性が必要になります。

08

 続いてvMotionパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<vMotionパラメータ>

  1. ESXiのvMotion用IPアドレス(4つ以上の通し番号)
  2. 同vMotionセグメントのネットマスク
  3. 同vMotionセグメントのVLAN ID

 

09

 同様にVirtual SANパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<Virtual SANパラメータ>

  1. ESXiのVirtual SAN用IPアドレス(4つ以上の通し番号)
  2. 同Virtual SANセグメントのネットマスク
  3. 同Virtual SANセグメントのVLAN ID

 

10

 あともう一息です。 今度は仮想マシンネットワークパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 3つ以上のセグメントを構成しておきたい場合はページ下部にある「もう1つ追加」をクリックして必要セグメントを追加登録して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<仮想マシンネットワークパラメータ>

  1. 仮想マシンネットワーク名(仮想スイッチポートグループ名)
  2. 仮想マシンネットワークのVLAN ID

 

11

 入力作業の最後はソリューションパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<ソリューションパラメータ>

  1. ログサーバ(vRealize Log Insight(バンドル済み)もしくはSyslog)の選択
  2. ログサーバのホスト名
  3. ログサーバのIPアドレス
  4. VxRail Manager ExtensionのIPアドレス(ハードウェア監視するためのゲストOSのIPアドレス)

 

12

 全てのページに必要なパラメータを入力したら「検証」ボタンをクリックして正当性を確認します。

 

13

 このようなエラーが表示された場合、該当パラメータを確認したり、環境状態を確認するなどの対処を行って、再度「検証」を行って下さい。 トラブルシューティングの材料としては、左下にある「ログを表示」をクリックするとバックグラウンドで行っている内容(どこに何を行っているか)が分かります。

 

14

 無事、検証がクリアされると「VxRAILの構築」ボタンをクリックしてセットアップを開始します。

 

15

 このページで「構成の開始」ボタンをクリックすることでセットアップが開始されます。 表示されている通り、実運用IPアドレスにリダイレクトされますので、アクセスできる状態が必要になります。(作業前に2つのIPアドレスを設定しているのはこのためです。)

 

16

 現在セットアップしている状況は上記のように把握できます。 セットアップの内容としては以下の通りです。 これら31ステップの作業を全自動で、しかもたったの15分で行っているのですから、これはどう考えても楽チンですよね!

<VxRailの初期セットアップの内容>

  1. Setup password on VxRail Manager VM
  2. Configure VxRail Manager VM Hostname
  3. Install private DNS(dnsmasq) on VxRail Manager VM
  4. Configure private DNS(dnsmasq) on VxRaill Manager VM
  5. Perform vCenter Server first boot configuration
  6. Install private DNS(dnsmasq) on vCenter
  7. Configure private DNS(dnsmasq) on vCenter
  8. Setup management network ESXi hosts
  9. Configure NTP on ESXi Hosts
  10. Configure Syslog in ESXi hosts
  11. Configure Syslog in vCenter
  12. Configure Syslog in VxRail Manager VM
  13. Restart Loudmouth in VxRail Manager VM
  14. Create Service Account on vCenter
  15. Register ESXi hosts with vCenter
  16. Setup ESXi hostname
  17. Create Distributed Switch
  18. Register ESXi hosts with Distributed Switch
  19. Create Distributed Portgroup
  20. Configure ESX Networking
    Management, vMotion, VM networks on vmnic0, and VSAN Networking on vmnic1 in an Active/Standby configuration on a single Standard Switch)
  21. Rename “VM Network” to be “vCenter Server Network”
  22. Remove standard Switch
  23. Setup DNS on ESXi host to use DNS(dnsmasq) on vCenter
  24. Restart Loudmouth on ESXi hosts
  25. Create Storage Policy for VSAN with vCenter
  26. Rename VSAN Datastore from vsanDatastore to MARVIN-Virtual-SAN-Datastore
  27. Set vCenter to auto-start
  28. Enabled Enhanced vMotion Compatibility
  29. Configure ESXi root password
  30. Initialize vCenter licensing ready for Product Activation Code(PAC)
  31. Enable HA

 3分クッキングよろしく、15分経って以下のように完了メッセージが出たら右下の「VXRAILの管理」ボタンをクリックして下さい。

17 15分待てば出来上がり!

 

 VxRail Managerと呼ばれている統合管理GUIのログイン画面が表示されます。 ここでは管理者アカウント(administrator@vsphere.local)と先に入力したvCenterへのパスワードを入力して「認証」ボタンをクリックして下さい。

18 まずは administrator@vsphere.local でログインします

 

 色々触って確認したいところですが、最後にVxRail ManagerとVxRail Manager Extensionを連携させる儀式が残っています。 右側にあるメニュー一覧から「EXT」をクリックし、続いて右下にある「VXRAIL MANAGER EXTENSION」ボタンをクリックして下さい。

 

19 もう1ステップだけセットアップが残ってます。

 まず、毎度おなじみ使用許諾が表示されるので、一読して「同意する」ボタンをクリックして下さい。

 

20 毎度おなじみ使用許諾画面

 

 

 続いて中央に見えている「これで完了です!」ボタンをクリックして下さい。

 

21 ここでも日本語表示が当たり前。

 物理的な管理及び、メーカサポートとの連携のためのVxRail Manager Extensionを構成するためのパラメータを入力します。

 

22

<VxRail Manager Extensionパラメータ>

  1. vCenter IPアドレス
  2. DNSサーバ情報(オプション)
    ※オプションとなっていますが、インターネット連係が必要なので
     管理ネットワーク上のDNSサーバを指定して下さい
  3. vCenterのrootパスワード
  4. ESXiのrootパスワード

 入力が終わったら左下にある「送信」ボタンをクリックして数分待ちます。 以下のようにVxRail Manager Extensionのログイン画面が表示されたら本当の完了です。 念のためVxRail Managerと同じように administrator@vsphere.local でログインを確認して下さい。

 

23 念のため administrator@vsphere.local でログインできるか確認しましょう

 

 これにてセットアップは終了です。 事前準備さえ終わっていれば、箱を開けてから実質1時間程度で仮想インフラが完成します。 ゲストOSを作成することも可能ですし、vMotionやHA、DRSも構成済みの状態です。

 

 今回はスクリーンショットを多用したため長編大作気味になってしまいましたが、やっていることは本当にシンプルで、作業内容自体は簡単なものになっています。 仮想インフラの構築はここまでシンプル且つスピーディに行えるようになった、と感じて頂けたら嬉しいです。

 

 次回は日常運用のお話として、ゲストOSの作成手順やステータスの確認やログの採取手順をご紹介しようと思います。

 

 

2016/03/31

なぜなに Data Domain 第九回 - DD Boost over FC で最速バックアップを体感してみませんか?

皆さんこんにちは。

Data Domain のお時間です。

 Dd

Data Domain とバックアップサーバの接続方法は色々ありますが、今回はその中でも一番スループットの出る DD Boost over FC について、前後編でお届けします。

 

DD Boost って何?という方はまず 第四回 Data Domain DD Boostでバックアップ性能を向上! をご確認ください。前回の記事の 第八回 Data Domain と Backup Exec バックアップパフォーマンス動作検証レポート では、DD Boost のパフォーマンスにも触れています。

 

Data Domain の接続方法は色々あるといいましたが、実際はこんなにあります。

 

・CIFS

・NFS

・VTL(FC)

・DD Boost(over Ethernet)

・DD Boost(over FC)

・DD Boost(Enterprise Applications)

 

これらの中で、最大のスループットを出せるテクノロジーが DD Boost です。DD Boost for Enterprise Application は少し特殊なので置いておいて、DD Boost over Ethernet と DD Boost over FC の違いはバックアップサーバとの結線が LAN か SAN か、というところになります。 

LAN はデータ転送時にデータ以外のオーバーヘッド情報が SAN より大きいため一般的には SAN の方が高速と言われています。DD Boost over FC は DD Boost over Ethernet よりも対応製品が少なく、情報も出回っていないことから今回社内の DD2200 を使用してやってみました!

 

今回は対応製品のひとつ、Veritas(旧Symantec) NetBackup で検証してみました。

 

 

まずは Data Domain の設定をします。

  1. 忘れてはいけません、バックアップサーバと Data Domain を FC で接続しましょう。


  2. 何はともあれ DD Boost を有効にします。

    008_2

     

  3. ストレージユニットを作成します。こちらは特に over FC 用の設定はありません。普通にストレージユニットを作成します。

    009_2

     

  4. over FC 用の設定を行います。
    [Server Name] は バックアップサーバが over FC で接続する時に指定する名前を入れます。今回は「dd2200-lab1-1」にしました。
     [Server Name] は NetBackup の設定で使用しますので忘れないようにしましょう。
    [DD Boost Access Group] は over FC でデータを転送する Initiator を設定します。

    010_2



Data Domain の DD Boost over FC 設定が完了しました。
次はバックアップソフトである、NetBackup の設定です。
 

 

次は NetBackup 側の設定です。

  1.  NetBackup サーバが Data Domain のホスト名を名前解決できるように hosts もしくは DNS に Data Domain のホスト名を登録します。NetBackup の基本ですね。ここで登録するホスト名は、Data Domain 側で設定した [Server Name] です。

  2. NetBackup に DD Boost プラグインをインストールします。
    DD Boost プラグインは EMC サイトよりダウンロードします。バージョンの互換性がありますので、Data Domain の DD Boost 互換性リストから互換性の確認をしましょう。

    まずは NetBackup のサービスを停止しましょう。サービス稼働中はプラグインのインストールはできません。

    002
    次にダウンロードした DD Boost プラグイン tar.gz ファイルを展開します。

    003


    DD Boost プラグインをインストールします。

    004


    最後は忘れずに NetBackup のサービスを起動しましょう。

    005

     

  3.  NetBackup の管理画面から Data Domain を登録します。
    実際に NetBackup で DD Boost を使用する場合は、Storage Server, Disk Pool, Storage Unit の設定が必要ですが、「
    Coufiguration Disk Storage Server」 という項目からウィザードですべて設定が可能ですので、今回は「Coufiguration Disk Storage Server」から設定を行います。

    006_2

  4. NetBackup では DD Boost を使用する場合 Data Domain は Stoage Server として登録します。

    007


    Data Domain の情報を設定します。
    [Storage server type] は「DataDomain」を入力します。DD Boost を使用してData Domain へバックアップする時の決まり事ですね。間にスペースは入れません。
    [Storage Server name] は先ほど Data Domain 側で設定した [Server name] を入力します。が、 over FC でバックアップしますので [Server name] の前に「DFC-」を入れます。これは over FC の時の決まり事です。
    [Select media server] は Data Domain へデータを転送する(FC 接続している)NBUサーバを指定します。
    [User name], [Password] は 保存先の Data Domain ストレージユニットへのアクセス権のあるDD Boost ユーザ情報を入力します。

    011_3



    入力した情報に間違いがなければ以下のように Storage Server(Data Domain) の登録が完了します。

    012


    Data Domain の登録が完了しました。

  5. 続けて Disk Pool の設定を行います。
    [OpenStorage (DataDomain)] を選択します。NetBackup では DD Boost 等、サードパーティのストレージ機能と連携する場合は OpenStorage という機能を使用します。

    013
    先ほど登録した Storage Server を選択します。

    014
    Storage server の登録時に設定した DD Boost ユーザがアクセス可能な DD ストレージユニットが表示されるので、バックアップデータを保存する DD ストレージユニットを選択します。

    015


    Disk Pool の名前を入力します。名前は何でも良いです。

    016

    Disk Pool が作成されました。

    017

  6. 最後にNBU ストレージユニットを作成します。
    ここでの名前が NetBackup で保存先を指定する時の名前ですので、分かりやすい名前を付けましょう。
    018


    Finish です!

    NetBackup で DD Boost over FC を使用する準備が整いました。

    019

前編はここまでです。 

決まりごとは多いですが構築自体は比較的簡単にできますのでぜひお試しください。

後半は NetBackup のポリシー(バックアップジョブ)を作成して実際の動作を確認してみましょう。 

 

 

- 過去記事 -

 

 

 

担当 齋藤・吉田

 

2016/03/28

EMC ScaleIOのハイパーコンバージド環境にI/Oパフォーマンスの飛躍を

本記事はPernixData社のホワイトペーパーの翻訳版です。原文は「Attaining Breakthrough I/O Performance In EMC ScaleIO Hyperconverged Environments」にて参照可能です。

イントロダクション

ScaleIO

EMC ScaleIO はソフトウェアをベースとしたソリューションであり、vSphereホストに搭載されたディスクをプールし、ホスト間のインターコネクトを実現することで、ハイパーコンバージドインフラストラクチャ(HCI)を構成します。ホスト上の仮想マシン(VM)はScaleIOによってブロックストレージとして構成されたデバイスをVMFSデータストアやRDMデバイスとして利用することが可能です。HCIはコンピューティングレイヤ(仮想マシン)とストレージレイヤの間の距離を縮め、I/Oパスをホスト内だけに留めることができます。これによって、単一の物理レイヤであるサーバはコンピューティングプラットフォーム(VMware ESX ハイパーバイザーで管理)とストレージプラットフォーム(EMC ScaleIO)の両方として動作させることが可能となり、これはハイパコンバージドプラットフォームとして知られています。

ScaleIO ソフトウェアはサーバとクライアントコンポーネントから構成されています(下図)。サーバコンポーネントはLinuxベースの仮想マシンにインストールされており、ESXホスト上で動作します。サーバコンポーネントはScale IO Data Server(SDS)と呼ばれています。クライアントコンポーネントはScale IO Data Client(SDC)と呼ばれており、SDS仮想マシンが動作しているのと同じホストのESX kernel上の軽量なドライバーとしてインストールされます。ScaleIOのHCI環境では、コンピューティングに加えて、ストレージ機能を仮想マシンに提供するため、SDSとSDCの両方が全ての適切なホストにインストールされている必要があります。Scale IOについての更に詳しい情報についてはEMC VSPEX Private Cloudをご参照ください。

Fig365アプリケーションからのI/OリクエストはSDCからSDSに対して構成されている論理アダプタ(logical adapter)を経由して、上の図に記載の物理ストレージへ送られます。このパスはデータの格納箇所によっては長くなってしまうことがあり(EMC VSPEX Private Cloudの第3章 "Storage Layer"をご参照ください)、高いI/Oアクティビティが行われる場合には不必要な遅延がボトルネックとして露呈します。ScaleIO仮想マシンのCPU負荷もI/Oレイテンシが予期しない動きをすることへ影響を与える要素の一つです。Scale IOはSAN環境におけるパスと比較するとアプリケーションからのリクエストから物理ストレージまでを短くすることができていますが、そのパスはまだ長く、混雑しがちです。結果としてこのパスを通るI/Oのレイテンシはまた高いと言わざるを得ません。

FVP

PernixData FVP® ソフトウェアは高速なRAMやSSDのようなホストリソースを利用し、低遅延の耐障害性のあるデータ高速化レイヤをvSphere ホストのクラスタ全体に提供することが可能です。このレイヤは頻繁にアクセスされるデータの格納場所やアプリケーションによって書き込まれる新しいデータの高速なI/Oを完了させる場所として利用することができます。

Fig366ESXカーネル内で動作し、他の様々なソフトウェアソリューションよりもコンピューティングレイヤに非常に近いレイヤに位置する(上の図を参照)ことから、FVPはデータのReadを劇的に改善することが可能です。アプリケーションは様々なタイミングでデータにアクセスします。FVPはこうしたリクエストに対して高速化レイヤー内のデータで応答します。高速化レイヤー内にデータがない場合にだけ、FVPはプライマリストレージへとそのリクエストを転送します。ですが、そのプライマリストレージからリクエストに応じて読み込まれたデータのコピーはデータ高速化レイヤに書き込まれ、将来のリクエストに備えることになります。

FVPはデータが高速化レイヤに書き込まれた直後にACK(完了通知)を返すことによって、Writeも高速化します。バックグラウンドではFVPがプライマリストレージへと送信されることを保証しますが、プライマリストレージへ書き込むレイテンシは仮想マシンからは見えなくなります。

ScaleIOをFVPと一緒に利用することで、I/Oのパフォーマンスはそのキャパシティから分離された最高のパフォーマンスを誇るHCI環境となります。この分離はIT管理者がそれぞれの要件に対して独立して管理、そして成長できるということを保証します。FVPはReadデータを削減し、Writeのレイテンシを劇的に低減するだけでなく、ScaleIOストレージ構成や複数のストレージの混在にかかわらず、一貫した均一のレイテンシを提供するのです。本ホワイトペーパーは以下では、ScaleIOとFVPを統合したインフラストラクチャにおいて実施した検証における定量的な効果について述べることにします。

検証の構成

本ホワイトペーパーにおける検証では4ノード構成のScaleIOベースのハイパーコンバージドインフラストラクチャを利用しました。検証の構成は以下の図の通りです。

Fig367それぞれのノード上にWindowsオペレーティングシステムが動作する仮想マシンを動作させました。4つ全ての仮想マシンにIOMeterをインストールしてあります。IOMeterはそれぞれのカオスマシンの仮想ディスクに対して事前に設定されたI/O負荷を生成して、負荷を与えるように構成されています。

ベースラインテストの後、FVPをそれぞれのScaleIOノードにインストールしました。FVPとホストメモリを利用して、すべての4つのノードをまたがった高速化レイヤを作成しています。IOMeterを動作させているテスト仮想マシンを順次FVPクラスタへと追加します。「Write-Back高速化」として知られるポリシーを用いて、仮想マシンのReadとWriteの双方を高速化します。IOMeterを高速化した仮想マシン内で動作させ、繰り返し、それぞれのスループットの総計とレイテンシの平均を記録しました。

検証

本ホワイトペーパーの検証で利用したI/Oワークロードのプロファイルは以下の図の通りです。ワークロードはReadとWriteのバーストを定期的な間隔で生成するように構成してありますが、同時には発生しないようにしてあります。バーストしていない期間におけるReadとWriteの操作はピーク時におけるものよりもかなり低く設定してあります。このIOmeterのワークロードはIOPSが定期的にスパイクするような一般的なワークロードのプロファイルを模したものであり、ReadとWriteのバーストは予期せずに発生します。

Fig368検証はReadとWriteのピーク性能を図ることとその際のそれぞれのテストケースにおけるレイテンシを図ることを主目的とします。それぞれの仮想マシンのIOMeterはI/O負荷を同時に発生させるように構成してあります。それぞれの仮想マシンのピーク性能は合計されて全クラスタに対して発生するため、全てのノードのレイテンシの平均値はクラスタレベルでの平均値を表すことになります。

検証結果

IOMeterはReadとWriteの両方のリクエストを同時に生成するため、この「検証結果」のセクションではそれぞれの操作を個別に見ていくことで理解しやすいようにしています。

ReadとWriteに対するFVPの影響

ScaleIOベースのHCI環境においてのFVPのReadとWrite操作に対しての影響を理解しやすように、単一の仮想マシン内でIOMeterを動作させるという検証を実施します。

Read

ベースラインとFVPを利用した場合のReadのパフォーマンスを以下の図に示します。図の上のグラフはピーク時のベースラインとFVPを利用した場合とそれぞれのReadの平均レイテンシを比較しています。

Fig369

Fig370

IOMeterの仮想マシンがFVPによって高速化された際にはReadのレイテンシは対応するベースラインでの結果に対して86%低減されています。これによってピーク時のIOPSはFVPによって8倍分増加しています。

Write

ベースラインとFVPを利用した場合のWriteのパフォーマンスは以下の図に表されています。図の上のグラフはピーク時のベースラインとFVPを利用した場合とそれぞれのWriteの平均レイテンシを比較しています。

Fig371

Fig372

Writeがピークに達した際のWriteのレイテンシはWriteが高速化されている場合には55%低減されており、このレイテンシの低減によってピーク時のWriteのIOPSは1.2倍分増加しています。

FVPによるパフォーマンスの拡張

ScaleIOのハイパーコンバージドインフラストラクチャはノードを追加することでリニアにI/Oパフォーマンスを拡張していくことが可能です。これは一極集中のアーキテクチャではないためです。巨大なScaleIOインフラストラクチャは強力な並列ストレージシステムとなります。

前出のセクションで、FVPが単一のScaleIOノードのI/Oパフォーマンスを劇的にブーストさせることが出来ることを示しました。ScaleIOのアーキテクチャを考慮すると、FVPをそれぞれのScaleIOノードにインストールして高速化レイヤを拡張させることで、ScaleIOインフラストラクチャ全域にわたってパフォーマンスをブーストさせることが可能となります。4ノードのScaleIOインフラストラクチャと4つのIOMeter仮想マシン(各ノードに1つづつ)において実施した検証によってこれを定量的に示すことができます。

Fig373

Fig374

Fig375

Fig3762つの棒グラフが示すとおり、ReadのIOPSとWriteのIOPSの両方がFVPの有無に関係なくScaleIOノードを追加するごとにリニアに拡張されています。さらに、それぞれのノード上の仮想マシンをScaleIOノード上に構成されたFVPクラスタに追加することでFVPによって線形にパフォーマンスはブーストされながら、それに対応するレイテンシはほぼ一定に低く保たれています。

ReadとWriteの双方は仮想マシンがFVPで高速化されている場合には同じレイヤから供給されるということを付け加えておきます。IOMeterでのレイテンシはReadとWriteで同じになっています。見てわかるほどのReadとWriteのレイテンシの低減は殆どのアプリケーションにとって劇的な効果をもたらします。アプリケーションはRead-変更-Writeという操作を大量に実行しているからです。ReadまたはWriteもしくはその両方のレイテンシが高い場合にはアプリケーション全体がスローダウンし、エンドユーザーはより多くの時間を待たなくてはならなくなります。

サマリ

ScaleIOはソフトウェアベースのソリューションでvSphereホストのローカルストレージとホスト間のインターコネクトを活用して、既存のvSphereベースのクラスタをハイパーコンバージドインフラストラクチャへと変革することが可能です。ScaleIOベースのハイパーコンバージドインフラストラクチャはインフラストラクチャ内のノードを増やすことでI/Oパフォーマンスをリニアに拡張することが可能です。PernixData FVPはメモリやSSDのような高速なサーバリソースを活用し、ScaleIOノード個々のI/O性能を劇的に向上させることが可能です。

本ホワイトペーパーの検証では超並列で拡張可能なサーバベースのストレージインフラストラクチャをScaleIOで構成した上で、FVPによってこのインフラストラクチャのパフォーマンスとキャパシティを分離させることで、非常に高いIOPSと低いレイテンシを実現できることを示唆しました。高速化したHCIはReadとWrite操作双方に一貫した均一のレイテンシを提供しながら、パフォーマンスをリニアに、そしてその下のストレージハードウェアとは独立して改善拡張することが可能です。

参考文献

EMC VSPEX Private Cloud

http://www.emc.com/collateral/technical-documentation/h13156-vspex-private-cloud-vmware-vsphere-scaleio-pig.pdf

Iometer

http://www.iometer.org/

PernixData FVP

http://www.pernixdata.com/pernixdata-fvp-software

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)

2016/03/16

ついに日本国内リリースされたVxRAIL【イントロ編】

こんにちは、石塚です。かなり久しぶりにブログ登場です。

登場しなかった期間の個人的なご報告として、今年もEMC Electに選出され、さらにVMware vExpertにも選出頂きました。 今年も各種イベントや本ブログ、そしてEMC Community Network で皆様のお役に立てる情報を発信していきたいと思います。

私は昨年からハイパーコンバージドを中心に活動しているわけですが、EMC社から新たにVCEブランドでリリースした VxRail (ブイエックスレール)がついに日本でも発表されました!! VxRailはVSPEX BLUEの後継機でもあるわけですが、今回はVxRailがどのように変わったのかをお伝えしようと思います。

ブレてないプロダクトコンセプト(簡単導入・簡単管理・簡単拡張)

 変わったところをお伝えすると言いながら、まずはブレてない製品コンセプトをおさらいしたいと思います。 VSPEX BLUEでもそうでしたが、VxRailも簡単導入簡単管理簡単拡張と簡単3ポイントが基本コンセプトになっています。 初期設定から完全にGUIで利用できて、さらに当然のことながら日本語です。 シンプル&グラフィカルなVxRail Manager(旧EVO:RAIL Engine)でvSphereの統合管理が可能ですが、これまでのvSphereと同様の運用がしたければvSphere Web Client(及びVI Client)を利用することも可能です。 ハードウェアの管理もVxRail Managerと同じ操作感で実装されているVxRail Manager Extension(旧BLUE Manager)で管理者様の負担を軽減します。

 簡単導入の点では、導入時の事前チェックプロセスがより詳細なものになりました。例えば指定されたVSANネットワークが正しく通信できない場合や、DNSサーバやNTPサーバへきちんと疎通ができない場合は先に進めません。初期セットアップのトラブルの殆どがネットワークトラブルだったと言う経験から実装された検証機能なのかと思います。これでさらに導入がシンプル&スマートになるでしょう。

通信ができない場合はエラーになって確認を促します

Error_2

 そして管理面ではシャットダウンがGUI上のボタン1つで可能になっています。VSANで構成されているため、VSPEX BLUEではやや煩雑な電源断手順が必要だったのですが、これを一気に解消してくれました。 しかも、実際にシャットダウンする前には「正常な状態であるか」をきちんとチェックしてくれます。問答無用で電源断するようなことは無いので、この点でも安心&確実な運用を支援してくれるはずです。 標準でサーバ管理ポート(Remote Management Module, RMM)が利用できて、RMM経由で電源を投入することが可能ですから、わざわざ設置されている場所に赴かなくても、リモートで電源操作が可能です。 機能エンハンスとしてのインパクトは小さい印象を受けますが、実運用面では大切な機能だと思います。

シャットダウンもボタン1発!しかも事前チェック付!!

Shutdown

今回のリリースの目玉はモデルラインナップの拡充!!

 今回のVxRailのリリースで最大の注目ポイントは間違いなくモデルラインナップになると思います。 VSPEX BLUEも非常に優秀で完成された製品でしたが、モデル選択はメモリ搭載容量(128GB/192GB)とネットワークインターフェース(RJ45/SFP+)の合計4モデルに絞られていました。 EMCと言えば「選択肢が豊富」と言う印象があったので残念ポイントだったのですが、今回のVxRailではCPU、メモリ、ディスク容量、インターフェースが複数の選択肢から選べるようになりました。さらに2016年Q2(4月~6月)にはさらにローエンドモデルとオールフラッシュモデルのリリースが予定されています。

ハイブリッドモデル(SSD+HDD)

Modellist_hybrid

オールフラッシュモデル(SSDのみ)

Modellist_afa

 上のリストにも記載されていますが、Q2以降では1ノード単位での追加が可能になりますし、その後にも色々な機能拡張が予定されています。 これらの機能拡張は全てvSphereの進化に追従できる純然たるvSphereアーキテクチャで実装されているからこそだと言えます。

基本ソフトウェアはvSphere6ベース

 VSPEX BLUEはvSphere5.5ベースでした。 このため、VSANのパフォーマンスや使い勝手、実績面でお客様からのご質問を多く頂いていましたが、VxRailはvSphere6ベース(6.0 update1)になりました。このため、色々な機能制限が向上し、パフォーマンスも向上しています。

VxRailと旧EVO:RAILとの比較Diff_vxevo

 VSANの実績としても、1000人以上のユーザ規模のVDI環境での利用も事例として出てきています。 スモールスタートできて、そのままスケールアウトできるメリットを生かせるVDI環境にはうってつけなのかと思います。

 

 今回はVxRailのイントロダクションとして、ここまでにしておきたいと思います。次回以降、初期セットアップや管理画面の操作性、ゲストOSの作成・管理、拡張などをご紹介してきたいと思いますのでご期待下さい。

2016/02/25

クラウドを活用できる今話題のEMC CloudArrayとは!? ④

いよいよ、最終回です!

最後にウィザードを利用せずに設定していき、CloudArrayを極めていきたいと思います。

引き続き、EMC担当の片山です。

前回は初期セットアップウィザードを利用してCIFS設定をしてきましたが、今回は各設定を理解した上で個別に今までの設定を実施していきたいと思います。この操作が一通りできれば、あなたも今日からCloudArrayマスターを名乗れます! 

簡単な設定の流れとしては、下記を項目の様になります。

N_3



では、上記の流れで項目の順を追って説明していきたいと思います。

(1)Cloudプロバイダの設定

まず第一に、利用したいCloudプロバイダを設定していきます。

左側メニュから【CLOUD PROVIDERS】をクリックします。【Configure New Cloud Provider】をクリックします。

C

【Select Cloud Provider】のメニュから、今回も検証で利用している【Amazon S3】を選択して、【Continue】をクリックします。

D

Amazon S3に接続に必要な情報を入力します。入力後【Save Cloud Provider】をクリックします。これでCloudプロバイダ設定は完了です。

E

(2)CACHE設定

次に、PoolからCacheを切り出す設定をしていきます。GUIの左側メニュから【CACHE MANAGEMENT】⇒【Caches】をクリックします。そして【Configure New Cache】をクリックします。

A_4

まずはCacheの名前を入力します。次にここでは、【Pool_1】から10GBを利用する形でCacheを作成しています。値に間違いがなければ【Configure New Cache】をクリックします。

B_2

【Create One Big Cache Using All Available Capacity】は複数Poolから大容量のCacheを作る際にチェックをします。

(2)POLICY設定

次に、Cache⇒Cloudプロバイダの紐づき設定であるポリシーを作成しておきます。 左側のメニュから【PROVISONING POLICYS】をクリックし、【Configure New Provisioning Policy】をクリックします。

F

まず、ポリシー名を入力します。またここでさきほど設定したCloudプロバイダ設定とCache設定を選択して紐づけます。紐づきが正しければ、「Configure Provisionig Policy」をクリックします。

G

(2)接続プロトコルの有効化(CIFS)

左側メニュより、【SHARES】⇒【Settings】をクリックして、CIFS機能を有効にします。

※ デフォルトは無効になっています。

I

CIFS機能を有効にすると表示される【CIFS】メニュをクリックします。ここではサーバ名やWorkgroup環境、ActiveDirectory等のCIFSサーバの基本設定をしますが、今回は検証ですぐにアクセスして利用するためWorkgroup、【Allow Guest Access For CIFS Shares】にチェックを入れゲストアクセスを許可しています。

※AD連携、Workgroup環境でローカルユーザーを作成することも可能です。

※AD環境でダイナミックDNS機能連携はないためホストをDNSに登録する必要があります。

J_2

次に、Volumeと共有を作成するため、【New Share】をクリックします。

K

(2)Volume、Shareの作成とPolicyの紐づけ設定

【New CIFS Share】ウィンドウが開きますので、【Share Name】を入力します。次に、さきほど作成したCache(10GB)⇒Amazon S3への【Policy】を選択します。【Capacity】には50GiBを入力します。最後に【Save】をクリックします。

M_5

以上でCloudArryaへの設定は完了です。CloudArrayのIPアドレスへアクセスすると普通にアクセスできるかと思います。これであなたもCloudArrayマスターです!

最後に設定完了のついでに、構築したCloudArrayのCIFSサーバに、600MBと3,000MB程度のファイルを共有に対して同時に書込んで見たいと思います。そして、ダッシュボードで監視してみます。

データ自体はCacheに書込まれるため、書込み遅延が発生するような事はありませんが、Cloudに書込まれていないデータはDirty Pageとして【Current Cache Activity】に表示されています。また、FIFOデータ処理方式により、圧縮、暗号化処理が完了次第、順次Cloudに転送していることがわかるかと思います。

※ 圧縮、暗号化を設定しない場合でも分割と最適化をしているのか同様の動きをします。

1_3

 

 少し待って再度確認してみると、右上の【Cache Usage】のUsedのグラフが約3.6GBぐらいになっているのがわかります。Dirty Pageはほぼ横ばいの"0"となり、定期的にCloudプロバイダへReplicationが一定の間隔で継続していることがわかります。

2_3

この結果からも、仮にCloudプロバイダへのReplicationが書込みに追いつかず、Dirty Pageが90%以上に達っしてしまうと、そのCacheを利用している対象領域へのアクセスが一時停止してしまうため、CloudArrayのCache容量をどう設定するかが非常に大事だという事が見て取れるかと思います。やはりCache設計には注意が必要になります。

これで4回目となった今回の記事【クラウドを活用できる今話題のEMC CloudArrayとは!?】ですが、EMCクラウドゲートウェイ製品はどうでしたか?まだ発展途上の製品ではありますが、思ったより設定がシンプルで、VE版であればすぐに検証及び導入できそうに思えるかと。もし興味がある方は是非お試しを!

 

記事:片山

 

今回の記事一覧はこちら

クラウドを活用できる今話題のEMC CloudArrayとは!?①

クラウドを活用できる今話題のEMC CloudArrayとは!?②

クラウドを活用できる今話題のEMC CloudArrayとは!?③

クラウドを活用できる今話題のEMC CloudArrayとは!?④

 

 

2016/02/22

いよいよリリース! VSAN 6.2 すべてはErasure Coding!! 細かな機能も抑えておこう

この記事は前々回、前回につづき新しいVSAN 6.2についての記事です。是非こちらの記事もお読みください。

いよいよVSAN 6.2がリリースされています。詳しくはこちらの桂島様の記事でカバーされていますので、是非ご覧になってください。

ご紹介している「Erasure Coding」、大注目の「インライン重複排除&圧縮」についてはAll flash構成のみでサポートされます。桂島様の記事によると重複排除&圧縮で2~7倍の容量効率、Erasure Codingを併用する10倍までの容量効率を実現できるとのことです!

また、EMC/VCE社からはVSPEX BLUEの後継に当たるVxRailも発表されています。VSAN Ready Node程細かく指定はできませんが、選べる構成の幅が大きく広がり、さらに「4ノード縛りにこだわらない」という発言も飛び出しているようです(ネタ元)ので、EVO:Railの画一的な構成ではなく、今後幅広く利用していくことが可能になっています。

リリースされたErasure Codingの実装について(前回の記事の訂正を含む)

先日の記事ではリリース前の情報から推測しての記載でしたのであたかもパリティデータを専門で担当するノードがあるような図になっていましたが、実際の実装ではパリティも各ノードに分散して保持されます。

Paritydistribution※ 図については桂島様の記事よりお借りしてきました。

また、サポートされるのはRAID-5およびRAID-6のみで、それぞれの最小要件はRAID-5は4ノード(3+1)から、RAID-6は6ノード(4+2)からとなります。つまり、VxRailのような4ノードのアプライアンスでもRAID-5が利用できるため、VDIなどのある程度キャパシティの必要な構成も対応が可能です。(クドいかもしれませんが、RAID-5を含むErasure Codingはオールフラッシュ構成のみでサポートされます)

QoS

ストレージポリシー内で各VMDKあたりのIOPSの上限値を設定できるようになりました。ストレージポリシー内で設定できるということはオンデマンドで(VMの再起動などなく)これを変更出来るということです。過度にオーバープロビジョニングするような構成は想定されていない(コスト高になりますから・・・)ので最低値の設定はありませんが、業務に不必要なVMがノードのI/Oを食い潰すようなことを防ぐことができますので、ビジネスクリティカルアプリケーションの動作について、より安心が出来るようになっています。IOPSでの指定ですので、ブロックサイズも見なくてはなりませんが、非常に強力な機能です。(今回の記事内で唯一Erasure Codingと直接関係しません。)

Qos

※ 上の画像はVMwareのCTOオフィスのDuncan Epping氏のブログからお借りしました。

インメモリ・リードキャッシュ

容量効率やQoSの影に隠れていますが、個人的には非常に重要と思う機能がこちらです。VSANはノード間でデータを分散します。VMのReadリクエストに対する応答は「データを持っているもっとも遅いノードを待たなければならない」ことになります。

前回の記事はWriteのトラフィックだけを解説しましたが、Readのトラフィックも同様にネットワークを何度も流れることになります。特にRAID5/6の構成の場合、「たまたまローカルのノードにデータが有った」ということもありえませんので、ローカルのノードにリードキャッシュを保持するということはパフォーマンスの観点からもネットワークの観点からも非常に重要な機能です。

Traffic_for_read_request_2※ 図の統一のためにErasure Codingもハイブリッド構成のようにしてありますが、All Flashのみで対応です

Duncanさんの記事によるとこのリードキャッシュは非常に小さいもので、各ホストの物理メモリの0.4%または最大でも1GBとのことですが、上で解説したとおり、Readのためのネットワークトラフィックを削減するため、およびネットワークトラフィックによるレイテンシの低下を防ぐためには非常に重要な機能です。

気がついている方も入るかもしれませんが、このインメモリキャッシュはPernixData社の無償製品FVP Freedomエディションに相当する機能です。アプリケーションにとっては小さなキャッシュサイズでも非常に大きな効果が得られる場合がありますので、是非心に留めておいてください。

CheckSum

VSANはネットワークを通じてデータを書き込むため、ネットワーク転送によってデータが変化していないことを保証する必要があります。近年のネットワーク品質を考えればほとんどありえないことですが、そこまで保証するのがVSANです。金融機関などで万が一が起こったとしたら、大混乱です。これも一種のErasure Codingと言えるかもしれませんが、RAID5/6が横方向にパリティを発行するものだとすると、CheckSum機能は縦方向に対してはチェックサムを発行し、VMから出たデータが正しくキャパシティ層に着地したことを保証するものです(データが変更されていることを検知するのが目的で、復元することが目的ではないのでパリティではなく、チェックサムが利用されています)。

まとめ

他にも管理系の機能なども充実していますが、今回のシリーズはあくまで「Erasure Coding」のシリーズでしたので、関連する部分に留め、別の機会にしたいと思います。

とにかく、新しいVSANは良く出来ている! 注目されている容量効率の面からだけでなく、ネットワークトラフィック、そしてパフォーマンスの観点からも理にかなっているのです。

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)

2016/02/15

困難な時代だからこそ、スマートに最適化 ~不景気とその時に売れたプロダクト~

本ブログエントリーはPernixData社のVP MarketingであるJeff Aaron氏のブログ記事を翻訳しています。 

本記事の原文はWhen the Going Gets Tough, the Smart Optimizeで閲覧可能です。

ネットワールドのPernixDataに関する情報はこちら。本ブログのPernixDataの記事のまとめはこちら

情報システム部門はいつも、少ない投資で多くの成果を上げるようにと言われ続けます。景気が上よい際には、当然悪い時よりも輝かしい新しいオモチャを買うのは簡単なことです。これが近年AFAの市場が非常に活発である(訳注:リンク先はIDC.comの英文リリース)と言われている理由の一つです。

しかし、2016年、誰かが予想し始めているように(リンク先はCNN.comの景気後退についてのビデオ)経済が停滞したら、投資の様相は変わっていくのでしょうか?

過去の歴史に目を向けてみましょう・・・

2001年、VMwareはESXの最初の出荷を開始しました。それはドットコムバブル後の経済低迷の最中のことでした。この製品はVMwareのその後の成功の推進力となります。なぜ、そんなにも上手く行ったのでしょうか? その当時、情報システム部門はその労力を付加価値へフォーカスさせて(リンク先はGartnerの2001年の記事)いました。例えば、基盤の改善のためのプロジェクトに投資を集中させるという具合にです。ESXはそれを素晴らしいやり方で、導入するだけで実現させてくれるものでした。もっと具体的に言うと、仮想化によってサーバインフラストラクチャを最適化し、サーバハードウェアを大量に買うということをしなくて済むようになったのです。ROIは現実のもので、簡単に定量化することができました。

同じように2010年、IT産業はGartnerによると「緊縮の年(Age of Austerity)」を迎えます。しかし、多くの企業がサブプライムローンとヨーロッパの金融危機のために、もがいていたにもかかわらず、Isilonはこの時、(EMCに$2.25Bドルで買収される前を除くと)4四半期全てにおいて、素晴らしい業績を残しています。なぜでしょうか? 彼らは会社組織がインテリジェントにストレージを成長させ、高くつく余裕を見過ぎた構成を取らなくて済む、新しいスケールアウトアーキテクチャをもたらしたのです。

ここから学ぶべきことは?

困難な時代だからこそ、人々は最適化を行います。VMwareはサーバのパフォーマンスを最適化するソフトウェアとして名を成し、Isilonはストレージハードウェアをスケールアウト成長とともに最適化することによって、数億ドル規模の会社へと成長したのです。どちらの場合も、ソリューションはハードウェアの投資を最小化しながら、しっかりとした付加価値を提供しています。

では、2016年はどうなるのでしょうか? 経済の不安定さによって、今年、CIOたちは情報システム部門にかける予算を非常に厳格に管理し始めるでしょう。これは盲目的に問題に対してハードウェアを投げつけるということが難しくなって行くということを意味します。例えば、ストレージ装置のパフォーマンスを得るために、キャパシティを購入するということは効率的ではなく、高価で、顧客がそれを受け入れなくなっていくにつれ、難しくなってくるでしょう。これは非常にコスト効率のよいクラウドベースのサービスによって、実際の機材に対して投資をすることが大きく疑問視されていることとよく似ています。

加えて、いわゆる「キャデラック(高級乗用車)」への投資も疑問視されています。例えば、すでにデータベース環境のそれぞれのインスタンスがOracleが必要なのか、もっと安価な、SQLサーバやMySQLですんでしまうのか、よく吟味している顧客は多くあります。これによって高価なインメモリコンピューティングやExadataのような専用ハードウェアへの投資を、代替の同等のパフォーマンスをもっと安価に提供できるソリューションへと切り替えつつ有ります。

私は、特にストレージの領域において、こうした要素(投資の最適化)がAFA(オールフラッシュストレージ)とハイパーコンバージドのマーケットをやわらかく、それぞれがより近い意味あいのものにしているように感じます。会社組織は既存のストレージを最適化しようとしているのであって、高価な新しいハードウェアで置き換えようとしているのではありません。しかも、本当にストレージのキャパシティがもっと必要とされているのでないのであれば、新しいストレージを購入しようとは思いません。次の世代のソリューションが更に優れたスケールアウトの能力(もしくはもっとコスト削減が可能など)を搭載してくるからです。

時が流れるにつれ、人々は基本を忘れていきます。好き勝手なことをやり始めますし、実際のニーズではなく、周りのトレンドで購入の決断をしてしまう時もあります。(Apple Watchを持っている人はいますか?) しかし、困難な時代を迎えると、基本が全てを支配します。この調達のビジネス上の意味は? これは最もコスト効率が良いソリューションなのか? 今でなくてはならない投資なのか?もっとあとでも良いのか? 前回の投資の高価は最大化できたのだろうか? 非常に慎重で、しっかりとした、効率のよい決断が必要で、新しい輝かしいオモチャを購入することに比べると楽しいものではないかもしれません。しかし、これがビジネスをより強くするのです。

引用

経済が良い時に輝かしい新しいオモチャを買うのは、悪い時に買うよりも簡単である。

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)