*EMC Feed

2016/04/12

ついに日本国内リリースされたVxRAIL【セットアップ編】

 こんにちは、石塚です。VxRail国内リリースから1か月が経ちましたが、リリース直後から多くのお客様からお問い合わせを頂いています。 やはりハイパーコンバージドは注目株なのは間違いありませんね。

 

 今回も前回に引き続きVxRailについてご紹介したいと思います。今回取り上げるテーマは「簡単導入は本当なのか!?」です。 前回のなかでもご紹介しましたが、簡単且つスマートで確実なインストールが可能と謳われています。 しかし、実際にVxRailをまだ見たことの無い方にとっては「本当か?」とか「何をもって簡単と言っているんだ?」などの疑問があるかと思います。 今回は長文にはなってしまうのですが、スクリーンショットを多く使い、「この記事さえ読めば誰でもVxRailを構築できる」と言うレベルを目指してご紹介したいと思います。

 

作業の前に準備するもの

 イキナリ箱を開けても何となーく導入できるぐらい簡単なのですが、クッキング番組のようにまずは予め準備頂きたいものをご説明します。

 まずはハードウェアとして準備頂くもののリストです。

  1. VxRail(1箱にアプライアンス本体、電源ケーブル、ベゼルがまとめられています)
  2. 10Gbスイッチ(アプライアンス毎に8つのポートが必要です)
  3. 10Gbスイッチに適合したケーブル×8つ
  4. 200V電源ポート×2つ
  5. Windows PC(ブラウザとしてFirefoxもしくはChromeをインストール済み)

 

 ここでポイントになるのは10Gbスイッチです。 VMware Virtual SANの場合、強い推奨となっている10Gbスイッチですが、VxRailの場合は各ノードごとに搭載されている10Gbポート×2つで全てのデータ通信を行うので「10Gbスイッチは必須」になっています。 例外的にVxRail60だけは1Gb×4つで構成されています。 また、この10Gbスイッチの構成には必ず以下の構成をお願いしています。

  • Default VLANを構成して下さい(恒久的に利用します)
  • 全てのノード間の管理セグメントにはマルチキャスト通信が必要です
  • 全てのノード間のVSANセグメントにはマルチキャスト通信が必要です

 上記3点はアプライアンスの増設時に追加されるアプライアンスを検出するためと、VSANの要件になっています。 EMC社が提供しているVDX6740B(Brocade OEMの10Gbスイッチ)については、細かい導入ガイドがあり、サンプル構成ファイルもあるのでこちらを参照すると分かりやすいかと思います。 この資料はEVO:RAILシリーズのころのものですが、VxRailでも同様なのでご安心下さい。 VDXであれば10Gbスイッチも含めて一元保守になりますね。 また、導入手順書を作成するツール(SolveDesktop)にはCisco Nexusについての構成も同様に構成方法が掲載されています。

01_2

 SFP+モデルの場合のケーブルの種類ですが、これは接続する10Gbスイッチ側の要件を確認して準備下さい。 VxRailはアクティブケーブルでもパッシブケーブルでもサポートされています。 ※VDXをお使いになられる場合はアクティブケーブルになります。

 続いてご質問の多い電源仕様です。 大容量メモリを搭載した4つのサーバが動いていますので、現時点では200Vが必要になっています。 これもVxRail60だけは例外的に100Vでもサポートされています。

 環境的な最後の準備はセットアップするWindows PCについてです。 ブラウザとしてFirefoxもしくはChromeを準備して下さい。Internet Exploreでは正常に実行できないことがあります。 VxRailの工場出荷時のIPアドレスは192.168.10.200になっています。同セグメントが存在している場合はIPが重複しないか確認をして下さい。また、デフォルトのIPに接続し、そして実運用のIPへそのまま接続することになるので、セットアップするWindows PCには実運用のIPアドレスに疎通可能なIPアドレスと、VxRail工場出荷デフォルトIPに接続可能なIPアドレス(例えば192.168.10.210など)の両方のIPアドレスを設定して下さい。

02

 上記の例では実運用セグメントのIPとして10.10.50.101/16が設定されていて、セットアップ用セグメントのIPとして192.168.10.210/24を割り当てています。

 続いて、準備するパラメータについては以下の通りです。

<システムパラメータ>

  1. NTPサーバ
  2. DNSサーバ
  3. オプション)Active Directory情報(ドメイン名, ユーザ名, パスワード)
  4. オプション)HTTPプロキシ情報(プロキシサーバIPアドレス, ポート番号, ユーザ名, パスワード)

<管理パラメータ>

  1. ESXiのホスト情報(ホスト名(1から始まる通し番号になります))
  2. vCenterホスト名
  3. VxRail Managerのホスト名(VxRailの管理GUIを提供するゲストOSのホスト名)
  4. ESXiの管理IPアドレス(4つ以上の通し番号)
  5. vCenterのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  6. VxRail ManagerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  7. 上記の管理IPセグメントのネットマスク
  8. 同管理IPセグメントのゲートウェイ
  9. ESXiのパスワード
    ※複雑性を求められ、特定の記号(&’”;=`\$)は利用できません。
     また、キーフレーズ及びそれに類するものも利用できません。
     例えば Welc0me1! のような複雑性が必要になります。

 

<vMotionパラメータ>

  1. ESXiのvMotion用IPアドレス(4つ以上の通し番号)
  2. 同vMotionセグメントのネットマスク
  3. 同vMotionセグメントのVLAN ID

 

<Virtual SANパラメータ>

  1. ESXiのVirtual SAN用IPアドレス(4つ以上の通し番号)
  2. 同Virtual SANセグメントのネットマスク
  3. 同Virtual SANセグメントのVLAN ID

 

<仮想マシンネットワークパラメータ>

  1. 仮想マシンネットワーク名(仮想スイッチポートグループ名)
  2. 仮想マシンネットワークのVLAN ID

 

<ソリューションパラメータ>

  1. ログサーバ(vRealize Log Insight(バンドル済み)もしくはSyslog)の選択
  2. ログサーバのホスト名
  3. ログサーバのIPアドレス
  4. VxRail Manager ExtensionのIPアドレス(ハードウェア監視するためのゲストOSのIPアドレス)

 以上が必要になるパラメータの全てです。

 これらを以降で紹介する初期セットアップウィザードで入力するだけで、vSphere、vCenter、仮想スイッチ、vMotion、Virtual SAN、Log Insightなど全ての初期セットアップが完了します。ボタンを押せばあとは15分待つだけです!

それではセットアップ開始!

 必要なハードウェア、10Gbスイッチの構成、パラメータの準備ができたら、あとは箱を開けてセットアップするだけです。このステップでのポイントは電源をノード#4 ⇒ ノード#3 ⇒ ノード#2 ⇒ ノード#1の順番で起動する、と言う流れです。そしてそれぞれのノードは15秒程度の間隔をあけて起動して下さい。あとは5分程度待てばセットアップが開始できるようになります。

 

 まず、初期セットアップ用のIPアドレスである192.168.10.200/24」にブラウザで接続します。

03

 上記のようなウェルカムページが表示されます。注目すべきはこの時点で日本語であることです。 セットアップからしてグラフィカルで、且つ日本語が使えると言うのは管理者様にとって本当に優しいと思います。「開始する」ボタンをクリックして次へ進みます。

04

 毎度おなじみ使用許諾についての条件書が提示されます。 一読して右下の「同意する」をクリックして下さい。

05

 前述の各種準備についての確認ページです。 10Gbスイッチの構成、VLANの構成(管理用のDefault VLAN、vMotion、Virtual SAN各VLAN)が完了していることを確認したらそれぞれのチェックボックスをクリックしてマーキング(例のようにチェックボックスが青く変化します)して、右下の「次へ」ボタンをクリックして下さい。

 

0502

 続いてセットアップの方法を選択します。 通常はウィザードに則ってセットアップすると思いますので、「ステップバイステップ」をクリックします。

06_2

 まずはシステムパラメータを入力します。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<システムパラメータ>

  1. NTPサーバ
  2. DNSサーバ
  3. オプション)Active Directory情報(ドメイン名, ユーザ名, パスワード)
  4. オプション)HTTPプロキシ情報(プロキシサーバIPアドレス, ポート番号, ユーザ名, パスワード)

07_2

 続いて管理パラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 現バージョン(3.0.0)の場合はホスト名はショートネーム(ホスト部)での入力になります。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<管理パラメータ>

  1. ESXiのホスト情報(ホスト名(1から始まる通し番号になります))
  2. vCenterホスト名
  3. VxRail Managerのホスト名(VxRailの管理GUIを提供するゲストOSのホスト名)
  4. ESXiの管理IPアドレス(4つ以上の通し番号)
  5. vCenterのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  6. VxRail ManagerのIPアドレス(ESXiの管理IPアドレスと同セグメント)
  7. 上記の管理IPセグメントのネットマスク
  8. 同管理IPセグメントのゲートウェイ
  9. ESXiのパスワード
    ※複雑性を求められます。
     特定の記号( & ’ ” ; = ` \ $ )は利用できません。
     キーフレーズ及びそれに類するものも利用できません。
     上記を踏まえると、例えば Welc0me1! のような複雑性が必要になります。

08

 続いてvMotionパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<vMotionパラメータ>

  1. ESXiのvMotion用IPアドレス(4つ以上の通し番号)
  2. 同vMotionセグメントのネットマスク
  3. 同vMotionセグメントのVLAN ID

 

09

 同様にVirtual SANパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<Virtual SANパラメータ>

  1. ESXiのVirtual SAN用IPアドレス(4つ以上の通し番号)
  2. 同Virtual SANセグメントのネットマスク
  3. 同Virtual SANセグメントのVLAN ID

 

10

 あともう一息です。 今度は仮想マシンネットワークパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 3つ以上のセグメントを構成しておきたい場合はページ下部にある「もう1つ追加」をクリックして必要セグメントを追加登録して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<仮想マシンネットワークパラメータ>

  1. 仮想マシンネットワーク名(仮想スイッチポートグループ名)
  2. 仮想マシンネットワークのVLAN ID

 

11

 入力作業の最後はソリューションパラメータです。 前述の準備で決定しているパラメータを適宜入力して下さい。 入力が終わったら右下の「次へ」ボタンをクリックして下さい。

<ソリューションパラメータ>

  1. ログサーバ(vRealize Log Insight(バンドル済み)もしくはSyslog)の選択
  2. ログサーバのホスト名
  3. ログサーバのIPアドレス
  4. VxRail Manager ExtensionのIPアドレス(ハードウェア監視するためのゲストOSのIPアドレス)

 

12

 全てのページに必要なパラメータを入力したら「検証」ボタンをクリックして正当性を確認します。

 

13

 このようなエラーが表示された場合、該当パラメータを確認したり、環境状態を確認するなどの対処を行って、再度「検証」を行って下さい。 トラブルシューティングの材料としては、左下にある「ログを表示」をクリックするとバックグラウンドで行っている内容(どこに何を行っているか)が分かります。

 

14

 無事、検証がクリアされると「VxRAILの構築」ボタンをクリックしてセットアップを開始します。

 

15

 このページで「構成の開始」ボタンをクリックすることでセットアップが開始されます。 表示されている通り、実運用IPアドレスにリダイレクトされますので、アクセスできる状態が必要になります。(作業前に2つのIPアドレスを設定しているのはこのためです。)

 

16

 現在セットアップしている状況は上記のように把握できます。 セットアップの内容としては以下の通りです。 これら31ステップの作業を全自動で、しかもたったの15分で行っているのですから、これはどう考えても楽チンですよね!

<VxRailの初期セットアップの内容>

  1. Setup password on VxRail Manager VM
  2. Configure VxRail Manager VM Hostname
  3. Install private DNS(dnsmasq) on VxRail Manager VM
  4. Configure private DNS(dnsmasq) on VxRaill Manager VM
  5. Perform vCenter Server first boot configuration
  6. Install private DNS(dnsmasq) on vCenter
  7. Configure private DNS(dnsmasq) on vCenter
  8. Setup management network ESXi hosts
  9. Configure NTP on ESXi Hosts
  10. Configure Syslog in ESXi hosts
  11. Configure Syslog in vCenter
  12. Configure Syslog in VxRail Manager VM
  13. Restart Loudmouth in VxRail Manager VM
  14. Create Service Account on vCenter
  15. Register ESXi hosts with vCenter
  16. Setup ESXi hostname
  17. Create Distributed Switch
  18. Register ESXi hosts with Distributed Switch
  19. Create Distributed Portgroup
  20. Configure ESX Networking
    Management, vMotion, VM networks on vmnic0, and VSAN Networking on vmnic1 in an Active/Standby configuration on a single Standard Switch)
  21. Rename “VM Network” to be “vCenter Server Network”
  22. Remove standard Switch
  23. Setup DNS on ESXi host to use DNS(dnsmasq) on vCenter
  24. Restart Loudmouth on ESXi hosts
  25. Create Storage Policy for VSAN with vCenter
  26. Rename VSAN Datastore from vsanDatastore to MARVIN-Virtual-SAN-Datastore
  27. Set vCenter to auto-start
  28. Enabled Enhanced vMotion Compatibility
  29. Configure ESXi root password
  30. Initialize vCenter licensing ready for Product Activation Code(PAC)
  31. Enable HA

 3分クッキングよろしく、15分経って以下のように完了メッセージが出たら右下の「VXRAILの管理」ボタンをクリックして下さい。

17 15分待てば出来上がり!

 

 VxRail Managerと呼ばれている統合管理GUIのログイン画面が表示されます。 ここでは管理者アカウント(administrator@vsphere.local)と先に入力したvCenterへのパスワードを入力して「認証」ボタンをクリックして下さい。

18 まずは administrator@vsphere.local でログインします

 

 色々触って確認したいところですが、最後にVxRail ManagerとVxRail Manager Extensionを連携させる儀式が残っています。 右側にあるメニュー一覧から「EXT」をクリックし、続いて右下にある「VXRAIL MANAGER EXTENSION」ボタンをクリックして下さい。

 

19 もう1ステップだけセットアップが残ってます。

 まず、毎度おなじみ使用許諾が表示されるので、一読して「同意する」ボタンをクリックして下さい。

 

20 毎度おなじみ使用許諾画面

 

 

 続いて中央に見えている「これで完了です!」ボタンをクリックして下さい。

 

21 ここでも日本語表示が当たり前。

 物理的な管理及び、メーカサポートとの連携のためのVxRail Manager Extensionを構成するためのパラメータを入力します。

 

22

<VxRail Manager Extensionパラメータ>

  1. vCenter IPアドレス
  2. DNSサーバ情報(オプション)
    ※オプションとなっていますが、インターネット連係が必要なので
     管理ネットワーク上のDNSサーバを指定して下さい
  3. vCenterのrootパスワード
  4. ESXiのrootパスワード

 入力が終わったら左下にある「送信」ボタンをクリックして数分待ちます。 以下のようにVxRail Manager Extensionのログイン画面が表示されたら本当の完了です。 念のためVxRail Managerと同じように administrator@vsphere.local でログインを確認して下さい。

 

23 念のため administrator@vsphere.local でログインできるか確認しましょう

 

 これにてセットアップは終了です。 事前準備さえ終わっていれば、箱を開けてから実質1時間程度で仮想インフラが完成します。 ゲストOSを作成することも可能ですし、vMotionやHA、DRSも構成済みの状態です。

 

 今回はスクリーンショットを多用したため長編大作気味になってしまいましたが、やっていることは本当にシンプルで、作業内容自体は簡単なものになっています。 仮想インフラの構築はここまでシンプル且つスピーディに行えるようになった、と感じて頂けたら嬉しいです。

 

 次回は日常運用のお話として、ゲストOSの作成手順やステータスの確認やログの採取手順をご紹介しようと思います。

 

 

2016/03/31

なぜなに Data Domain 第九回 - DD Boost over FC で最速バックアップを体感してみませんか?

皆さんこんにちは。

Data Domain のお時間です。

 Dd

Data Domain とバックアップサーバの接続方法は色々ありますが、今回はその中でも一番スループットの出る DD Boost over FC について、前後編でお届けします。

 

DD Boost って何?という方はまず 第四回 Data Domain DD Boostでバックアップ性能を向上! をご確認ください。前回の記事の 第八回 Data Domain と Backup Exec バックアップパフォーマンス動作検証レポート では、DD Boost のパフォーマンスにも触れています。

 

Data Domain の接続方法は色々あるといいましたが、実際はこんなにあります。

 

・CIFS

・NFS

・VTL(FC)

・DD Boost(over Ethernet)

・DD Boost(over FC)

・DD Boost(Enterprise Applications)

 

これらの中で、最大のスループットを出せるテクノロジーが DD Boost です。DD Boost for Enterprise Application は少し特殊なので置いておいて、DD Boost over Ethernet と DD Boost over FC の違いはバックアップサーバとの結線が LAN か SAN か、というところになります。 

LAN はデータ転送時にデータ以外のオーバーヘッド情報が SAN より大きいため一般的には SAN の方が高速と言われています。DD Boost over FC は DD Boost over Ethernet よりも対応製品が少なく、情報も出回っていないことから今回社内の DD2200 を使用してやってみました!

 

今回は対応製品のひとつ、Veritas(旧Symantec) NetBackup で検証してみました。

 

 

まずは Data Domain の設定をします。

  1. 忘れてはいけません、バックアップサーバと Data Domain を FC で接続しましょう。


  2. 何はともあれ DD Boost を有効にします。

    008_2

     

  3. ストレージユニットを作成します。こちらは特に over FC 用の設定はありません。普通にストレージユニットを作成します。

    009_2

     

  4. over FC 用の設定を行います。
    [Server Name] は バックアップサーバが over FC で接続する時に指定する名前を入れます。今回は「dd2200-lab1-1」にしました。
     [Server Name] は NetBackup の設定で使用しますので忘れないようにしましょう。
    [DD Boost Access Group] は over FC でデータを転送する Initiator を設定します。

    010_2



Data Domain の DD Boost over FC 設定が完了しました。
次はバックアップソフトである、NetBackup の設定です。
 

 

次は NetBackup 側の設定です。

  1.  NetBackup サーバが Data Domain のホスト名を名前解決できるように hosts もしくは DNS に Data Domain のホスト名を登録します。NetBackup の基本ですね。ここで登録するホスト名は、Data Domain 側で設定した [Server Name] です。

  2. NetBackup に DD Boost プラグインをインストールします。
    DD Boost プラグインは EMC サイトよりダウンロードします。バージョンの互換性がありますので、Data Domain の DD Boost 互換性リストから互換性の確認をしましょう。

    まずは NetBackup のサービスを停止しましょう。サービス稼働中はプラグインのインストールはできません。

    002
    次にダウンロードした DD Boost プラグイン tar.gz ファイルを展開します。

    003


    DD Boost プラグインをインストールします。

    004


    最後は忘れずに NetBackup のサービスを起動しましょう。

    005

     

  3.  NetBackup の管理画面から Data Domain を登録します。
    実際に NetBackup で DD Boost を使用する場合は、Storage Server, Disk Pool, Storage Unit の設定が必要ですが、「
    Coufiguration Disk Storage Server」 という項目からウィザードですべて設定が可能ですので、今回は「Coufiguration Disk Storage Server」から設定を行います。

    006_2

  4. NetBackup では DD Boost を使用する場合 Data Domain は Stoage Server として登録します。

    007


    Data Domain の情報を設定します。
    [Storage server type] は「DataDomain」を入力します。DD Boost を使用してData Domain へバックアップする時の決まり事ですね。間にスペースは入れません。
    [Storage Server name] は先ほど Data Domain 側で設定した [Server name] を入力します。が、 over FC でバックアップしますので [Server name] の前に「DFC-」を入れます。これは over FC の時の決まり事です。
    [Select media server] は Data Domain へデータを転送する(FC 接続している)NBUサーバを指定します。
    [User name], [Password] は 保存先の Data Domain ストレージユニットへのアクセス権のあるDD Boost ユーザ情報を入力します。

    011_3



    入力した情報に間違いがなければ以下のように Storage Server(Data Domain) の登録が完了します。

    012


    Data Domain の登録が完了しました。

  5. 続けて Disk Pool の設定を行います。
    [OpenStorage (DataDomain)] を選択します。NetBackup では DD Boost 等、サードパーティのストレージ機能と連携する場合は OpenStorage という機能を使用します。

    013
    先ほど登録した Storage Server を選択します。

    014
    Storage server の登録時に設定した DD Boost ユーザがアクセス可能な DD ストレージユニットが表示されるので、バックアップデータを保存する DD ストレージユニットを選択します。

    015


    Disk Pool の名前を入力します。名前は何でも良いです。

    016

    Disk Pool が作成されました。

    017

  6. 最後にNBU ストレージユニットを作成します。
    ここでの名前が NetBackup で保存先を指定する時の名前ですので、分かりやすい名前を付けましょう。
    018


    Finish です!

    NetBackup で DD Boost over FC を使用する準備が整いました。

    019

前編はここまでです。 

決まりごとは多いですが構築自体は比較的簡単にできますのでぜひお試しください。

後半は NetBackup のポリシー(バックアップジョブ)を作成して実際の動作を確認してみましょう。 

 

 

- 過去記事 -

 

 

 

担当 齋藤・吉田

 

2016/03/28

EMC ScaleIOのハイパーコンバージド環境にI/Oパフォーマンスの飛躍を

本記事はPernixData社のホワイトペーパーの翻訳版です。原文は「Attaining Breakthrough I/O Performance In EMC ScaleIO Hyperconverged Environments」にて参照可能です。

イントロダクション

ScaleIO

EMC ScaleIO はソフトウェアをベースとしたソリューションであり、vSphereホストに搭載されたディスクをプールし、ホスト間のインターコネクトを実現することで、ハイパーコンバージドインフラストラクチャ(HCI)を構成します。ホスト上の仮想マシン(VM)はScaleIOによってブロックストレージとして構成されたデバイスをVMFSデータストアやRDMデバイスとして利用することが可能です。HCIはコンピューティングレイヤ(仮想マシン)とストレージレイヤの間の距離を縮め、I/Oパスをホスト内だけに留めることができます。これによって、単一の物理レイヤであるサーバはコンピューティングプラットフォーム(VMware ESX ハイパーバイザーで管理)とストレージプラットフォーム(EMC ScaleIO)の両方として動作させることが可能となり、これはハイパコンバージドプラットフォームとして知られています。

ScaleIO ソフトウェアはサーバとクライアントコンポーネントから構成されています(下図)。サーバコンポーネントはLinuxベースの仮想マシンにインストールされており、ESXホスト上で動作します。サーバコンポーネントはScale IO Data Server(SDS)と呼ばれています。クライアントコンポーネントはScale IO Data Client(SDC)と呼ばれており、SDS仮想マシンが動作しているのと同じホストのESX kernel上の軽量なドライバーとしてインストールされます。ScaleIOのHCI環境では、コンピューティングに加えて、ストレージ機能を仮想マシンに提供するため、SDSとSDCの両方が全ての適切なホストにインストールされている必要があります。Scale IOについての更に詳しい情報についてはEMC VSPEX Private Cloudをご参照ください。

Fig365アプリケーションからのI/OリクエストはSDCからSDSに対して構成されている論理アダプタ(logical adapter)を経由して、上の図に記載の物理ストレージへ送られます。このパスはデータの格納箇所によっては長くなってしまうことがあり(EMC VSPEX Private Cloudの第3章 "Storage Layer"をご参照ください)、高いI/Oアクティビティが行われる場合には不必要な遅延がボトルネックとして露呈します。ScaleIO仮想マシンのCPU負荷もI/Oレイテンシが予期しない動きをすることへ影響を与える要素の一つです。Scale IOはSAN環境におけるパスと比較するとアプリケーションからのリクエストから物理ストレージまでを短くすることができていますが、そのパスはまだ長く、混雑しがちです。結果としてこのパスを通るI/Oのレイテンシはまた高いと言わざるを得ません。

FVP

PernixData FVP® ソフトウェアは高速なRAMやSSDのようなホストリソースを利用し、低遅延の耐障害性のあるデータ高速化レイヤをvSphere ホストのクラスタ全体に提供することが可能です。このレイヤは頻繁にアクセスされるデータの格納場所やアプリケーションによって書き込まれる新しいデータの高速なI/Oを完了させる場所として利用することができます。

Fig366ESXカーネル内で動作し、他の様々なソフトウェアソリューションよりもコンピューティングレイヤに非常に近いレイヤに位置する(上の図を参照)ことから、FVPはデータのReadを劇的に改善することが可能です。アプリケーションは様々なタイミングでデータにアクセスします。FVPはこうしたリクエストに対して高速化レイヤー内のデータで応答します。高速化レイヤー内にデータがない場合にだけ、FVPはプライマリストレージへとそのリクエストを転送します。ですが、そのプライマリストレージからリクエストに応じて読み込まれたデータのコピーはデータ高速化レイヤに書き込まれ、将来のリクエストに備えることになります。

FVPはデータが高速化レイヤに書き込まれた直後にACK(完了通知)を返すことによって、Writeも高速化します。バックグラウンドではFVPがプライマリストレージへと送信されることを保証しますが、プライマリストレージへ書き込むレイテンシは仮想マシンからは見えなくなります。

ScaleIOをFVPと一緒に利用することで、I/Oのパフォーマンスはそのキャパシティから分離された最高のパフォーマンスを誇るHCI環境となります。この分離はIT管理者がそれぞれの要件に対して独立して管理、そして成長できるということを保証します。FVPはReadデータを削減し、Writeのレイテンシを劇的に低減するだけでなく、ScaleIOストレージ構成や複数のストレージの混在にかかわらず、一貫した均一のレイテンシを提供するのです。本ホワイトペーパーは以下では、ScaleIOとFVPを統合したインフラストラクチャにおいて実施した検証における定量的な効果について述べることにします。

検証の構成

本ホワイトペーパーにおける検証では4ノード構成のScaleIOベースのハイパーコンバージドインフラストラクチャを利用しました。検証の構成は以下の図の通りです。

Fig367それぞれのノード上にWindowsオペレーティングシステムが動作する仮想マシンを動作させました。4つ全ての仮想マシンにIOMeterをインストールしてあります。IOMeterはそれぞれのカオスマシンの仮想ディスクに対して事前に設定されたI/O負荷を生成して、負荷を与えるように構成されています。

ベースラインテストの後、FVPをそれぞれのScaleIOノードにインストールしました。FVPとホストメモリを利用して、すべての4つのノードをまたがった高速化レイヤを作成しています。IOMeterを動作させているテスト仮想マシンを順次FVPクラスタへと追加します。「Write-Back高速化」として知られるポリシーを用いて、仮想マシンのReadとWriteの双方を高速化します。IOMeterを高速化した仮想マシン内で動作させ、繰り返し、それぞれのスループットの総計とレイテンシの平均を記録しました。

検証

本ホワイトペーパーの検証で利用したI/Oワークロードのプロファイルは以下の図の通りです。ワークロードはReadとWriteのバーストを定期的な間隔で生成するように構成してありますが、同時には発生しないようにしてあります。バーストしていない期間におけるReadとWriteの操作はピーク時におけるものよりもかなり低く設定してあります。このIOmeterのワークロードはIOPSが定期的にスパイクするような一般的なワークロードのプロファイルを模したものであり、ReadとWriteのバーストは予期せずに発生します。

Fig368検証はReadとWriteのピーク性能を図ることとその際のそれぞれのテストケースにおけるレイテンシを図ることを主目的とします。それぞれの仮想マシンのIOMeterはI/O負荷を同時に発生させるように構成してあります。それぞれの仮想マシンのピーク性能は合計されて全クラスタに対して発生するため、全てのノードのレイテンシの平均値はクラスタレベルでの平均値を表すことになります。

検証結果

IOMeterはReadとWriteの両方のリクエストを同時に生成するため、この「検証結果」のセクションではそれぞれの操作を個別に見ていくことで理解しやすいようにしています。

ReadとWriteに対するFVPの影響

ScaleIOベースのHCI環境においてのFVPのReadとWrite操作に対しての影響を理解しやすように、単一の仮想マシン内でIOMeterを動作させるという検証を実施します。

Read

ベースラインとFVPを利用した場合のReadのパフォーマンスを以下の図に示します。図の上のグラフはピーク時のベースラインとFVPを利用した場合とそれぞれのReadの平均レイテンシを比較しています。

Fig369

Fig370

IOMeterの仮想マシンがFVPによって高速化された際にはReadのレイテンシは対応するベースラインでの結果に対して86%低減されています。これによってピーク時のIOPSはFVPによって8倍分増加しています。

Write

ベースラインとFVPを利用した場合のWriteのパフォーマンスは以下の図に表されています。図の上のグラフはピーク時のベースラインとFVPを利用した場合とそれぞれのWriteの平均レイテンシを比較しています。

Fig371

Fig372

Writeがピークに達した際のWriteのレイテンシはWriteが高速化されている場合には55%低減されており、このレイテンシの低減によってピーク時のWriteのIOPSは1.2倍分増加しています。

FVPによるパフォーマンスの拡張

ScaleIOのハイパーコンバージドインフラストラクチャはノードを追加することでリニアにI/Oパフォーマンスを拡張していくことが可能です。これは一極集中のアーキテクチャではないためです。巨大なScaleIOインフラストラクチャは強力な並列ストレージシステムとなります。

前出のセクションで、FVPが単一のScaleIOノードのI/Oパフォーマンスを劇的にブーストさせることが出来ることを示しました。ScaleIOのアーキテクチャを考慮すると、FVPをそれぞれのScaleIOノードにインストールして高速化レイヤを拡張させることで、ScaleIOインフラストラクチャ全域にわたってパフォーマンスをブーストさせることが可能となります。4ノードのScaleIOインフラストラクチャと4つのIOMeter仮想マシン(各ノードに1つづつ)において実施した検証によってこれを定量的に示すことができます。

Fig373

Fig374

Fig375

Fig3762つの棒グラフが示すとおり、ReadのIOPSとWriteのIOPSの両方がFVPの有無に関係なくScaleIOノードを追加するごとにリニアに拡張されています。さらに、それぞれのノード上の仮想マシンをScaleIOノード上に構成されたFVPクラスタに追加することでFVPによって線形にパフォーマンスはブーストされながら、それに対応するレイテンシはほぼ一定に低く保たれています。

ReadとWriteの双方は仮想マシンがFVPで高速化されている場合には同じレイヤから供給されるということを付け加えておきます。IOMeterでのレイテンシはReadとWriteで同じになっています。見てわかるほどのReadとWriteのレイテンシの低減は殆どのアプリケーションにとって劇的な効果をもたらします。アプリケーションはRead-変更-Writeという操作を大量に実行しているからです。ReadまたはWriteもしくはその両方のレイテンシが高い場合にはアプリケーション全体がスローダウンし、エンドユーザーはより多くの時間を待たなくてはならなくなります。

サマリ

ScaleIOはソフトウェアベースのソリューションでvSphereホストのローカルストレージとホスト間のインターコネクトを活用して、既存のvSphereベースのクラスタをハイパーコンバージドインフラストラクチャへと変革することが可能です。ScaleIOベースのハイパーコンバージドインフラストラクチャはインフラストラクチャ内のノードを増やすことでI/Oパフォーマンスをリニアに拡張することが可能です。PernixData FVPはメモリやSSDのような高速なサーバリソースを活用し、ScaleIOノード個々のI/O性能を劇的に向上させることが可能です。

本ホワイトペーパーの検証では超並列で拡張可能なサーバベースのストレージインフラストラクチャをScaleIOで構成した上で、FVPによってこのインフラストラクチャのパフォーマンスとキャパシティを分離させることで、非常に高いIOPSと低いレイテンシを実現できることを示唆しました。高速化したHCIはReadとWrite操作双方に一貫した均一のレイテンシを提供しながら、パフォーマンスをリニアに、そしてその下のストレージハードウェアとは独立して改善拡張することが可能です。

参考文献

EMC VSPEX Private Cloud

http://www.emc.com/collateral/technical-documentation/h13156-vspex-private-cloud-vmware-vsphere-scaleio-pig.pdf

Iometer

http://www.iometer.org/

PernixData FVP

http://www.pernixdata.com/pernixdata-fvp-software

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)

2016/03/16

ついに日本国内リリースされたVxRAIL【イントロ編】

こんにちは、石塚です。かなり久しぶりにブログ登場です。

登場しなかった期間の個人的なご報告として、今年もEMC Electに選出され、さらにVMware vExpertにも選出頂きました。 今年も各種イベントや本ブログ、そしてEMC Community Network で皆様のお役に立てる情報を発信していきたいと思います。

私は昨年からハイパーコンバージドを中心に活動しているわけですが、EMC社から新たにVCEブランドでリリースした VxRail (ブイエックスレール)がついに日本でも発表されました!! VxRailはVSPEX BLUEの後継機でもあるわけですが、今回はVxRailがどのように変わったのかをお伝えしようと思います。

ブレてないプロダクトコンセプト(簡単導入・簡単管理・簡単拡張)

 変わったところをお伝えすると言いながら、まずはブレてない製品コンセプトをおさらいしたいと思います。 VSPEX BLUEでもそうでしたが、VxRailも簡単導入簡単管理簡単拡張と簡単3ポイントが基本コンセプトになっています。 初期設定から完全にGUIで利用できて、さらに当然のことながら日本語です。 シンプル&グラフィカルなVxRail Manager(旧EVO:RAIL Engine)でvSphereの統合管理が可能ですが、これまでのvSphereと同様の運用がしたければvSphere Web Client(及びVI Client)を利用することも可能です。 ハードウェアの管理もVxRail Managerと同じ操作感で実装されているVxRail Manager Extension(旧BLUE Manager)で管理者様の負担を軽減します。

 簡単導入の点では、導入時の事前チェックプロセスがより詳細なものになりました。例えば指定されたVSANネットワークが正しく通信できない場合や、DNSサーバやNTPサーバへきちんと疎通ができない場合は先に進めません。初期セットアップのトラブルの殆どがネットワークトラブルだったと言う経験から実装された検証機能なのかと思います。これでさらに導入がシンプル&スマートになるでしょう。

通信ができない場合はエラーになって確認を促します

Error_2

 そして管理面ではシャットダウンがGUI上のボタン1つで可能になっています。VSANで構成されているため、VSPEX BLUEではやや煩雑な電源断手順が必要だったのですが、これを一気に解消してくれました。 しかも、実際にシャットダウンする前には「正常な状態であるか」をきちんとチェックしてくれます。問答無用で電源断するようなことは無いので、この点でも安心&確実な運用を支援してくれるはずです。 標準でサーバ管理ポート(Remote Management Module, RMM)が利用できて、RMM経由で電源を投入することが可能ですから、わざわざ設置されている場所に赴かなくても、リモートで電源操作が可能です。 機能エンハンスとしてのインパクトは小さい印象を受けますが、実運用面では大切な機能だと思います。

シャットダウンもボタン1発!しかも事前チェック付!!

Shutdown

今回のリリースの目玉はモデルラインナップの拡充!!

 今回のVxRailのリリースで最大の注目ポイントは間違いなくモデルラインナップになると思います。 VSPEX BLUEも非常に優秀で完成された製品でしたが、モデル選択はメモリ搭載容量(128GB/192GB)とネットワークインターフェース(RJ45/SFP+)の合計4モデルに絞られていました。 EMCと言えば「選択肢が豊富」と言う印象があったので残念ポイントだったのですが、今回のVxRailではCPU、メモリ、ディスク容量、インターフェースが複数の選択肢から選べるようになりました。さらに2016年Q2(4月~6月)にはさらにローエンドモデルとオールフラッシュモデルのリリースが予定されています。

ハイブリッドモデル(SSD+HDD)

Modellist_hybrid

オールフラッシュモデル(SSDのみ)

Modellist_afa

 上のリストにも記載されていますが、Q2以降では1ノード単位での追加が可能になりますし、その後にも色々な機能拡張が予定されています。 これらの機能拡張は全てvSphereの進化に追従できる純然たるvSphereアーキテクチャで実装されているからこそだと言えます。

基本ソフトウェアはvSphere6ベース

 VSPEX BLUEはvSphere5.5ベースでした。 このため、VSANのパフォーマンスや使い勝手、実績面でお客様からのご質問を多く頂いていましたが、VxRailはvSphere6ベース(6.0 update1)になりました。このため、色々な機能制限が向上し、パフォーマンスも向上しています。

VxRailと旧EVO:RAILとの比較Diff_vxevo

 VSANの実績としても、1000人以上のユーザ規模のVDI環境での利用も事例として出てきています。 スモールスタートできて、そのままスケールアウトできるメリットを生かせるVDI環境にはうってつけなのかと思います。

 

 今回はVxRailのイントロダクションとして、ここまでにしておきたいと思います。次回以降、初期セットアップや管理画面の操作性、ゲストOSの作成・管理、拡張などをご紹介してきたいと思いますのでご期待下さい。

2016/02/25

クラウドを活用できる今話題のEMC CloudArrayとは!? ④

いよいよ、最終回です!

最後にウィザードを利用せずに設定していき、CloudArrayを極めていきたいと思います。

引き続き、EMC担当の片山です。

前回は初期セットアップウィザードを利用してCIFS設定をしてきましたが、今回は各設定を理解した上で個別に今までの設定を実施していきたいと思います。この操作が一通りできれば、あなたも今日からCloudArrayマスターを名乗れます! 

簡単な設定の流れとしては、下記を項目の様になります。

N_3



では、上記の流れで項目の順を追って説明していきたいと思います。

(1)Cloudプロバイダの設定

まず第一に、利用したいCloudプロバイダを設定していきます。

左側メニュから【CLOUD PROVIDERS】をクリックします。【Configure New Cloud Provider】をクリックします。

C

【Select Cloud Provider】のメニュから、今回も検証で利用している【Amazon S3】を選択して、【Continue】をクリックします。

D

Amazon S3に接続に必要な情報を入力します。入力後【Save Cloud Provider】をクリックします。これでCloudプロバイダ設定は完了です。

E

(2)CACHE設定

次に、PoolからCacheを切り出す設定をしていきます。GUIの左側メニュから【CACHE MANAGEMENT】⇒【Caches】をクリックします。そして【Configure New Cache】をクリックします。

A_4

まずはCacheの名前を入力します。次にここでは、【Pool_1】から10GBを利用する形でCacheを作成しています。値に間違いがなければ【Configure New Cache】をクリックします。

B_2

【Create One Big Cache Using All Available Capacity】は複数Poolから大容量のCacheを作る際にチェックをします。

(2)POLICY設定

次に、Cache⇒Cloudプロバイダの紐づき設定であるポリシーを作成しておきます。 左側のメニュから【PROVISONING POLICYS】をクリックし、【Configure New Provisioning Policy】をクリックします。

F

まず、ポリシー名を入力します。またここでさきほど設定したCloudプロバイダ設定とCache設定を選択して紐づけます。紐づきが正しければ、「Configure Provisionig Policy」をクリックします。

G

(2)接続プロトコルの有効化(CIFS)

左側メニュより、【SHARES】⇒【Settings】をクリックして、CIFS機能を有効にします。

※ デフォルトは無効になっています。

I

CIFS機能を有効にすると表示される【CIFS】メニュをクリックします。ここではサーバ名やWorkgroup環境、ActiveDirectory等のCIFSサーバの基本設定をしますが、今回は検証ですぐにアクセスして利用するためWorkgroup、【Allow Guest Access For CIFS Shares】にチェックを入れゲストアクセスを許可しています。

※AD連携、Workgroup環境でローカルユーザーを作成することも可能です。

※AD環境でダイナミックDNS機能連携はないためホストをDNSに登録する必要があります。

J_2

次に、Volumeと共有を作成するため、【New Share】をクリックします。

K

(2)Volume、Shareの作成とPolicyの紐づけ設定

【New CIFS Share】ウィンドウが開きますので、【Share Name】を入力します。次に、さきほど作成したCache(10GB)⇒Amazon S3への【Policy】を選択します。【Capacity】には50GiBを入力します。最後に【Save】をクリックします。

M_5

以上でCloudArryaへの設定は完了です。CloudArrayのIPアドレスへアクセスすると普通にアクセスできるかと思います。これであなたもCloudArrayマスターです!

最後に設定完了のついでに、構築したCloudArrayのCIFSサーバに、600MBと3,000MB程度のファイルを共有に対して同時に書込んで見たいと思います。そして、ダッシュボードで監視してみます。

データ自体はCacheに書込まれるため、書込み遅延が発生するような事はありませんが、Cloudに書込まれていないデータはDirty Pageとして【Current Cache Activity】に表示されています。また、FIFOデータ処理方式により、圧縮、暗号化処理が完了次第、順次Cloudに転送していることがわかるかと思います。

※ 圧縮、暗号化を設定しない場合でも分割と最適化をしているのか同様の動きをします。

1_3

 

 少し待って再度確認してみると、右上の【Cache Usage】のUsedのグラフが約3.6GBぐらいになっているのがわかります。Dirty Pageはほぼ横ばいの"0"となり、定期的にCloudプロバイダへReplicationが一定の間隔で継続していることがわかります。

2_3

この結果からも、仮にCloudプロバイダへのReplicationが書込みに追いつかず、Dirty Pageが90%以上に達っしてしまうと、そのCacheを利用している対象領域へのアクセスが一時停止してしまうため、CloudArrayのCache容量をどう設定するかが非常に大事だという事が見て取れるかと思います。やはりCache設計には注意が必要になります。

これで4回目となった今回の記事【クラウドを活用できる今話題のEMC CloudArrayとは!?】ですが、EMCクラウドゲートウェイ製品はどうでしたか?まだ発展途上の製品ではありますが、思ったより設定がシンプルで、VE版であればすぐに検証及び導入できそうに思えるかと。もし興味がある方は是非お試しを!

 

記事:片山

 

今回の記事一覧はこちら

クラウドを活用できる今話題のEMC CloudArrayとは!?①

クラウドを活用できる今話題のEMC CloudArrayとは!?②

クラウドを活用できる今話題のEMC CloudArrayとは!?③

クラウドを活用できる今話題のEMC CloudArrayとは!?④

 

 

2016/02/22

いよいよリリース! VSAN 6.2 すべてはErasure Coding!! 細かな機能も抑えておこう

この記事は前々回、前回につづき新しいVSAN 6.2についての記事です。是非こちらの記事もお読みください。

いよいよVSAN 6.2がリリースされています。詳しくはこちらの桂島様の記事でカバーされていますので、是非ご覧になってください。

ご紹介している「Erasure Coding」、大注目の「インライン重複排除&圧縮」についてはAll flash構成のみでサポートされます。桂島様の記事によると重複排除&圧縮で2~7倍の容量効率、Erasure Codingを併用する10倍までの容量効率を実現できるとのことです!

また、EMC/VCE社からはVSPEX BLUEの後継に当たるVxRailも発表されています。VSAN Ready Node程細かく指定はできませんが、選べる構成の幅が大きく広がり、さらに「4ノード縛りにこだわらない」という発言も飛び出しているようです(ネタ元)ので、EVO:Railの画一的な構成ではなく、今後幅広く利用していくことが可能になっています。

リリースされたErasure Codingの実装について(前回の記事の訂正を含む)

先日の記事ではリリース前の情報から推測しての記載でしたのであたかもパリティデータを専門で担当するノードがあるような図になっていましたが、実際の実装ではパリティも各ノードに分散して保持されます。

Paritydistribution※ 図については桂島様の記事よりお借りしてきました。

また、サポートされるのはRAID-5およびRAID-6のみで、それぞれの最小要件はRAID-5は4ノード(3+1)から、RAID-6は6ノード(4+2)からとなります。つまり、VxRailのような4ノードのアプライアンスでもRAID-5が利用できるため、VDIなどのある程度キャパシティの必要な構成も対応が可能です。(クドいかもしれませんが、RAID-5を含むErasure Codingはオールフラッシュ構成のみでサポートされます)

QoS

ストレージポリシー内で各VMDKあたりのIOPSの上限値を設定できるようになりました。ストレージポリシー内で設定できるということはオンデマンドで(VMの再起動などなく)これを変更出来るということです。過度にオーバープロビジョニングするような構成は想定されていない(コスト高になりますから・・・)ので最低値の設定はありませんが、業務に不必要なVMがノードのI/Oを食い潰すようなことを防ぐことができますので、ビジネスクリティカルアプリケーションの動作について、より安心が出来るようになっています。IOPSでの指定ですので、ブロックサイズも見なくてはなりませんが、非常に強力な機能です。(今回の記事内で唯一Erasure Codingと直接関係しません。)

Qos

※ 上の画像はVMwareのCTOオフィスのDuncan Epping氏のブログからお借りしました。

インメモリ・リードキャッシュ

容量効率やQoSの影に隠れていますが、個人的には非常に重要と思う機能がこちらです。VSANはノード間でデータを分散します。VMのReadリクエストに対する応答は「データを持っているもっとも遅いノードを待たなければならない」ことになります。

前回の記事はWriteのトラフィックだけを解説しましたが、Readのトラフィックも同様にネットワークを何度も流れることになります。特にRAID5/6の構成の場合、「たまたまローカルのノードにデータが有った」ということもありえませんので、ローカルのノードにリードキャッシュを保持するということはパフォーマンスの観点からもネットワークの観点からも非常に重要な機能です。

Traffic_for_read_request_2※ 図の統一のためにErasure Codingもハイブリッド構成のようにしてありますが、All Flashのみで対応です

Duncanさんの記事によるとこのリードキャッシュは非常に小さいもので、各ホストの物理メモリの0.4%または最大でも1GBとのことですが、上で解説したとおり、Readのためのネットワークトラフィックを削減するため、およびネットワークトラフィックによるレイテンシの低下を防ぐためには非常に重要な機能です。

気がついている方も入るかもしれませんが、このインメモリキャッシュはPernixData社の無償製品FVP Freedomエディションに相当する機能です。アプリケーションにとっては小さなキャッシュサイズでも非常に大きな効果が得られる場合がありますので、是非心に留めておいてください。

CheckSum

VSANはネットワークを通じてデータを書き込むため、ネットワーク転送によってデータが変化していないことを保証する必要があります。近年のネットワーク品質を考えればほとんどありえないことですが、そこまで保証するのがVSANです。金融機関などで万が一が起こったとしたら、大混乱です。これも一種のErasure Codingと言えるかもしれませんが、RAID5/6が横方向にパリティを発行するものだとすると、CheckSum機能は縦方向に対してはチェックサムを発行し、VMから出たデータが正しくキャパシティ層に着地したことを保証するものです(データが変更されていることを検知するのが目的で、復元することが目的ではないのでパリティではなく、チェックサムが利用されています)。

まとめ

他にも管理系の機能なども充実していますが、今回のシリーズはあくまで「Erasure Coding」のシリーズでしたので、関連する部分に留め、別の機会にしたいと思います。

とにかく、新しいVSANは良く出来ている! 注目されている容量効率の面からだけでなく、ネットワークトラフィック、そしてパフォーマンスの観点からも理にかなっているのです。

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)

2016/02/15

困難な時代だからこそ、スマートに最適化 ~不景気とその時に売れたプロダクト~

本ブログエントリーはPernixData社のVP MarketingであるJeff Aaron氏のブログ記事を翻訳しています。 

本記事の原文はWhen the Going Gets Tough, the Smart Optimizeで閲覧可能です。

ネットワールドのPernixDataに関する情報はこちら。本ブログのPernixDataの記事のまとめはこちら

情報システム部門はいつも、少ない投資で多くの成果を上げるようにと言われ続けます。景気が上よい際には、当然悪い時よりも輝かしい新しいオモチャを買うのは簡単なことです。これが近年AFAの市場が非常に活発である(訳注:リンク先はIDC.comの英文リリース)と言われている理由の一つです。

しかし、2016年、誰かが予想し始めているように(リンク先はCNN.comの景気後退についてのビデオ)経済が停滞したら、投資の様相は変わっていくのでしょうか?

過去の歴史に目を向けてみましょう・・・

2001年、VMwareはESXの最初の出荷を開始しました。それはドットコムバブル後の経済低迷の最中のことでした。この製品はVMwareのその後の成功の推進力となります。なぜ、そんなにも上手く行ったのでしょうか? その当時、情報システム部門はその労力を付加価値へフォーカスさせて(リンク先はGartnerの2001年の記事)いました。例えば、基盤の改善のためのプロジェクトに投資を集中させるという具合にです。ESXはそれを素晴らしいやり方で、導入するだけで実現させてくれるものでした。もっと具体的に言うと、仮想化によってサーバインフラストラクチャを最適化し、サーバハードウェアを大量に買うということをしなくて済むようになったのです。ROIは現実のもので、簡単に定量化することができました。

同じように2010年、IT産業はGartnerによると「緊縮の年(Age of Austerity)」を迎えます。しかし、多くの企業がサブプライムローンとヨーロッパの金融危機のために、もがいていたにもかかわらず、Isilonはこの時、(EMCに$2.25Bドルで買収される前を除くと)4四半期全てにおいて、素晴らしい業績を残しています。なぜでしょうか? 彼らは会社組織がインテリジェントにストレージを成長させ、高くつく余裕を見過ぎた構成を取らなくて済む、新しいスケールアウトアーキテクチャをもたらしたのです。

ここから学ぶべきことは?

困難な時代だからこそ、人々は最適化を行います。VMwareはサーバのパフォーマンスを最適化するソフトウェアとして名を成し、Isilonはストレージハードウェアをスケールアウト成長とともに最適化することによって、数億ドル規模の会社へと成長したのです。どちらの場合も、ソリューションはハードウェアの投資を最小化しながら、しっかりとした付加価値を提供しています。

では、2016年はどうなるのでしょうか? 経済の不安定さによって、今年、CIOたちは情報システム部門にかける予算を非常に厳格に管理し始めるでしょう。これは盲目的に問題に対してハードウェアを投げつけるということが難しくなって行くということを意味します。例えば、ストレージ装置のパフォーマンスを得るために、キャパシティを購入するということは効率的ではなく、高価で、顧客がそれを受け入れなくなっていくにつれ、難しくなってくるでしょう。これは非常にコスト効率のよいクラウドベースのサービスによって、実際の機材に対して投資をすることが大きく疑問視されていることとよく似ています。

加えて、いわゆる「キャデラック(高級乗用車)」への投資も疑問視されています。例えば、すでにデータベース環境のそれぞれのインスタンスがOracleが必要なのか、もっと安価な、SQLサーバやMySQLですんでしまうのか、よく吟味している顧客は多くあります。これによって高価なインメモリコンピューティングやExadataのような専用ハードウェアへの投資を、代替の同等のパフォーマンスをもっと安価に提供できるソリューションへと切り替えつつ有ります。

私は、特にストレージの領域において、こうした要素(投資の最適化)がAFA(オールフラッシュストレージ)とハイパーコンバージドのマーケットをやわらかく、それぞれがより近い意味あいのものにしているように感じます。会社組織は既存のストレージを最適化しようとしているのであって、高価な新しいハードウェアで置き換えようとしているのではありません。しかも、本当にストレージのキャパシティがもっと必要とされているのでないのであれば、新しいストレージを購入しようとは思いません。次の世代のソリューションが更に優れたスケールアウトの能力(もしくはもっとコスト削減が可能など)を搭載してくるからです。

時が流れるにつれ、人々は基本を忘れていきます。好き勝手なことをやり始めますし、実際のニーズではなく、周りのトレンドで購入の決断をしてしまう時もあります。(Apple Watchを持っている人はいますか?) しかし、困難な時代を迎えると、基本が全てを支配します。この調達のビジネス上の意味は? これは最もコスト効率が良いソリューションなのか? 今でなくてはならない投資なのか?もっとあとでも良いのか? 前回の投資の高価は最大化できたのだろうか? 非常に慎重で、しっかりとした、効率のよい決断が必要で、新しい輝かしいオモチャを購入することに比べると楽しいものではないかもしれません。しかし、これがビジネスをより強くするのです。

引用

経済が良い時に輝かしい新しいオモチャを買うのは、悪い時に買うよりも簡単である。

記事担当者: マーケティング本部 三好哲生 (@pernixdata_netw)

2016/02/05

★IsilonSD Edgeリリース★

★IsilonSD Edgeリリース★

皆さんこんにちは!

とりあえず検証してみた!シリーズ」のニュータイプ 渡会です。

今回はついにリリースされたIsilonSD Edgeをインストールしてみます!

※注:本検証はとりあえず動かしてみるということが目的のため運用・障害等に関しては考慮せず検証を行っていることあらかじめご了承ください。

IsilonSD Edgeはリリースされたばかりのため、詳細なインストール手順に関しては別の機会に記載するとして、今回はIsilonSD Edgeの構築概要&ポイントを記載していきます!

001

おっとその前にIsilonSD Edgeとはどういうものかを説明させていただきます。

IsilonSD Edgeとは!

Isilon OneFSのVirtual EditionのことでIsilonSD Edgeという製品名でリリースされました!

Virtual Editionということでこの製品はESXサーバ上で稼動するIsilonとなります。

まさしく昨今はやり!?のSoftware-Defined-Storage(SDS)となります。

 

IsilonSDファミリーとして登場したIsilonSD Edgeは、リモートオフィスやブランチオフィス向けの製品として位置づけられたIsilonSDファミリー最初の製品となっています。

 

IsilonSD Edgeの登場により、お客様は更に容易でお手軽に、有名なIsilonを使用することが出来るようになります!

 これで拠点にIsilonはちょっとと二の足を踏んでいたあなたも、各拠点にIsilonSD Edgeを設置することにより夢のIsilon統合を容易に実施頂けます!

002

この製品は無償版と有償版の2種類があります。

無償版と有償版の差は以下表を参考にしてください。

003

※有償版は物理Isilonと同等の機能が使用可能!!

次にIsilonSD Edgeを構築するための環境要件を以下に記載します。

004

要件は以上となります。

今回は詳細な手順は投稿しませんが、ざっくりとしたIsilonSD Edge構築の流れとポイントを記載したいと思います!

(詳細な手順に関してメーカドキュメントを参考にしていただければと思います。)

 

IsilonSD Edgeを構築する前に各種コンポーネントの説明をしたいと思います。

IsilonSD Edgeを構築するためには、以下2つのバーチャルアプライアンスの構築が必須となります。

  • IsilonSD Edge Management Server:VMware ESXi上に展開されるサーバのことで、vCenterと連携しOneFS Virtual Machineを、ESXi上に展開するためのゲートウェイサーバとなります。IsilonSD Manegement Serverは、OVAファイルとして提供され、WebClientから展開することによりインストール可能となります。
  • IsilonSD Management Plug-in:VMware vCenterプラグインとなり、vCenter ServerからOneFS Virtual Machineを展開・管理するためのプラグインとなります。  このプラグインはIsilonSD Management Serverに、VMware vCenterを登録することにより自動でインストールされます。
  • OneFS virtual machine:OneFSを提供する仮想マシンとなります。OVAファイルで提供されるがインストールは、IsilonSD Edge Management Serverからのインストールとなります。

 

IsilonSD Edgeをインストールした場合の全体構成例を以下に記載します。

ポイント:OneFS Virtual Machineに設定するディスク1つに対して物理ディスク1つを割り当てる必要があります。

005

ここからインストールの流れに入って行きたいと思います。

1.IsilonSD Edgeのダウンロード

以下URLよりダウンロードが可能となります。

https://www.emc.com/products-solutions/trial-software-download/isilonsd-edge.htm

※IsilonSD Management ServerとOneFS Virtual Machieは1つのファイルでダウンロードされます。

2.IsilonSD Management Serverの展開を行います。

Web Clientの「OVFテンプレートのデプロイ」から展開します。

※特に難しいことは無くウィザードに沿って設定を入れれば問題なくインストール可能。

3.IsilonSD Management Serverの設定(ネットワーク/パスワード等)

細かい内容は今後記載するがここでの注意点はアカウントが2つあることです。

①     Administrator:Management Serverに関連するバックエンドタスクを管理するユーザで主に以下を管理する。

    • Management Server DBのバックアップ/リストア
    • ログの収集
    • 管理サーバへのシリアルアクセス
    • Management Serverのアップグレード

②     Admin:Management Serverに関連するフロントエンドタスクを管理するユーザで主に以下を管理する。

    • ライセンス管理(追加/削除)
    • vCenter Serverの登録
    • ユーザのパスワード変更
    • OVAテンプレートの管理

ポイント:私はドキュメントをちゃんと読まずにセットアップしてしまったためユーザが2つあること、パスワードがデフォルト設定になっていることがわからずつまずいてしまいました。ドキュメントを読みながら構築することをお勧めします。

 006

4.vCenter Serverの登録

Management ServerにWebアクセスを行い対象のvCenterを登録します。

007

IsilonSD Management ServerにvCenterを登録すると下記のようにPlug-inが自動で登録されます。

008_2

5.IsilonSD Edge OVAファイルをManagement Serverにアップロードします。

009

6.VMware Web ClientよりIsilonSD management plug-inを使用してIsilonSD Edge OVAファイルをESXiサーバに展開します。

ポイント:IsilonSD Management ServerではなくPlug-inを用いてVMware Web Client上から展開します

ポイント:IsilonSD Management ServervCenterを登録した後ブラウザを一度すべて閉じて再度VMware Web ClientにアクセスしないとPlug-inが有効にならないので注意!また、Web ClientIEで開いているとうまく動作しない場合があるので要注意!

私はここでハマリました・・・

010

011

7.OneFS Virtual Machineの設定

OVAファイルを展開する際にウィザードによりOneFS Virtual Machineの各種設定を行います。

ポイント:クラスター容量を1152GB以上にしないと設定が先に進めない

012

ポイント:NASでマウントしているディスクは表示されなかったためSANディスクまたは内蔵HDDが必要になります

013

8.デプロイ完了後OneFS Virtual MachineにWebアクセスを行うとIsilon管理GUIにアクセスされるので完了となります。

GUIOneFS 8.0GUIとなっていました!

014

またOneFS8.0から搭載されたCloudPoolsもGUI上に表示されています!

015

以上がインストールの簡単流れとはなりますが、非常に簡単IsilonSD Edgeを導入することが出来ました!

シミュレータと違いディスクがあれば容量もかなり使えるのでこのIsilonSD Edgeの用途に関してはかなり幅が広がりIsilonがよりいっそう便利になると私は確信しています!

今回は詳細な手順は省きましたが今後はインストール手順や機能検証・障害検証を行いたいと思っているので検証が完了した際にはまたこのネットワールドらぼに投稿したいと思います。

Isilonに関しては以下HPまで!

http://www.emc.com/ja-jp/storage/isilon/index.htm

では、また次回!

2016/02/02

クラウドにバックアップするには?(クラウドゲートウェイ編)

 前回、NetBackupを使用したクラウド(Amazon S3)へのバックアップ方法をご紹介させていただきました。この方法も良いのですが、いくつか課題もあります。

課題①NetBackupはAmazonやGoogleのクラウドには対応しているが、Microsoft Azure等の他のクラウドにはバックアップできない。

課題②NetBackupからクラウドへのバックアップではバックアップデータの重複排除ができないため、クラウドストレージの使用量を削減できない。

課題③NetBackupがアクセラレーター機能で永久増分バックアップができるのは、ファイル・VMware・NDMP(NetAppのみ)だけで、SQL ServerやOracle、Exchange等のアプリケーションやHyper-Vの仮想環境などのバックアップではアクセラレーター機能が使えないので、クラウドへのバックアップ時間を短縮できない。

課題④バックアップはNetBackupのアクセラレーター機能の永久増分により転送量を少なくできても、リストアは対象データが丸ごと転送されるので復旧に時間がかかる。

上記の課題に悩んでいる方、安心してください!解決できますよ!
では、どうやって解決するのかと言うと、クラウドストレージゲートウェイ製品を使用します。

クラウドストレージゲートウェイは、オンプレミスのバックアップサーバとクラウドストレージを仲介する役割を持つアプライアンス(物理or仮想)です。オンプレミスのネットワーク上に配置して、バックアップサーバからは、NAS(Network Attached Storage)やVTL(Virtual Tape Library)の様に見えます。バックアップソフトはオンプレミスのNASやVTLに対して、従来のバックアップと変わらない方法でクラウドストレージゲートウェイにバックアップするだけで、後はクラウドストレージゲートウェイが裏でクラウドストレージにデータを転送してくれます。

クラウドストレージゲートウェイとしては、AmazonのAWS Storage Gatewayが有名ですが、S3やGlacierなどのAmazonのクラウドストレージにしかバックアップできませんし、重複排除ができませんので、上記の課題を解決することはできません。

Nbugw1


そこで、全ての課題を解決するのが、EMC社のCloudArrayNetApp社のAltaVaultといったサードパーティのクラウドストレージゲートウェイ製品です。この2つのストレージゲートウェイ製品は、バックアップサーバからはCIFSやNFSを提供するNASのように見えます。各製品の説明は各製品担当の方のブログにお任せするとして、ここではバックアップソフトの観点でサードパーティのクラウドストレージゲートウェイ製品がどのように前述のバックアップの課題を解決するのか見ていきましょう。


課題①
NetBackupはAmazonやGoogleのクラウドには対応しているが、Microsoft Azure等の他のクラウドにはバックアップできない。

解決①:サードパーティのクラウドストレージゲートウェイ製品はAmazon やGoogleは勿論のこと、下図の通り、Azure等の様々なクラウドに対応しています。きっと、お客様が使用したいクラウドストレージも含まれていることでしょう。 Nbugw5     <AltaVault 4.1>          <CloudArray 6.0>

  

課題②NetBackupからクラウドへのバックアップではバックアップデータの重複排除ができないため、クラウドストレージの使用量を削減できない。

解決②: AltaVaultやCloudArrayは重複排除機能があるため、クラウドストレージゲートウェイ上にバックアップした後、バックアップデータを重複排除し、ユニークなデータのみをクラウドストレージにデータを転送しますので、クラウドストレージへの転送量を抑えることができます。また、ストレージ容量を削減することにより、クラウドストレージのランニングコストも抑えることが可能です。重複排除処理もクラウドストレージゲートウェイ上で行われますので、バックアップサーバに負荷を掛けることもありません。

Nbugw4_9

 

課題③NetBackupがアクセラレーター機能で永久増分バックアップができるのは、ファイル・VMware・NDMPだけで、SQL ServerやOracle、Exchange等のアプリケーションやHyper-Vの仮想環境などのバックアップではアクセラレーター機能が使え

ないので、クラウドへのバックアップ時間を短縮できない。

解決③:クラウドストレージゲートウェイはオンプレミス環境にあるため、インターネット経由でクラウドストレージに直接バックアップする場合と比べて、短時間で確実にバックアップすることができます。また、バックアップ方法も従来のNASに対しての手法と変わりませんので、特定のアプリケーションのみがサポートということもありません。


課題④
バックアップはアクセラレーター機能の永久増分により転送量を少なくできても、リストアは対象データが丸ごと転送されるので復旧には時間がかかる。

解決④:リストアの際もオンプレのクラウドストレージゲートウェイからリストアするため、高速です。リストア対象のデータがクラウドストレージゲートウェイのキャシュ上にない場合でも、クラウドストレージから重複排除されたデータのみをクラウドストレージゲートウェイ転送するため、データ取得(リクエスト)にかかる料金も抑えることが可能です。



バックアップソフトの機能でクラウドストレージにバックアップする場合と比べて、クラウドストレージゲートウェイ製品の費用が追加で必要にはなりますが、重複排除によるクラウドストレージ容量の削減やリストア発生時のデータ転送量の削減によるランニングコストのメリットとバックアップ・リストアのパフォーマンス向上による運用のメリットを考えると、決して高くはないかもしれません。

まずは、クラウドストレージゲートウェイ製品をちょっと触ってみたいけど、環境を作るのが面倒という方は、下記のTest DriveでNetBackup7.7を使用してのAltaVaultへのバックアップを無料で試すことができます。

Test Drive AltaVault backup to AWS S3 (日本語版利用ガイド)

このTest DriveのAltaVaultのCIFS設定では、Everyoneにアクセス許可が設定されていますが、実際の運用ではアクセス許可を設定するものと思います。その際には、NetBackupのサービスのアカウントをCIFSにアクセスできるユーザーに変更する必要がありますので、ご注意ください。

参考:Configuring credentials for CIFS and disk storage units

クラウドストレージゲートウェイを使用したクラウドバックアップ方法はNetBackupだけでなく、CIFS/NFSにバックアップが可能なバックアップソフトであれば、どのソフトでも技術的には適用可能です。お客様の環境や要件に合わせて、最適なクラウドバックアップ方法・製品を選択していただければ幸いです。

担当:臼井

2016/02/01

クラウドを活用できる今話題のEMC CloudArrayとは!? ③

いよいよ、第3回目のVA版のCloudArrayインストールになります!

EMC担当の片山です。早くも第3回のアップになります。

CloudArrayのPool(物理アプライアンスであればディスク、VM版であればvmdk)からCacheを作成して、Cloudプロバイダの登録、CIFSと共有の作成までが今回の内容になります。そのためにまずは、評価版のダウンロードから始まります。

下記、URLへアクセスして新規アカウントを作成する必要があります。

https://cloudarray.com

アカウント作成はすぐできますので、ここで諦めないでください!

下図の様な、簡単な入力項目をチョチョッと入力したらすぐに完了です!

33_2

登録完了後、ログインするとすぐにバイナリをダウンロードするウィンドウが開きますが、Webサイト内の【Download & Documents】でも同じように、ESXi版やHyper-v版をダウンロードできます。

※初回ログインの際は、下図の様なウィンドウが表示され、そのままダウンロードできます。

36_2

この際にMD5SUMも忘れずにダウンロードしてください。OVAファイルは600MB程度あるため、ファイル破損がないかどうか、念のためチェックサム値も合わせて確認するのがお勧めです。

また、バージョンによってInternet Explorerでは、バイナリのダウンロードが始まらない事象があったので、CloudArray操作用のブラウザはChrome、Firefoxを使うのが良いと思います。

1_2

また、CloudArrayインストールに関するセットアップガイド等はこのサイトから一式ダウンロードすることができますので、こちらで合わせてダウンロードすると後々が非常に便利です!

※EMCサポートサイトには情報があまりなく、CloudArrayポータルに最新情報があります。

2_2

 

◆  今回、ESXi側の操作に関しては割愛しますが、CloudArrayのOVAファイルのESXiへのデプロイが完了したら。CloudArrayの仮想アプライアンスをパワーオンします。特に触ってみたいだけであれば、何も変更せずに利用できます。OS部分が仮想ディスクが50GBPool部分(Cache用)が25GBがデフォルトで組み込まれています。

(実際の性能評価等の場合、vCPU、仮想メモリ要件の最新ドキュメントを確認してください。)

※  Virtual Machine Installation Guideにスペック等の詳細要件は記載されています。

3

 

◆  新規セットアップ時のユーザ名とパスワードは【admin】【password】になっていて、変更が必要なため、ここで新しいパスワードを設定します。

※  このユーザ設定はCloudArrayコンソールにログインするためのユーザ設定です。

※ CloudArrayではポータル、コンソール、WebGUI、3つのユーザアカウントがあります。

4

 

◆  CloudArrayにネットワーク経由でアクセスするためのホスト名、IPアドレスを設定する必要がありますので、最初に【Network Configuration】を選択します。

5_2

 

◆  CloudArrayのHOST名、DNS、Default Gateway等を設定します。

9

 

◆  次にインターフェース(ens160、ens192)を選択し、IPアドレス、ネットマスクを設定します。インターフェース設定が終わったら【Save】を選択すると、Network Serviceが再起動して完了すると設定値が反映されます。そして、メインメニュに一度戻ります。

8

 

◆  メインメニュに戻ったら、【Diagnostics】を選択します。

7_2

 

◆  【Diagnostics】を選択して、【Ping Tool】を選択します。

10
上図の様に、Default Gatewayなどping応答がある既存ホストなどに対して、ネットワーク設定をしたCloudArrayと問題なく通信ができるかを確認してください。

 

◆ IPの疎通に問題なければCloudArrayのアプライアンスのIP、ホスト名など初期設定は、これにて完了になります。一度コンソールから【Logout】してください。

11

 

◆  続けて、Webインターフェースへ接続して初期ウィザードを実行していきます。

さきほどCloudArrayで設定したCloudArrayのIPアドレスにブラウザで接続します。

【 https://<CloudArray IP> 】

※ブラウザはIE以外のChrome、Firefoxがお勧めです。

12

 

◆ CloudArrayポータルサイトで作成したアカウント情報を入力します。インターネット接続されていれば自動的に認証が進みますので、【Next】をクリックして進みます。

13
※CloudArray License Tagに入力する値は、下図のようにCloudArrayポータルサイトの【My License】の下の【License Tag】に記載されているシリアル番号を入力します。

99
◆ 続けて、CloudArrayのWebインターフェースに接続するためのユーザを作成します。ここでは【root】ユーザを作成しています。ここで作成したユーザ名、パスワードを忘れると以後セットアップができなくなります・・・。

15_2

 

◆ EULA(使用許諾契約書)が表示されますので、【Accept EULA】をクリックして、【Finish】をクリックします。

16

 

◆ 【CONFIGURATION WIZARD】もしくは、【USER INTERFACE】を選択します。

初回起動のウィザードでは一連の設定をウィザードで設定することができます。ここでは【CONFIGURATION WIZARD】を選択します。

17

 

◆ CloudArrayからReplication対象となるCloudプロバイダを選択して登録します。

18

現バージョンでは22個のCloudプロバイダが選択できます。(検証用途のNFS含む)

19

今回の検証ではAWS S3を利用しましたので、ここではAmazon S3を選択して【Continue】をクリックします。

20_2
◆ アクセスID、シークレットアクセスキーを事前に作成しておいて登録する必要があります。入力が完了するとCloudArrayよりアクセスできるようになり、S3上に自動的にCloudArray用のバケットが作成されます。

21
※下記はAWS S3での場合ですが、実際にCloudプロバイダ設定をすると以下の様に自動的にS3上にバケットが作成された多数のオブジェクトファイルが確認できます。

※バケットとはS3上のデータの保存先フォルダの様なイメージ

22

 

◆ Cloudプロバイダに接続するためのインターネット帯域に対する最適化のための設定値を選択します。最低要件としては5Mbps以上のインターネット回線速度が必要となります。

23

 

◆ Poolから切り出す形でCacheを作成します。

※PoolとはESXi VA版ではデフォルト25GBのVMDKファイルになります。

24

 

◆ Cacheの名前、Page Sizeはデフォルトが推奨、Cacheサイズを入力していきます。

25

 

◆ この画面ではCloudプロバイダとの通信が問題なければ、【successfully connected】と表示されます。次にそのままの流れで接続プロトコルの設定をしていきます。

26

 

◆ 利用プロトコルの設定は、ここではCIFSにチェックを入れて【Next】をクリックします。

27

 

◆ 実際にサービス提供するCIFSサーバの共有Volumeの容量を指定します。

※当初設定したCacheと同容量もしくはそれ以上のVolumeのオーバーコミットが可能です。

28

◆ 一通りの設定は終了です。ここから利用することができます。

非常に簡単に初期設定が終わってしまいました!

29

◆ CloudArrayにWindowsからアクセスすると、もう既に共有フォルダが作成されています。

Volume容量をWindows側から確認をするため、Windowsサーバにドライブ割り当てでマウントして確認してみます。

30

◆ WindowsにZ:ドライブとしてマウントしてみました!約50GBと表示されています。

31

 

 今回は【CONFIGURATION WIZAERD】を使って設定していきましたが、設定ウィザードを使うだけでも、下図の様な構成がすぐ完了します!かな~り簡単にセットアップが終わってしまいますね!

1_8

そろそろ記事も終盤が迫ってきました。

次回以降では、CloudArrayの挙動を確認したり、CloudArrayの設定値を確認したり、設定部分を説明したいと思います。

それでは、また!

記事:片山

今回の記事一覧はこちら

クラウドを活用できる今話題のEMC CloudArrayとは!?①

クラウドを活用できる今話題のEMC CloudArrayとは!?②

クラウドを活用できる今話題のEMC CloudArrayとは!?③

クラウドを活用できる今話題のEMC CloudArrayとは!?④