アクセスランキング

フォトアルバム
お問い合わせ先
ネットワールド ブログ運営事務局
blog.doc-info@networld.co.jp

2019/09/04

Azure Lab Service クラスルームでお手軽ハンズオン!

皆さん、こんにちは

 

今回は Azure が提供する「Azure lab Service クラスルーム」というサービスをご紹介したいと思います。

 

https://azure.microsoft.com/ja-jp/services/lab-services/

 

Azure Lab Serviceクラスルームとは

2019年3月に一般提供が開始されたクラスルームですが、Azure 上にハンズオン環境を作り上げる事が出来るサービスとなります。

 

クラスルームを利用することでAzureに繋がるネット環境とリモートデスクトップが使える端末さえあればいつでもどこでもハンズオン環境を利用できます。

 

ハンズオンに限らず、新製品のデモなど販促ツールとしても活用頂けるのではないかと思います。

 

そんなクラスルームですが、基本的な開始手順に関しては以下にまとまっておりますのでこちらを参考にして頂けたらと思います。

 

Azure Lab Services でラボ アカウントを管理する

https://docs.microsoft.com/ja-jp/azure/lab-services/classroom-labs/how-to-manage-lab-accounts

 

●仮想マシンは1台だけでなく複数台で展開可能


クラスルームは基本的には受講者一人につき1台の仮想マシンを割り当てますが、複数のサーバーで構成
されたシステムを演習で行うというパターンも多いと思います。

 

たとえば、アンチウィルスや資産管理といった管理サーバーがいてクライアントにエージェントを配布するといった演習などです。

 

そうした要望を見越したようにクラスルームでは複数VMを利用するための手順も公開されております。

 

クラスルーム ラボのテンプレート VM 内に複数の VM を備えた環境を作成する

https://docs.microsoft.com/ja-jp/azure/lab-services/classroom-labs/how-to-enable-multi-vm-environment

 

Azure上の仮想マシンでありながらHyper-Vを利用する事で複数台の仮想マシンを提供するという内容となっています。

 

上記を参考にして今回作成したのが以下の環境となります。

 

Azurelaboimage01_2

Nested Hyper-VというWindows Server 2016から搭載された機能である「入れ子のHyper-V」を利用してクラスターを構成しているイメージです。

 

もう少しかみ砕いていうと、親亀に二匹の子亀が乗っているイメージですね。

 

今回の環境の大まかな構築の流れとしては、

 

     Azure ポータルからAzure Lab Serviceサービスの展開

     Azure Lab Serviceポータルに接続し、Laboアカウントの作成

     作成したLaboアカウント上で仮想マシンテンプレートの作成

     作成した仮想マシンにRDP接続し、以下のコンポーネントをインスール・設定

(ア) ADドメインサービス

(イ) Hyper-Vをインストール

(ウ) Windows Admin Center(1)のインストール

     親のHyper-V上で仮想スイッチに対するNATを構成する

     インストールメディアを利用して2台の仮想マシンをインストール・設定

     フェールオーバークラスターのインストール・設定

     Storage Space Direct(2)有効化

     Hyper-V クラスターの作成

 

1 Windows Admin CenterWindows Server 2019 で採用された新しい管理ツールです。

2 Storage Space Direct  :Windows Server 2016以降で提供されるストレージ仮想化技術です。


今回は細かい構築のステップは割愛しますが、お伝えしたいのは、このような
システムもクラスルームを利用して構成出来るという点です。

 

複数台となるとテンプレートの完成までは若干の手間は掛かりますが、一度テンプレートを組み上げてしまえば多数の受講者に対する一斉展開もほんの僅かなステップで済みますので頑張りのしどころかと思います。

上記環境を構築する上で参考になるURLのリンクを張り付けておきますのでこちらも併せてご確認頂けたらと思います。

 

クラスルーム ラボのテンプレート VM 内に複数の VM を備えた環境を作成する

https://docs.microsoft.com/ja-jp/azure/lab-services/classroom-labs/how-to-enable-multi-vm-environment

 

NAT ネットワークの設定

https://docs.microsoft.com/ja-jp/virtualization/hyper-v-on-windows/user-guide/setup-nat-network

 

記憶域スペース ダイレクトの展開

https://docs.microsoft.com/ja-jp/windows-server/storage/storage-spaces/deploy-storage-spaces-direct

 

●クラスルームの簡易デモ

それではここで今回作成したクラスルームに関して、簡単なデモをお見せしたいと思います。

クラスルームの環境を作り終えた後の利用者視点でのデモとなります。

デモの内容を簡単に解説しますと、管理者からクラスルームへの招待メールを利用者に通知します。

利用者はメールに記載されたリンクにアクセスする事で仮想マシンにアクセスします。

 

仮想マシンにリモートデスクトップ接続し、Hyper-Vマネージャーを起動して2台の仮想マシンが起動中となっている事を確認します。

 

続いてWindows Admin Center を利用して、フェールオーバークラスターとハイパーコンバージドインフラストラクチャーのステータスを確認しています。

デモ動画は下記のリンクをクリックしてください。

クラスルームデモ動画

 

●まとめ


クラスルーム如何でしたでしょうか。ご覧頂いたように入れ子のHyper-Vを利用する事でクラスターシステムを作り上げる
事が出来ますし、利用者から見ればAzureをご存知でない方もあまり意識する事なくご利用頂けると思います。

 

今回はクラスルームを用いたハンズオン環境をイメージしてご紹介しましたが、ハンズオンに限った事ではなく、例えば自社の新製品のデモをお客様に披露するといった場合にも手軽にお使い頂けると思います。

 

クラスルームのメリットは、ネットにつながるPCがあれば気軽にアクセスできますしデモのためにわざわざ自社の検証環境にVPNで繋ぐという手間もなくなります。

 

皆さんも是非、ハンズオンだけでなく販促ツールとしてもクラスルームを活用頂けたらと思います。

  

今回も最後まで読んで下さりありがとうございました。

 

記事担当者:津久井

2019/09/02

Networld X 2019イベントアプリをリリースしました!

こんにちは

来週9/10(火)開催の「Networld X 2019イベント」にあわせて、iBeacon を活用して、お近くのオススメ展示ブース情報を表示するiPhoneアプリをリリースいたしました。

「Networld X 2019イベント」をより楽しむための情報配信アプリになりますので、ぜひダウンロードしてご利用くださいませ!


■ このアプリでできること


各展示ブースに設置されたiBeaconから出る信号を、スマホアプリがキャッチすることにより、いま近くにある展示ブース情報を、オススメとしてスマホアプリ画面にリアルタイム表示することができます。

#このオススメ情報をキャッチしたら、ぜひ展示ブースを回ってみましょう!

IMG_0734.PNG IMG_0741.PNG


また、本アプリで、会場マップ/タイムテーブル等のチェックも行えます。

#Networld X 2019イベントをもっと楽しむためのお役立ち情報も配信してますので、ぜひご活用くださいませ!

mapp.PNG time.PNG event.PNG


もちろん、本アプリは 無料でダウンロードしてご利用になれます

* アプリのダウンロードは無料ですが、通信料はお客様のご負担となります。

* 本アプリを利用するには、位置情報とBluetoothを有効にする必要があります。


■ このアプリの入手方法


アプリはAppStoreで配布しております。

* iPhone専用アプリになります。

* Androidのかた申し訳ありません。今回Android版はリリースしておりません。


まずは、こちらのQRコードへアクセスください

または、以下のリンクをクリックください

https://apps.apple.com/jp/app/networld/id1471924623


そうすると、AppStoreのダウンロードページが表示されます。

ここからダウンロードをお願いします



■ 簡単アンケート送信


本アプリを起動すると、簡単なアンケート画面が表示されます。

ここで、職種と興味分野を選択して送信ください。

IMG_0695.PNG



■ 位置情報の設定


本アプリを利用するには、位置情報とBluetoothを有効にする必要があります。


以下画面が表示されますので、本アプリでの位置情報の利用を「常に許可」を選択ください。

IMG_0696.PNG


以下画面が表示された際には、「設定」をクリックして、

スクリーンショット 2019-09-02 11.44.46.png


Bluetoothを有効にしてください。

スクリーンショット 2019-09-02 11.44.46.png


位置情報とBluetoothの両方が有効になったこと(以下の画面表示)を確認したら、アプリスタートです!

IMG_0697.PNG



■ iBeaconによるブース情報の検知


Networld X 2019イベント会場内で、アプリを起動すると、展示ブース情報の探索が行われます。

IMG_0732.PNG


しばらくすると、今現在の近くにある展示ブースが表示されます

#このオススメ情報をキャッチしたら、ぜひ展示ブースを回ってみましょう!

IMG_0734.PNG



■ その他イベントに役立つ情報の配信


アプリ画面の下にあるボタンをクリックすると、Networld X 2019イベントをもっと楽しむためのお役立ち情報を配信してますので、ぜひご活用くださいませ!


本アプリについてもっと知りたいこと/不明点等ありましたら、当日弊社スタッフにお問い合わせいただければ、しっかりとフォローさせていただきますので、安心してご利用いただければと思います。


それでは来週、Networld X 2019イベントでお会いできることを楽しみにしております!

2019/08/30

セミナーのご案内|Arcserveのクラウドソリューションを見逃すな!

1

 

こんにちは、バックアップ担当SEの宮内と申します。

突然ですが2019年8月28日のArcserveのリリースを確認した方はいますか?

なんと、Arcserve独自のクラウドソリューションArcserve UDP Cloud HybridArcserve UDP Cloud Directがついに日本上陸です!

かつてこちらのブログでも「バックアップでクラウドサービスを使うってどういうこと?」という記事を書きましたが、いよいよバックアップ界にもクラウドネイティブ・クラウドハイブリッドな製品が増えてきましたね。

さて、ネットワールドではArcserve UDP Cloud Hybrid/Cloud Directをどこよりも早くキャッチアップしたセミナーを開催します!

現在Arcserveさんと共同で鋭意検証中です。使用感も交えて皆様にArcserveのクラウドサービスのことをお伝えできるよう頑張って準備していますので、どうぞお楽しみに!

今回のブログは前哨戦として(セミナーの宣伝がてら)Cloud Hybrid/Cloud Directをご紹介したいと思います。

すでにArcserveやクラウドに注目されている先鋭的な皆様はもちろん、このブログを見てちょっと気になった皆様もぜひ、セミナーにお申し込みください!!


早速2つの製品の概要と特徴を見ていきましょう。

Arcserve UDP Cloud Hybridとは

既存のUDP環境にクラウドの保存先をプラス!
手軽にDRできる、オンプレミス環境とクラウド環境のハイブリッドバックアップソリューション

提供される主な機能

  • クラウド上データストアへの重複排除レプリケーション
  • クラウド上での仮想マシン起動&緊急運用
  • クラウド上データストアへのOffice365データのバックアップ

Cloud Hybrid(以下CH)は、すでにArcserve UDPやArcserve UDP Applianceをお使いの皆様におすすめのソリューションです。特に、「今は何もしていないが災害対策をしたい」「災対サイトを用意する、運用するのが大変」というお悩みがある方は要チェック!

CHを購入したら、Arcserve Business Cloud Communityに登録します。あとは現在お使いのバックアッププラン(バックアップの保存先や実行時間帯を定義するもの)にCH上データストアへのレプリケーションタスクを追加するだけで、クラウドへのDRが実現できてしまうんです。データセンターやサーバーなどの物理的・地理的な準備は必要なし!CH側の設定も多少ありますが、選択式で簡単です。

日々のバックアップに利用するコンソール画面ももちろん今までのUDPと同じです。使いやすさはお墨付き!

4

リージョンは東日本西日本の2箇所から選択できます。災害対策という意味では、DR先がどの程度地理的に離れているかはしっかり考えたいところ。立地に合わせて選べるのが嬉しいですね。

Arcserve UDP Cloud Directとは

バックアップサーバーはいらない、でもしっかりバックアップはしたい!
直接クラウドにバックアップができる、オンプレミスリソースに優しいバックアップソリューション

提供される主な機能

  • クラウド上ストレージへの永久増分バックアップ
  • クラウド上での仮想マシン起動&緊急運用

Cloud Direct(以下CD)は、オンプレミス環境をコンパクトに収めたバックアップに適したソリューションです。

例えば「小さな拠点がたくさんある」ような会社の場合、すべての拠点にバックアップサーバーを設置すると構成がゴツくなって大変ですよね。でも、それぞれに管理させると収集がつかなくるから一箇所で管理したい...そんなお悩み、CDでの一元管理で解決します!

CHと違い、こちらは従来のUDPとコンソールが変わりますが、一通り操作した感想としては余計なボタンがなく簡単で使いやすいです。ご安心ください!

3

一応SEなので技術的な話をすると、バックアップデータが「世代数」ではなく「保存期間」で管理されるなど、内部的な仕組みもちょっと従来と違う部分がありそうです。このあたりはセミナーまでに調査を進めていきます!

こちらのリージョンはカリフォルニア州のサンタクララのみとなっています。実は海外では他のリージョンも選べるそうなので、今後選択肢が増えることもあるかもしれませんね。


もっと色々知りたい!という方は、ぜひセミナーにお申し込みください!

クリックして申し込む!

ブログでもまた報告できればと思います。

ありがとうございました!

書いた人:宮内

2019/08/09

Exchange Server 用 Office 365 ベストプラクティスアナライザーのご紹介

皆さん、こんにちは

連日、体が溶けるんじゃないかと思う位の連日の猛暑に見舞われてますが

体調管理には気を付けてこの夏を乗り越えていきたいものですね!

さて、今回はOffice365ベストプラティプラクティスアナライザー(BPA)をご紹介したいと思います。

Exchange Server 用 Office 365 ベスト プラクティス アナライザーの概要
https://docs.microsoft.com/ja-jp/exchange/about-the-office-365-best-practices-analyzer-for-exchange-server

ベストプラクティスアナライザーとは

BPAとはシステム状態をチェックしてMicrosoft社の推奨設定を教えてくれる便利なツールです。

 

Windows Server 2008以降からWindows の役割ごとにBPAが提供されてきました。

Exchange Serverでは歴史も古く、2004年頃からExchange Server 用のBPA(以下、ExBPA)が提供されていたようです。

Exchange 2003や2007の移行に際し、既存環境のアセスメントなどに利用できるツールとして非常に便利なものでした。

そんなExchange BPAがOffice365移行用に進化したものが今回ご紹介するOffice365 BPAとなります。

このBPAはExchange2013以降の環境で利用可能なツールとなります。

Office 365 BPAの使い方

Office365 BPAを始めるには、事前準備としてOffice365の管理者アカウントが必要となります。

Office365環境が無い場合には評価版などを利用して準備頂ければと思います。

BPAの操作は至って簡単で移行元となるExchange2013 管理センターにアクセスしインストール・実行するというシンプルなものです。

それでは実際に試してみましょう

まず、Exchange 2013の 管理センターにアクセスし、「ツール」メニューに移動します。

「社内 Exchange Server および Office 365 ベストプラクティスアナライザーを確認します」
クリックします。

Image1

[実行]をクリックします。

Image2

EULA画面で[Accept]をクリックします。

Image4_2

[インストール]をクリックします。

Image5

続いて[実行]をクリックします。

Image6

プレリリースに対する使用許諾画面で[accept]をクリックします。

Image7

[next]をクリックします。

Image8

[start scan]をクリックします。

Image9Office365管理者の資格情報を入力し[OK]をクリックします。

Image10

スキャンが開始されるので完了までしばらく待ちます。

環境にもよるかと思いますがそれほど時間はかからない印象でした。

Image11スキャンが完了すると、失敗、警告、情報、成功といった4つのステータスに分類された形で結果が表示されます。

Image12

展開するとチェック項目の詳細を確認出来ます。

Image13エラーの細かい内容までは触れませんが、サーバーやDB構成、クライアントアクセスといった観点で推奨事項を提供してくれます。

これらの結果を解消する事でOffice365のメール移行がより安全に実行できる一助になると思います。

まとめ

Office 365ベストプラクティスアナライザー、如何でしたでしょうか。

 

今回はOffice365メール移行に役立つツールをご紹介しましたが、メール移行に限らずシステムを移行する際には、現在の自身の体調管理をしっかりと見直した上で次のステップへ進む事が重要だと思います。

 

弊社もCSPとしてOffice365Microsoft Azure移行支援サービスを提供しておりますので、是非お声がけ頂ければと思います。

 

今回も最後まで読んで下さり有難うございました!

 

記事担当者:津久井

2019/08/08

Watsonで遊んでみる/Speech to Text(音声認識)

こんにちは、Watson技術担当の山下です。

前回は Watson APIで、テキストを音声に変換して遊んでみました。

今回はその逆パターン(音声→テキスト)で音声認識についての話になります。

Watsonの Speech to Text(音声認識)を使えば、ディープラーニングで 音声をテキスト変換できるので、以下のデモサイトで 早速試してみたいと思います。

Speech to Text Demo



■ サンプル出力をみてみる


まずは、デモサンプルで音声認識のイメージをつかんでみましょう。

PCのスピーカー音量を少し大きくしてから、View Modelで、[Japanese broadband model]を選択して、[Play Sample1]ボタンを押してみます。



すると、デモ音声が流れてきて、その音声がしっかりとテキスト化されてますね!

また、デモサンプルは2人の対話イメージになっていて、話者識別(Speaker0 or Speaker01)も、きちんとできているのが分かります。

#ちなみに、[Play Sample2]は観光地トークです。こちらもいい感じに音声認識されてますね



さらに、音声認識で キーワード検出も可能です。

[Keywords]タブをクリックすると、さきほどのデモ音声で、「音声認識」「ディープラーニング」「技術」の3つのキーワードが音声認識されたことを示してます。

#このキーワードは自由に指定可能で、上図の[Keywords to spot]のとこに、キーワードを書いとけば、音声認識されたかどうかを確認することができます。



■ 実際に音声認識をやってみる


では、今度は実際にやってみましょう!

声を出す準備はできていますか!? (※オフィスで急に発声すると、周囲がびっくりするかもしれません・・)

今回、一人で発話するので、[Detect multiple speakers]は必要ないので、チェックを外しておきましょう。

View Modelで[Japanese broadband model]の選択と、[Text]ダブの選択を確認してから、[Record Audio]ボタンを押したら、発話してください!

#ここまでなにをしゃべるか考えてなかった方は、「ワトソンは音声認識できますか?」と発話くださいませ



発話完了したら、またすぐ[Record Audio]ボタンを押してください(ずっと音声認識中だと、周囲の雑音が音声認識され続けてしまうので)

今回 以下のように、いい感じに音声認識できました。



[Word Timings and Alternatives]タブをクリックすると、Watsonの音声認識結果をベースに、各単語の確信度や単語候補の確認を行うことができます。

上手く音声認識できなかった場合、カスタマイズに使えそうな情報になるかもしれません。





■ 次回〜Watson音声認識のカスタマイズ


今度は、「VTuberは流行っていますか?」と発話してみたところ、以下のような結果となりました。

※VTuber(ブイチューバー)については、本記事をご参照ください



VTuber(ブイチューバー)としゃべったのですが、、なぜか・・「ういちユーザー」と認識されてしまいました、、あれれ、うーん、どうしてでしょう・・


[Word Timings and Alternatives]タブをクリックしてみてみると、、以下のようになってました。

#「ブイチューバー」は、「ういち」と「ユーザー」に音声認識されてますね



Watson音声認識の事前学習/共通モデルでは、一般的な用語がカバー範囲になりますので、「VTuber」は まだ辞書登録されてなさそうです。。

しかし、Watson音声認識では、この事前学習モデルを、ユーザーが自由にカスタマイズできることによって、固有名詞や業界/専門用語・独自のいい回しなどに対応することが可能になります。

Watson音声認識をカスタマイズすれば、「VTuber」と ちゃんと音声認識してもらえそうですね

次回は、この辺りのカスタマイズを行っていきたいと思います!

2019/07/29

VxRail - 4.7.xxx時代 -

Hello World!! 皆様こんにちは。
梅雨明け、、、はまだですが、いよいよ本格的な夏という感じになってきましたね。
夏い暑は、HCIでシステム構築をパパっと乗り切って、夏休みをエンジョイしましょう!


というわけで、久しぶりにネットワールド 究極ストレージ担当より今回から何回かにわたってDell EMCのHCI製品であるVxRailについて最新バージョンである4.7.x での記事を書いていきたいと思います。
内容としては、5月にラスベガスで行われたDell Technologies Worldの弊社フィードバックセミナーである、Dell EMC Edgeの技術セッションでもお伝えしたものとなりますが、改めてより詳細なものをこちらで広くご紹介できればなと思います。また、ざっくりな内容は★こちらにも記載があります。VxRailに興味がある方は、弊社で運営するVxRailのパートナーコミュニティ「チャンピオンクラブ」なんかについても是非チェックしてみてくださいまし。

さて、では本題に入っていきます。VxRail 4.7.100以降のバージョンですが、注目したい新機能は以下3つ...です!

VxRail ManagerのvCenter統合
  ☆ 以下で解説 ☆

2-node Cluster

これまでVxRailは、障害時のHA用リソースを持たない場合で3ノード、推奨は4ノード以上構成する必要がありましたが、それが2ノードからクラスタが構成できるようになりました。 ただし、当然というところかと思いますが、vCenterを外部に持つ必要があったり、vSANを機能させるために外部にWitness VMを用意する必要があると言った、2-node構成ならではのお作法もあります。。
 ※ 対応モデルはE560/E560F のみです。


Smart Fabric

読んで字のごとく、スマートなファブリックです。はい、つまり、ネットワークスイッチを自動構成してくれます。 仮想環境を構築する場合、ハイパーバイザの物理ポートを介して管理系、vSAN, vMotion, 仮想マシンネットワークといった様々なトラフィックが流れるため、VxRailを接続するスイッチもそれに合わせた適切な設定をする必要があります。また、ノードを増設する場合なんかにも、増設するノードをつないだポートを既存の構成に合わせてコンフィグしてくれる、そんなスイッチを自動構成してくれるフレームワーク、便利機能であるSmart Fabricに対応しました!

以降では①についてもう少し詳しく見ていきます。(②と③については以降の投稿にて..!)


▼①.
HCI製品であるVxRailでは、HCIアプライアンスとしての管理ツール「VxRail Manager」なるものが用意されています。管理だけでなく、初期セットアップ時もこのVxRail Managerがセットアップを楽にしてくれるわけですが、これがvCenterのGUIに統合されちゃいました、というのが①のお話です。
これでvCenterからVxRailアプライアンスのソフトからハードまでを一元管理できるようになりましたね!

なお、初期セットアップ時はvCenterがいないので、これまで通りVxRail Managerから構築を行います。

(画像はクリックで拡大)

Ws000218_5

まずこれまでのVxRail Managerはこんな感じでした。

アプライアンスのハードウェア部分をまとめて見ることができ、またvCenterからノードのエラー情報なんかも拾ってきてくれていました。が、詳細は結局vCenterを見なければわからなかったり、インタフェースもスパッと直観的に操作できるまでには洗練されていないように感じます。例えば普段vCenterしか触らない運用管理者が久しぶりにこの画面を開くと、マニュアルを引っ張ってこないといけないくらいには戸惑うと思います。 ※個人的主観ですよ

Ws000219

そして、vCenterに統合されて、こんな形になりました。
上の画像では[ホストおよびクラスタ]のペインでクラスタを右クリックしています。表示されるメニューの一番下に「VxRail」というのがありますね!そしてサブメニューには「VxRailホストの追加」と「シャットダウン」が用意されています。

Ws000220

「シャットダウン」をクリックするとこんな感じです。ESXiホストと同じオペレーションでシャットダウンできるのは非常に直感的だと思います。そしてシャットダウンシーケンスの中では、これまで通りシャットダウン前の状態確認をちゃんと実施してくれます。

Ws000221

つづいて、「VxRailホストの追加」画面をクリックするとこんな感じです。ネットワーク上に追加用のノードが用意されている場合には、このように検出されてきます。

Ws000223

この他にも、クラスタを選択した状態の右ペインの[監視]、[設定]タブに「VxRail」というメニューが追加されており、ここから、例えばログバンドルのダウンロードなどの、これまでのVxRail Managerで行っていた他の操作が可能になっています。


Ws000224

ちょっとおまけ的なところですが、こちらはアップデート画面です。。です!
なにやらvCenterらしからぬ画面ですよね...。そうです。vCenterクラスタを選択 -> [設定] -> [VxRail] -> [システム] -> [更新] と、vCenterからたどれるものの、なんと別Windowで開かれます。
他にも一部こういう部分がありますが、基本的にはvCenterにログインすれば、これまでVxRail Managerでできた操作がすべてできるようになっています。画面自体も統合するのは、さほど難しいことではないと思うので、そこは今後に期待ですね!!

それでは、今回はこの辺で。Ciao Ciao!

2019/07/24

Arcserve UDP 7.0 で Nutanix AHV 環境での仮想スタンバイをやってみた

こんにちは、ネットワールドの海野です。

2019年5月7日にArcserve UDP 7.0がリリースされ、Nutanix AHVにエージェントレスでバックアップできるとのことでしたので、早速試してみたのが前回の記事です。

https://blogs.networld.co.jp/main/2019/05/arcserve-udp-70-f467.html

今回は「Arcserveを導入したAHV環境ならではの機能」ということで仮想スタンバイの検証を実施してみました。

この投稿ではAHV環境での仮想スタンバイの動作確認を目的として、

  • Arcserve UDPが提供する仮想スタンバイとは
  • AHV環境での仮想スタンバイのシステム要件
  • 仮想スタンバイの設定手順
  • 実際に仮想スタンバイを運用するには…

といった内容で進めていきます。


  • Arcserve UDPが提供する仮想スタンバイとは

 仮想スタンバイを一言で表現しますと「仮想マシンを迅速に復旧するための機能」であると言えます。類似する機能として「インスタントVM」というものもありますが、AHV環境ではWindowsはサポートされておらず、Linuxをご利用いただく必要があります。

参考URL

https://support.arcserve.com/s/article/Arcserve-UDP-7-0-Software-Compatibility-Matrix?language=ja#Base8
https://support.arcserve.com/s/article/Arcserve-UDP-7-0-Software-Compatibility-Matrix?language=ja#nwin3

 この2つの機能の違いについては弊社のブログに投稿がありますので、ぜひご覧いただければと思います。

Arcserve UDP|仮想マシンを急いで復活させるには?

  • AHV環境における仮想スタンバイのシステム要件

 詳細はArcserve UDPのマニュアルをご確認いただきたいのですが、要注意ポイントとして以下の3点が挙げられます。

① Nutanix AHV 環境への仮想スタンバイをする場合、仮想スタンバイ先の AHV 上の仮想マシンとして、NGT (Nutanix Guest Tools) および Arcserve UDP Agent がインストールされた Windows Server 2016以降のモニターサーバーが動作している必要があります。
② Nutanix AHV 環境への仮想スタンバイは、対象の仮想マシンが UEFI ブート環境であるかダイナミックディスク形式を利用している場合、サポートされません。
③ 仮想スタンバイ先のハイパーバイザーが Nutanix AHV の場合は、Virtual Standby Monitor は Windows Server 2016 以降のバージョンにする必要があります。

参考URL

https://support.arcserve.com/s/article/2019042201?language=ja#a01
https://support.arcserve.com/s/article/Arcserve-UDP-7-0-Software-Compatibility-Matrix?language=ja#browserB

  • 仮想スタンバイの設定手順

     注 : 今回は検証の単純化のために同一クラスター内でのテストとしています。予めご了承ください。
    そのため、今回の検証では実際に稼働させる場合に制限があります。

    • モニターサーバーの準備
       仮想スタンバイは「障害が発生してしまった仮想マシンを迅速に復旧させるための機能」ですので、対象となる仮想マシンの死活監視をします。そのためのハートビートを監視するための仮想マシンをモニターサーバーと言いますが、仮想スタンバイ先のAHV上に配置されている必要があります。
       なお、このモニターサーバーにはNutanix Guest ToolsおよびArcserve UDP Agentをインストールしておきます。
       また、モニターサーバーからRPS (Recovery Point Server = 復旧ポイントサーバー) へのFQDN名前解決もできるようにしておく必要があります。(今回の検証では仮想スタンバイ対象がドメイン非参加かつDNSも外部のものを参照しているため、hostsで解決させています。ここの名前解決をさせずにIPアドレスで試してハマりました…!)

      41001_2

    • 仮想スタンバイ対象の準備
       仮想スタンバイの対象とするAHV上の仮想マシンにはAHV標準の仮想ドライバーとなるVirtIOのほか、Nutanix環境での管理モジュールとなる”Nutanix Guest Tools”のインストールが必要です。
       Arcserve側のモジュールやエージェントなどは特に必要ありません。

      42001

    • バックアップサーバーの設定
       UDPの管理コンソールにログインし、[リソース]タブから[プラン]を選択し、
      [プランの追加]を実行します。

      43001

       ここではプランの名前を[Nutanix AHV VSB]としました。
       また、タスクの種類は[バックアップ: ホストベース エージェントレス]を選択し、バックアップ プロキシは既存のものを設定しています。

      44001

       そして、AHVクラスターに存在する仮想マシンをバックアップ対象として登録するために、[Nutanix AHV からのノードの追加]をクリックします。

      44002


       AHVクラスターの情報を入力する画面が表示されますので、各項目を埋めて、[接続]をクリックします。

      44003

      ※このとき、保存先の設定(デスティネーション)やスケジュールなども必要に応じた設定を実施してください。

       さらに、左側のメニューから[タスクの追加]をクリックし、タスクの種類から[仮想スタンバイ]を選択します。

      44005

       仮想スタンバイ ソースは、既に設定済みとなっているホストベースエージェントレスのデスティネーションを選択します。

      44006

       仮想化サーバの項目において、モニタはAHV環境に準備済みのモニターサーバーを指定します。

      44007

       また、Nutanix ドライバファイルフォルダでVirtIOのドライバーを指定しますが、このときVirtIOのISOの中身をすべてコピーし、そのコピーしたルートフォルダーを指定することが必須です。
       (私はWindows Server 2016を使っていたので、対象となる2016だけコピー&指定してハマりました…!)

      44008

       仮想マシンの項目では、スタンバイ先VM名のプレフィックスやスペックを指定します。ここでは2vCPU、4GBのメモリを設定しました。また、仮想マシンの配置先となるストレージコンテナやネットワークも任意のものが設定可能です。
       (AHVから設定情報がロードされます。)

      44009

       設定が完了したら[保存]をクリックして、展開の完了を待ちます。

       データが転送されるまで待ちます。

      44014

       Nutanix Prism側に新しい仮想マシン[UDPVM_unnow-bktest02(10.12.50.62)]が作成されていることが確認できます。

      44015
      以上で仮想スタンバイの準備が完了しました。

  • 実際に仮想スタンバイを運用するには…

     この記事でご紹介している仮想スタンバイを運用するには、Arcserve UDPのコンポーネント配置が重要なポイントになってきます。
     現時点で、Nutanix AHV環境での仮想スタンバイには冒頭に紹介した以外の制限事項があります。それはソースVMのハートビートの監視ができないというものです。
     実際のハートビート監視はバックアッププロキシを対象に行われており、DR環境用のクラスターを考慮して図示すると以下のようなイメージです。

    01

     モニタサーバによるハートビートはバックアッププロキシを対象としていますので、本番環境のAHVクラスターが何らかの理由で利用できなくなってしまった場合、バックアッププロキシのハートビートが止まり、スタンバイVMを起動する状況に遷移します。

    02

     なお、Arcserveのバックアップ プロキシについては以下のURLが参考になるかと思います。
    https://www.arcserve.com/wp-content/jp/uploads/2017/12/udp-v65-faq.pdf
    ※ 資料は 6.5 のものですが、 7.0 でも参考情報としてご利用いただけます。


まとめ

 というように、今回はArcserve UDP 7.0ならではの機能としてWindows OSでの「仮想スタンバイ」の設定方法をご紹介しました。
Nutanix単体では難しい仮想マシンのダウンタイムがほぼゼロの運用を実現できるArcserve UDP 7.0との組み合わせをぜひお試しください。

記事担当者 : SI技術本部 海野 航 (うんの わたる)

2019/07/18

Stratoscale Cloud Platformが実現するオンプレミスで構成可能なハイブリッドクラウドとは?

 Stratoscale社の概要

 Stratoscale社は2013年に創業された本社はイスラエルにあるソフトウェアベンダーです。

Blog1_2

 Stratoscale社では「エンタープライズITに真のモダナイズを!」というメッセージの元、オンプレミスにAWS API互換のクラウドネイティブ向けのプライベートクラウドを構築するソフトウェア「Stratoscale Cloud Platform」を提供しています。弊社ネットワールドは2019年4月より日本国内で初めてのStratoscale代理店として販売を開始しています。

Stratoscale Cloud Platform はオンプレミスで動作するクラウドネイティブのプラットフォーム

 通常のx86サーバに「Stratoscale Cloud Platform」ソフトウェアを導入することにより、まるでAWSのサービスがオンプレミスで動いているかのように利用することができます。

Blog6

 そのため既存のオンプレミスのワークロードをパブリッククラウドに移行することなく、オンプレミスのデジタルトランスフォーメーションを進めることが可能です。

なぜオンプレミスにクラウドネイティブのプラットフォームが必要なのか?

 パブリッククラウドはIaaSだけでなく、多くの魅力的なマネージドサービスを提供しています。ところがすべてのワークロードをパブリッククラウドに移行することはできません。「インターネットに接続できない環境」「法規制やシステム構成の制約でオンプレミスに移行できない環境」などのオンプレミスに配置し続ける必要がある、それでもパブリッククラウドの恩恵を受けたいというような場面こそStratoscale Cloud Platformの最適な場面といえます。

 「パブリッククラウド上で稼働するアプリケーションを改修を最小限でオンプレミスで稼働させたい!」、「インターネット接続できない環境でもDevOpsの開発基盤を使いたい」こういった声をStratoscale Cloud Platformが問題を解消します。同様のソリューションとして、数年前からMicrosoftがx86サーバベンダーから提供している「Azure Stack」や、昨年発表された「AWS Outposts」があげられます。

Stratoscale Cloud PlatformはAWSとAPI互換のプライベートクラウドを実現

 Stratoscale Cloud Platformはオンプレミスにクラウドネイティブなワークロード向けのプライベートクラウドを構築するだけではありません。プラットフォームを管理するためのAPIに、AWSとの互換性を持たせることでよく使われているTerraformやAnsibleといったAWSの構成管理ツールをそのまま利用することができるといった特徴もあります。

Blog5

もちろんAWSとAPI互換性があるといっても、AWSが提供するすべてのサービスが対象ではありません。AWSが提供するサービスのうちオンプレミスでの需要が多いサービスからサポートを順次提供しています。Stratoscale Cloud Platformが提供しているサービスは以下のドキュメントで確認することができます。

Mapping Stratoscale Products to AWS Services

Blog3

Blog4

互換APIが提供されるサービスであってもすべての機能(API)が互換性があるわけではありません。どのAPIがサポートされるかは以下のドキュメントで確認することができます。

Stratoscale-supported AWS APIs

 

 Terraformを使ったStratoscaleへのアプリケーション展開のデモ動画

Kubernetesクラスタ展開のデモ動画

これ以外にも様々なデモ動画がメーカサイトで公開されているため興味のある方は是非ご覧ください。

Youtube Stratoscaleチャネル

ネットワールドからのお知らせ

Stratoscale Cloud Platformの概要を紹介させていただきました。「AWSと比較してオンプレミスでこんなことができるのであれば検討したいな!」「とりあえずどんなことができるのか触ってみたい!」という方は是非こちらからお問合せください。

2019/06/30

Watsonで遊んでみる/Text to Speech(音声合成)

■ はじめに


こんにちは、Watson技術担当の山下です。


今回は、Watson APIの Text to Speech(音声合成)を攻めてみたいと思います。テキストを簡単に音声に変換できて、SSMLで声のトーンとかをお好みにできそうです。


・Watson APIの Text to Speechの詳細は以下ご参照ください。

IBM Watson Text to Speech


・IBM Cloudのライトアカウントを取得すれば、無料でWatson AIを使うことできます。

IBM Cloud ライト・アカウント | IBM Cloud


・IBM Cloudの無料での始め方は、こちら@ayatokuraさんの記事がわかりやすいです。

「IBM Cloudをはじめました」無料ではじめられるライト・アカウント登録方法



■ 今回のイメージ


本ブログ連載は、「Watsonで VTuberを作ろう!」がテーマになりますので、 VTuberの発話にあたる音声合成部分を、「Text to Speech」で実装していきたいと思います。



Watson APIのText to Speech(音声合成)を使って、VTuberの音声発話が人間ぽっくいい感じになりそうな予感です。

早速、VTuberのおしゃべりをイメージして、遊んでみたいと思います。



■ 遊んでみる!


では、以下デモサイトにアクセスして、VTuber(?)をしゃべらせてみましょう!

Text to Speech | 音声合成のデモサイト


スクリーンショット 2019-07-01 15.11.34.png

Text to Speech | 音声合成のデモサイト

上記デモサイトで、スピーチ内容を入力して(以下セリフサンプル)、

音声変換ボタンを押せば、とりあえずしゃべりだします!

セリフサンプル
むかしむかし、あるところに、お爺さんとお婆さんとVTuberがいました



■ これから


もしかすると、ちょっと発音がいまひとつなとこあるかもしれません。

そんなときは、SSML(音声合成マークアップ言語)の出番です。


以下のようにSSMLで入力してみて、音声合成の結果を比べてみてください




Text to Speech | 音声合成のデモサイト

デモサイトで、スピーチ内容をSSML(音声合成マークアップ言語)で入力して(以下セリフサンプル)、音声変換ボタンを押します

セリフサンプル
<speak><say-as interpret-as="interjection">むかしむかし</say-as>、<prosody rate="x-fast">あるところに</prosody>お爺さんとお婆さんと<break time="1s"/><sub alias="ブイチューバァ">VTuber</sub>がいました。</speak>


音声合成は、SSMLを使ったほうが、きっといい感じになってると思います!

ぜひSSML(詳細は以下リンクの書式参照)をいろいろ試していて、お好みのスピーチにしてみましょう

音声変換 SSML


では 次回配信は来週を予定しております。

次回は、「Text to Speech(音声合成)」とは逆の流れ、「Speech to Text(音声認識)」について、VTuberを使って試してみたいと思います。

ぜひまたご覧いただけると嬉しいです!

2019/06/20

IBM Cloud Pak for Data 2.1を動かしてみる

sample

みなさん、こんにちは。 IBM Cloud Private(ICP)の投稿ばかりしていましたが、今回はICP上に構成される別製品のご案内と動かすところまでを試してみます。 今回、ご紹介する製品は


IBM Cloud Pak for Data


です。 5月末に新バージョンがリリースされ、これまで IBM Cloud Private for Data と呼ばれていた製品が IBM Cloud Pak for Data にリブランドされました。


IBM Cloud Pak for Data とは何か?

IBM Cloud Pak for Data は 企業内のすべてのデータおよび分析ニーズに対する Ent to End の次世代データプラットホーム です。


なぜ必要か?

みなさん、社内や顧客の現場でAIやマシンラーニング(ML)を活用したシステムの開発の話などを聞くことが増えてきているかと思います。
しかしながら実際に進み始めるとこんな課題が出てきます。

(AIやMLに使える)データはどこにあるの?

そのデータすぐに使えるの?

もちろん、データを1から作る必要があることもありますが社内のどこかのデータベースに埋まっていることもあります。
また、仮にあったとしても使えるようになるまで担当者への確認や準備・加工が必要となり、すぐに始められないのが現状としてあります。

実際にIBMの調査ではデータから価値を引き出せている企業は 15% しかない。という結果や、実はAIやMLでの活用はプロジェクト全体で見ると2割ほどであり、残りの8割がデータの収集・探索から準備・加工までのフェーズであると言われています。

553_3


IBMとしては、AIは決して 魔法 ではなく、一つ一つしっかりと進めていく必要があり、そのアプローチを先進テクノロジーを活用して効率的に支援するためにIBM Cloud Pak for Data をリリースしています。

AI Ladder スライド

9


何ができるか?

IBM Cloud Pak for Data はコンテナーベースで稼働しており、プラットホームとしてIBM Cloud Private(ICP)を利用しています。ICP上にデータ利用者・提供者双方のニーズを合わせパッケージ化したソリューションになります。
また、下記の画像に記載はありませんが、Watson関連についてもIBM Cloud Pak for Data 上にadd-onされることが発表されていて、今後拡充されていきます。

製品の特徴としては、

  1. シングルアプリケーション
  2. エンタープライズカタログ
  3. データ仮想化とサンドボックス
  4. Add-on機能
  5. クラウドネイティブ
  6. マルチクラウド対応

があります。

16


詳細機能についてはお問い合わせいただければと思います。


動かしてみる

今回はOS上にIBM Cloud Pak for Data をインストールし、管理UIにログインできるところまでを試してみます。


system requirements

実際に動かしてみる前にシステム要件をみてみます。
https://www.ibm.com/support/knowledgecenter/ja/SSQNUZ_2.1.0/com.ibm.icpdata.doc/zen/install/reqs-ent.html

構成としては3台(3 node cluster (x86-64 cluster))もしくは6台(6+ node cluster (x86-64 cluster))での構成例が記載されています。 また、Power環境で構成することも可能です。

今回は 6+ node cluster (x86-64 cluster)で構成してみます。
また、最新バージョン2.1ではDocker用のRAW Diskについて必須の記載はないが、本環境では利用する設定で進めます。


検証環境

物理基盤で用意することが難しかったので、下記の2種類のサーバーを計6台用意します。

  • Master Server (3台)
    • HW:
    • CPU: 10vcpu
    • Memory: 20GB
    • Disk:
      • 1: 150GB (Rootに100GB)
      • 2: 500GB (Installation path)
      • 3: 200GB (Docker devicemapper)
    • NIC: 1
    • SW:
    • OS: Redhat Enterprise Linux 7.5

  • Node Server (3台)
    • HW:
    • CPU: 16vcpu
    • Memory: 64GB
    • Disk:
      • 1: 150GB (Rootに100GB)
      • 2: 500GB (Installation path)
      • 3: 500GB (Data path)
      • 4: 200GB (Docker devicemapper)
    • NIC: 1
    • SW:
    • OS: Redhat Enterprise Linux 7.5

110624


サーバー環境についてはいくつかの注意点があります。

  • 今回のスペックでは20人程度のユーザーで利用する環境を想定
  • インストーラーを実行するマスターノード(サーバー)から各サーバーへのSSH接続ができることと秘密鍵、パスワードの準備
  • SElinuxを Permissive に指定
  • [ / ]の領域は 50GB が必要となっていますが、実際に50GBでパーティションを構成すると事前チェックで容量不足となるので多めに指定
  • Installation pathとData pathで利用するDiskは XFS でマウントすること
  • Diskの I/O パフォーマンスをチェックすること (要求されたI/Oに達していなくてもインストールはできます)
  • FWは無効にする
  • インストール前にRunning a prerequisite checkを参照し、チェックを行う
  • CPUに関する設定で AVX/AVX2 instruction set must be enabled on the processor. という注意があります。利用されている機器が古い場合は AVX/AVX2に対応していることを確認する


Running a prerequisite checkを行わなくても、要件を満たしていない場合はインストール時に失敗になります。 しかしながら、そこで修正できない場合(特にSELinuxは再起動が必要)、インストールをやり直す必要があるので、必ず実施していただくことをお勧めします。


環境事前準備

IBM Cloud Pak for Data インストール前に下記の準備を行います。
1. Firewallの無効化とSELinuxの設定変更
2. SSH鍵の交換 3. Diskの確認とフォーマット
4. Disk I/O の確認
5. 時刻同期の設定


1. Firewallの無効化とSELinuxの設定変更

下記コマンドを実行して、Firewallの無効化とSELinuxの設定を permissive に変更します。

systemctl disable firewalld
systemctl stop firewalld
sed -i -e "s/SELINUX=enforcing/SELINUX=permissive/g" /etc/selinux/config


2. SSH鍵の交換

IBM Cloud Privateのインストールでも実施する作業です。同等の内容を実施します。

SSH鍵の作成

ssh-keygen -b 4096 -f ~/.ssh/id_rsa -N ""

許可された鍵のリストに追加

cat ~/.ssh/id_rsa.pub | sudo tee -a ~/.ssh/authorized_keys

各ノード間でSSH公開鍵をコピー

サンプル

ssh-copy-id -i ~/.ssh/id_rsa.pu  
<user>@<node_ip_address>
ssh-copy-id -i ~/.ssh/id_rsa.pub root@xxx.xxx.xxx.xxx
ssh-copy-id -i ~/.ssh/id_rsa.pub root@xxx.xxx.xxx.xxx

SSHの再起動

systemctl restart sshd

パスワードなしでお互いにログインできるか確認

ssh (Master or Worker IP)

SSH接続後、抜けるのを忘れずに行う

exit



3. Diskの確認とフォーマット

Diskの確認とXFSでのフォーマットを実施します。
今回の検証は環境はVMで作成しており、下記のようなDisk構成になっています。


・マスターサーバ

# fdisk -l

Disk /dev/sdc: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sdb: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sda: 161.1 GB, 161061273600 bytes, 314572800 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
Disk label type: dos
ディスク識別子: 0x000b0c48

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sda1   *        2048     2099199     1048576   83  Linux
/dev/sda2         2099200   209715199   103808000   8e  Linux LVM
/dev/sda3       209715200   314572799    52428800   8e  Linux LVM

Disk /dev/mapper/rhel-root: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-swap: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-home: 41.9 GB, 41871736832 bytes, 81780736 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト


# lsblk
NAME          MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda             8:0    0  150G  0 disk
├─sda1          8:1    0    1G  0 part /boot
├─sda2          8:2    0   99G  0 part
│ ├─rhel-root 253:0    0  100G  0 lvm  /
│ ├─rhel-swap 253:1    0   10G  0 lvm  [SWAP]
│ └─rhel-home 253:2    0   39G  0 lvm  /home
└─sda3          8:3    0   50G  0 part
  └─rhel-root 253:0    0  100G  0 lvm  /
sdb             8:16   0  500G  0 disk
sdc             8:32   0  200G  0 disk
sr0            11:0    1 1024M  0 rom


・ノードサーバ

# fdisk -l

Disk /dev/sda: 161.1 GB, 161061273600 bytes, 314572800 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
Disk label type: dos
ディスク識別子: 0x000b8340

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sda1   *        2048     2099199     1048576   83  Linux
/dev/sda2         2099200   209715199   103808000   8e  Linux LVM
/dev/sda3       209715200   314572799    52428800   8e  Linux LVM

Disk /dev/sdd: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sdc: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sdb: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-root: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-swap: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-home: 41.9 GB, 41871736832 bytes, 81780736 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト


# lsblk
NAME          MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda             8:0    0  150G  0 disk
├─sda1          8:1    0    1G  0 part /boot
├─sda2          8:2    0   99G  0 part
│ ├─rhel-root 253:0    0  100G  0 lvm  /
│ ├─rhel-swap 253:1    0   10G  0 lvm  [SWAP]
│ └─rhel-home 253:2    0   39G  0 lvm  /home
└─sda3          8:3    0   50G  0 part
  └─rhel-root 253:0    0  100G  0 lvm  /
sdb             8:16   0  500G  0 disk
sdc             8:32   0  500G  0 disk
sdd             8:48   0  200G  0 disk
sr0            11:0    1 1024M  0 rom


インストール領域のフォーマットとマウント

この設定はマスタサーバ、ノードサーバのどちらでも実施します。
今回はどちらも /dev/sdbをインストール領域としてマウントします。

・パーティションを作成

# fdisk /dev/sdb
Welcome to fdisk (util-linux 2.23.2).

Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

Device does not contain a recognized partition table
Building a new DOS disklabel with disk identifier 0x4c4f64df.

コマンド (m でヘルプ): p   ### 入力する

Disk /dev/sdb: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
Disk label type: dos
ディスク識別子: 0x4c4f64df

デバイス ブート      始点        終点     ブロック   Id  システム

コマンド (m でヘルプ): n   ### Enter
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p):    ### Enter
Using default response p
パーティション番号 (1-4, default 1):   ### Enter
最初 sector (2048-1048575999, 初期値 2048):    ### Enter
初期値 2048 を使います
Last sector, +sectors or +size{K,M,G} (2048-1048575999, 初期値 1048575999):
初期値 1048575999 を使います
Partition 1 of type Linux and of size 500 GiB is set

コマンド (m でヘルプ): w
パーティションテーブルは変更されました!

ioctl() を呼び出してパーティションテーブルを再読込みします。
ディスクを同期しています。


・パーティションの確認
/dev/sdb1があることを確認します。

# ls /dev/ | grep sdb
sdb
sdb1


・XFS でフォーマット

# mkfs -t xfs /dev/sdb1
meta-data=/dev/sdb1              isize=512    agcount=4, agsize=32767936 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=131071744, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=63999, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0


・マウントポイントの作成
今回は /ibm マウントします。

mkdir /ibm


・マウントを実行

mount /dev/sdb1 /ibm  


・マウントの確認

# df -T -h
ファイルシス            タイプ     サイズ   使用   残り 使用% マウント位置
/dev/mapper/rhel-root xfs        100G  1.1G   99G    2% /
devtmpfs              devtmpfs    12G     0   12G    0% /dev
tmpfs                 tmpfs       12G     0   12G    0% /dev/shm
tmpfs                 tmpfs       12G  8.9M   12G    1% /run
tmpfs                 tmpfs       12G     0   12G    0% /sys/fs/cgroup
/dev/sdb1             xfs        500G   34M  500G    1% /ibm
/dev/sda1             xfs       1014M  142M  873M   14% /boot
/dev/mapper/rhel-home xfs         39G   33M   39G    1% /home
tmpfs                 tmpfs      2.4G     0  2.4G    0% /run/user/0


データ領域のフォーマットをマウント

データ領域はノードサーバ上ののみ構成します。
手順はインストール領域に行った手順と変わりません。
利用するDisk領域は /dev/sdc です。


・パーティションを作成

# fdisk /dev/sdc
Welcome to fdisk (util-linux 2.23.2).

Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

Device does not contain a recognized partition table
Building a new DOS disklabel with disk identifier 0xbb5968dc.

コマンド (m でヘルプ): n
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p):
Using default response p
パーティション番号 (1-4, default 1):
最初 sector (2048-1048575999, 初期値 2048):
初期値 2048 を使います
Last sector, +sectors or +size{K,M,G} (2048-1048575999, 初期値 1048575999):
初期値 1048575999 を使います
Partition 1 of type Linux and of size 500 GiB is set

コマンド (m でヘルプ): w
パーティションテーブルは変更されました!

ioctl() を呼び出してパーティションテーブルを再読込みします。
ディスクを同期しています。


・パーティションの確認
/dev/sdc1があることを確認する

# ls /dev/ | grep sdc
sdc
sdc1


・XFS でフォーマット

# mkfs -t xfs /dev/sdc1
meta-data=/dev/sdc1              isize=512    agcount=4, agsize=32767936 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=131071744, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=63999, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0


・マウントポイントの作成
今回は /data マウントします。

mkdir /data


・マウントを実行

mount /dev/sdc1 /data  


・マウントの確認

# df -T -h
ファイルシス            タイプ     サイズ   使用   残り 使用% マウント位置
/dev/mapper/rhel-root xfs        100G  1.1G   99G    2% /
devtmpfs              devtmpfs    32G     0   32G    0% /dev
tmpfs                 tmpfs       32G     0   32G    0% /dev/shm
tmpfs                 tmpfs       32G  8.9M   32G    1% /run
tmpfs                 tmpfs       32G     0   32G    0% /sys/fs/cgroup
/dev/sdc1             xfs        500G   33M  500G    1% /data
/dev/sdb1             xfs        500G   34M  500G    1% /ibm
/dev/sda1             xfs       1014M  142M  873M   14% /boot
/dev/mapper/rhel-home xfs         39G   33M   39G    1% /home
tmpfs                 tmpfs      6.3G     0  6.3G    0% /run/user/0


Docker用の領域の確認

下記がDocker用の領域です。

・マスターサーバ

# fdisk -l

---省略---
Disk /dev/sdc: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
---省略---


・ノードサーバ

# fdisk -l

---省略---
Disk /dev/sdd: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
---省略---


4. Disk I/O の確認

ディスクのパフォーマンスの確認項目があります。本番環境ではKnowledge Centerに記載のあるDiskを超えるもしくは匹敵するものを用意する必要があります。


  1. レイテンシー

The value must be better or comparable to: 512000 bytes (512 KB) copied, 1.7917 s, 286 KB/s


・マスターサーバ

# dd if=/dev/zero of=/ibm/testfile bs=512 count=1000 oflag=dsync
1000+0 レコード入力
1000+0 レコード出力
512000 バイト (512 kB) コピーされました、 0.83867 秒、 610 kB/秒


・ノードサーバ

# dd if=/dev/zero of=/ibm/testfile bs=512 count=1000 oflag=dsync
1000+0 レコード入力
1000+0 レコード出力
512000 バイト (512 kB) コピーされました、 0.514063 秒、 996 kB/秒


  1. スループット

The value must be better or comparable to: 1073741824 bytes (1.1 GB) copied, 5.14444 s, 209 MB/s


・マスターサーバ

# dd if=/dev/zero of=/ibm/testfile bs=1G count=1 oflag=dsync
1+0 レコード入力
1+0 レコード出力
1073741824 バイト (1.1 GB) コピーされました、 3.55129 秒、 302 MB/秒


・ノードサーバ

# dd if=/dev/zero of=/ibm/testfile bs=1G count=1 oflag=dsync
1+0 レコード入力
1+0 レコード出力
1073741824 バイト (1.1 GB) コピーされました、 3.49375 秒、 307 MB/秒

テストでファイルが作成されているので忘れずに削除します。

rm -rf /ibm/testfile


5. 時刻同期の設定

時刻同期の設定を行います。
IBM Cloud Pak for Data は ntpd ではなく、chrony の利用が推奨されています。 chronyが動作していることを確認します。

# systemctl status chronyd
● chronyd.service - NTP client/server
   Loaded: loaded (/usr/lib/systemd/system/chronyd.service; enabled; vendor preset: enabled)
   Active: active (running) since 月 2019-06-10 17:02:27 JST; 11min ago
     Docs: man:chronyd(8)
           man:chrony.conf(5)
  Process: 915 ExecStartPost=/usr/libexec/chrony-helper update-daemon (code=exited, status=0/SUCCESS)
  Process: 901 ExecStart=/usr/sbin/chronyd $OPTIONS (code=exited, status=0/SUCCESS)
 Main PID: 910 (chronyd)
   CGroup: /system.slice/chronyd.service
           └─910 /usr/sbin/chronyd

 6月 10 17:02:26 icp4d2-m1.icp.local systemd[1]: Starting NTP client/server...
 6月 10 17:02:26 icp4d2-m1.icp.local chronyd[910]: chronyd version 3.2 starting (+CMDMON +NTP +REFCLOCK +RTC +PRIVDROP +SCFILTER +SECHASH +SIGND +AS... +DEBUG)
 6月 10 17:02:26 icp4d2-m1.icp.local chronyd[910]: Frequency -22.831 +/- 0.743 ppm read from /var/lib/chrony/drift
 6月 10 17:02:27 icp4d2-m1.icp.local systemd[1]: Started NTP client/server.
 6月 10 17:02:32 icp4d2-m1.icp.local chronyd[910]: Selected source 133.243.238.244
 6月 10 17:03:37 icp4d2-m1.icp.local chronyd[910]: Selected source 133.243.238.164
Hint: Some lines were ellipsized, use -l to show in full.


環境事前チェック

準備した環境が適切に構成されているかチェックするためのツールが用意されています。 ツールは下記のようなことを確認します。

  • ディスクのスループットと入出力のパフォーマンス
  • 必要なポート
  • CPU/Memory/Disk
  • Firewallが無効であること
  • SELinuxがPermissiveモードとなっていること


ツールのダウンロード

Github上に最新のものが公開されているので、git が使える端末からダウンロードします。

git clone https://github.com/IBM-ICP4D/icp4d-serviceability-cli.git


ツールのコピー

SCPやSFTP等を利用して、IBM Cloud Pak for Data をインストールするVM上にコピーします。
今回は事前に /ibm/InstallationPackage/utils/ICP4D-Support-Tools/ をVM上に作成し、コピーしています。

・sample

scp -r ./icp4d-serviceability-cli/ root@xxx.xxx.xxx.xxx:/ibm/InstallationPackage/utils/ICP4D-Support-Tools/


ツールの実行

Masterサーバ、Nodeサーバそれぞれで実行します。


Masterサーバ

cd /ibm/InstallationPackage/utils/ICP4D-Support-Tools/icp4d-serviceability-cli
./icp4d_tools.sh --preinstall --type=master --install_dir=/ibm


・ERRORが出力される場合
弊社環境ではいくつかのエラーが発生しました。エラーメッセージ内に対処方法の記載がありますので、個別に対処してください。今回の環境では下記のエラーが発生しています。

# ./icp4d_tools.sh --preinstall --type=master --install_dir=/ibm

no crontab for root
##########################################################################################
Ensuring the IPv4 IP Forwarding is set to enabled
ERROR: The sysctl config has IPv4 IP forwarding set to disabled (net.ipv4.ip_forward = 0). IPv4 forwarding needs to be enabled (net.ipv4.ip_forward = 1). To enable IPv4 forwarding we recommend use of the following commands: "sysctl -w net.ipv4.ip_forward=1" or "echo 1 > /proc/sys/net/ipv4/ip_forward".
##########################################################################################
##########################################################################################
Ensuring the vm.max_map_count under sysctl is at least 262144
ERROR: The sysctl configuration for vm.max_map_count is not at least 262144. Please run the following command to set it to 262144 "sysctl -w vm.max_map_count=262144".
##########################################################################################
Finished with ERROR, please check /tmp/preInstallCheckResult


(参考)上記2点についてERROR内容に記載されている方法以外にファイルを直接編集する方法

echo -e "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
echo -e "vm.max_map_count = 262144" >> /etc/sysctl.conf
sysctl -p


・正常に終了した場合

# ./icp4d_tools.sh --preinstall --type=master --install_dir=/ibm

no crontab for root
Finished successfully! This node meets the requirement


Nodeサーバ

cd /ibm/InstallationPackage/utils/ICP4D-Support-Tools/icp4d-serviceability-cli
./icp4d_tools.sh --preinstall --type=worker --install_dir=/ibm --data_dir=/data



# cd /ibm/InstallationPackage/utils/ICP4D-Support-Tools/icp4d-serviceability-cli
# ./icp4d_tools.sh --preinstall --type=worker --install_dir=/ibm --data_dir=/data

no crontab for root
##########################################################################################
Ensuring the IPv4 IP Forwarding is set to enabled
ERROR: The sysctl config has IPv4 IP forwarding set to disabled (net.ipv4.ip_forward = 0). IPv4 forwarding needs to be enabled (net.ipv4.ip_forward = 1). To enable IPv4 forwarding we recommend use of the following commands: "sysctl -w net.ipv4.ip_forward=1" or "echo 1 > /proc/sys/net/ipv4/ip_forward".
##########################################################################################
Finished with ERROR, please check /tmp/preInstallCheckResult


・正常に終了した場合

# ./icp4d_tools.sh --preinstall --type=worker --install_dir=/ibm --data_dir=/data

no crontab for root
Finished successfully! This node meets the requirement


インストール


ファイルの準備

インストールに使用するファイルをIBM社のWebサイトからダウンロードします。
今回使用するファイルは下記になります。

  • IBM Cloud Private for Data Enterprise Edition V2.1.0 - Includes ICP (Default Install) - Linux x86 Multiplatform Multilingual
    • 部品番号: CC1YCML
    • Size: 0.5MB
    • Date posted: 29 5 2019

このファイルをダウンロード後、操作するマスターサーバの /ibm コピーします。


wgetのインストール

# yum install -y wget
読み込んだプラグイン:product-id, search-disabled-repos, subscription-manager
This system is not registered with an entitlement server. You can use subscription-manager to register.
dvd                                               | 4.3 kB  00:00:00 
依存性の解決をしています
--> トランザクションの確認を実行しています。
---> パッケージ wget.x86_64 0:1.14-15.el7_4.1 を インストール
--> 依存性解決を終了しました。

依存性を解決しました

================================================================================================================================================================
Package                            アーキテクチャー                     バージョン                                     リポジトリー                       容量
================================================================================================================================================================
インストール中:
 wget                               x86_64                               1.14-15.el7_4.1                                dvd                               547 k

 トランザクションの要約
 ================================================================================================================================================================
 インストール  1 パッケージ

 総ダウンロード容量: 547 k
 インストール容量: 2.0 M
 Downloading packages:
 警告: /media/dvd/Packages/wget-1.14-15.el7_4.1.x86_64.rpm: ヘッダー V3 RSA/SHA256 Signature、鍵 ID fd431d51: NOKEY
 wget-1.14-15.el7_4.1.x86_64.rpm の公開鍵がインストールされていません
 file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release から鍵を取得中です。
 Importing GPG key 0xFD431D51:
  Userid     : "Red Hat, Inc. (release key 2) <security@redhat.com>"
  Fingerprint: 567e 347a d004 4ade 55ba 8a5f 199e 2f91 fd43 1d51
  Package    : redhat-release-server-7.5-8.el7.x86_64 (@anaconda/7.5)
  From       : /etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
 Importing GPG key 0x2FA658E0:
  Userid     : "Red Hat, Inc. (auxiliary key) <security@redhat.com>"
  Fingerprint: 43a6 e49c 4a38 f4be 9abf 2a53 4568 9c88 2fa6 58e0
  Package    : redhat-release-server-7.5-8.el7.x86_64 (@anaconda/7.5)
  From       : /etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
 Running transaction check
 Running transaction test
 Transaction test succeeded
 Running transaction
   インストール中          : wget-1.14-15.el7_4.1.x86_64                                                                                                     1/1
  dvd/productid                                                                                                                            | 1.6 kB  00:00:00
   検証中                  : wget-1.14-15.el7_4.1.x86_64                                                                                                     1/1

 インストール:
   wget.x86_64 0:1.14-15.el7_4.1

 完了しました!


インストーラのダウンロード

コピーしたファイルを実行し、インストーラをダウンロードします。

cd /ibm
chmod +x ICP4D_ENT_INC_ICP_x86_V2.1.bin
./ICP4D_ENT_INC_ICP_x86_V2.1.bin


・ダウンロードを行うインターフェース

***************************************************************************************************************
*** IBM Cloud Private for Data Enterprise Edition V2.1 - Includes ICP (Default Install Image) - Linux x86 ***
***************************************************************************************************************
Ready to download 'IBM Cloud Private for Data Enterprise Edition V2.1 - Includes ICP (Default Install Image) - Linux x86'? (y/n) : y

************************************************************************
 Executing BIN File
************************************************************************
Creating directory /ibm/icp4d (make sure you have root access), starting the download.

Downloading the tarball to /icp4d_ee_2.1.0.0_x86_64.tar
Downloading...
`icp4d_ee_2.1.0.0_x86_64.tar' に保存中

100%[===================================>] 45,488,312,320 17.6MB/s 時間 30m 49s

2019-06-12 13:42:35 (23.5 MB/s) - `icp4d_ee_2.1.0.0_x86_64.tar' へ保存完了 [45488312320/45488312320]

Download completed.

BIN File ended cleanly

ダウンロードしたファイルを解凍し、実行権限を付与します。

cd /ibm/icp4d
tar -xvf icp4d_ee_2.1.0.0_x86_64.tar -C /ibm
chmod +x /ibm/installer.x86_64.466


構成ファイルの作成

今回はインストール用の構成ファイルを作成しインストールを実行します。
ここでは、構成ファイルのテンプレートを作成し、環境に合った形に編集します。


・構成ファイル作成

cd /ibm
./installer.x86_64.466 --get-conf-user

画面が遷移し、下記画面が表示されます。

The installer includes the module path '/ibm/modules'. The following packages will be installed:

    ibm-dde-0.13.14-x86_64.tar
    ibm-iisee-zen-1.0.0.tar

Press Enter to confirm and continue the installation.


The installer detected a configuration file. Do you want to use the parameters in this file for your installation? [Y/N]:

前回のバージョンまでであれば、ここで構成ファイルが作成され、インストーラの画面が閉じますが、本バージョンでは、 引き続きインストール作業の選択画面に進んでしまいます。 ここで一度 Ctrl+C を実行し、プロセスを終了させます。

構成ファイルですが、wdp.confというファイルがls -lで確認できるかと思います。

# ls -l
合計 26021944
-rwxr-xr-x. 1 root root       16611  6月 12 12:12 ICP4D_ENT_INC_ICP_x86_V2.1.bin
drwxr-xr-x. 3 root root          19  6月 11 14:18 InstallationPackage
drwx------. 2 root root          41  6月 12 13:11 icp4d
-rwxr-xr-x. 1 root root 26646443846  5月 30 08:03 installer.x86_64.466
drwxr-xr-x. 2 root root          71  5月 29 12:47 modules
-rw-r--r--. 1 root root        1818  6月 12 14:21 wdp.conf

wdp.confを開き、編集します。

####省略####
# If need to use other ssh port than 22, add the line ssh_port=xxx
virtual_ip_address_1=192.168.100.196    ## <- VIPを指定
virtual_ip_address_2=192.168.100.197    ## <- VIPを指定
ssh_port=22
user=root                               ## <- 元ファイルに無いが追記。実行するユーザーを指定
master_node_1=192.168.100.190           ## <-この先は用意したサーバーのIP、ディレクトリ、RAW Diskを追加
master_node_path_1=/ibm
master_docker_disk_1=/dev/sdc
master_node_2=192.168.100.191
master_node_path_2=/ibm
master_docker_disk_2=/dev/sdc
master_node_3=192.168.100.192
master_node_path_3=/ibm
master_docker_disk_3=/dev/sdc
worker_node_1=192.168.100.193
worker_node_path_1=/ibm
worker_node_data_1=/data
worker_docker_disk_1=/dev/sdd
worker_node_2=192.168.100.194
worker_node_path_2=/ibm
worker_node_data_2=/data
worker_docker_disk_2=/dev/sdd
worker_node_3=192.168.100.195
worker_node_path_3=/ibm
worker_node_data_3=/data
worker_docker_disk_3=/dev/sdd
#management_node_1=
#management_node_path_1=
#management_node_2=
#management_node_path_2=
#va_node_1=
#va_node_path_1=
#proxy_node_1=
#proxy_node_path_1=
#proxy_node_docker_disk_1=


インストーラの実行

インストーラを実行します。

./installer.x86_64.466


・画面が遷移します

The installer includes the module path '/ibm/modules'. The following packages will be installed:

    ibm-dde-0.13.14-x86_64.tar
    ibm-iisee-zen-1.0.0.tar

Press Enter to confirm and continue the installation.


The installer detected a configuration file. Do you want to use the parameters in this file for your installation? [Y/N]: y
Validating the information in the file...


By typing (A), you agree to the terms and conditions: http://www14.software.ibm.com/cgi-bin/weblap/lap.pl?la_formnum=&li_formnum=L-DNAA-BBCT4D&title=IBM+Cloud+Private+for+Data+Enterprise+Edition+V2.1&l=en

Type (R) if you do not agree to the terms and conditions

Please type (A) for accept or (R) for reject: a


Please type root's password for all the nodes:


・インストール完了

Running roles: PostInstall on host group: all

Task ['PostInstall'] has completed successfully
Installation was successful and took 02:56:42
Access the zen web portal using the following URL: https://192.168.100.196:31843


管理UIへのログイン

インストール完了後に表示されるURL https://192.168.100.196:31843 にWebブラウザにアクセスします

ユーザー名、パスワードは下記になります。

  • ユーザー名: admin
  • パスワード: password


IBM Cloud Pak for Data Knowledge center

https://www.ibm.com/support/knowledgecenter/SSQNUZ_current/com.ibm.icpdata.doc/zen/overview/overview.html


以上です。 IBM Cloud Pak for Data ですが、環境の事前準備をちゃんと行えば、インストールは全自動なのでお手軽に使い始めることができます。 ただ、今回の環境のスペックを見ていただくとわかる通り、環境の準備が一番大変なのでそこだけはなんとか頑張ってください。

そんなこと言っても環境の用意なんかできるかー!という方向けに弊社環境でテストしていただくと言った調整も個別にできますので、 ご希望のユーザー様は下記まで「ブログ見てIBM Cloud Pak for Data 使って(作って)みたい」とご連絡いただければと思います。

https://www.networld.co.jp/product/ibm-software/

すずきけ