2009年7月31日金曜日

ホスティングのRackspaceがプライベートクラウド提供

データセンター業界のクラウド対応に拍車がかかってきた。
7月29日、HostingのRackspace(NYSE上場)は、これまで提供してきたPublic Cloudだけでなく、Private Cloudを提供すると発表。この発表では、仮想市場最大のシェアを持つVMwareの仮想環境に限定し、同社が提供するPortalインターフェースでユーザー企業は自社からすべてをコントロールすることが出来る。今回の発表では、同社が提供する仮想化サーバーDedicated Virtual Server(DVS)ラインをプライベートとして提供する。提供されるサービスは、同社のPublic Cloud同様、①Cloud Sites(Webホスティング)、②Cloud Servers(仮想マシン)、③Cloud Files(オンラインストレージ)の3種類。同社はこれまで、クラウド対応としてプラットフォーム専業スタートアップのMossoやAmazon S3を利用したストレージバックアップJungleDisk、Virtual Serverをより細かく分割して販売するSliceHostなどを傘下に収め、これらのサービスをもとに「Rackspace Cloud Hosting」として提供してきた。



今回のPrivate Cloud発表の狙いは、同社ユーザーの防衛と新規開拓の2つだ。
まず、ユーザー防衛では、既存ユーザーがAmazonなどに流れることをPrivate Cloudの提供で引きとめる。Privateにすることで、より安全となり、また、専用Portal経由で自由に運用管理できる点がウリである。次に、新規開拓では、提供の遅れている大手ITベンダーのユーザー取り込み、さらには他Public Cloudユーザーの引き剥がしなどもある。



提供されるDVSのタイプは上図のとおり。発表では、Private Cloudの最小構成はこれらのDVSから選択した8つのVMからなり、費用は$6,000/月(ないし$54,000/年)程度からだという。この価格には、ライセンス料金の高いVMware製品が含まれていることを考えると格安だ。共に実績のある同社のホスティング環境とVMwareの仮想環境を組み合わせて、安心してPrivate Cloudの構築をして貰おうという戦略が功を奏するか注目である。

2009年7月29日水曜日

vSphere4(Cloud OS) -クラウド運用管理3-

昨年9月、VMworldでVMwareの新CEOとなった元MicrosoftのPaul Maritz氏が
VMware Virtual Datacenter OS構想を発表したのを画期的な出来事として覚えている人は多いだろう。この時の印象は、仮想化技術とは、もはやそれ自体の技術の優劣を競うことから、次の時代に移ったという思いだった。
つ まり、仮想化技術は成熟期に入って、OSとの融合問題を横目に、これからは仮想化を適用したシステム全体の運用をどうやって上手く管理するかという点にポイントが移ってきた。となると、IBM TivoliやHP OpenView、Microsoft System Centerなどを持つ大手ITベンダーが有利に見えるが、ことはそう簡単ではない。ある意味では、これら先行ベンダーは有利に見えるが、これまでにも感 じてきたように多くの機能を引きずり、さらにクラウドという点からは、一層複雑さや煩雑さが増して、本当の意味でどれ位、仮想化対応が出来るのか疑問が残る。

これに対する同社の答えが、Paul Maritz氏が説明したVMware Virtual Datacenter OS構想であった。ポイントは、これまでの「VMware Infrastructure 3」を機能アップして「VMware vSphere 4(正確には3.5後継)」とし、同様に「VMware VirtualCenter」を「vCenter」に改めて連携させること、そして徹底的に仮想化という視点でシステムの総合運用管理を試みることにあった。


こうして『vSphere 4.0』は今年4月末に発表、5月末に市場に姿を現した。
仮想化のエンジンは「VMware ESX Server 4.0」、物理的な複数台のESX仮想化サーバー群を管理するのは「vCenter 4.0」である。vSphere 4の最大の特徴は、これまでのVMotionを進化させ、既存ITインフラをプライベートクラウドで実行できるように変換、サービスとして提供することにある。つまり、ここでも仮想環境で稼動させるアプリケーションにある種のパッケージ化(OVFではなく独自のVMDK(Virtual Machine Disk Format)を施し、同様のフォーマットを扱う自社(プライベート)クラウドや外部のプブリッククラウド上で稼動させることが出来る。



このパッケージングを単位として、vSphere 4では、可用性/セキュリティー/拡張性の観点から下図で示される「Application Services」を提供する。これによって該当するアプリケーションは可用性のためのClustering、セキュリティーのFirewall、拡張性 としてDynamic Resource Sizingなどが適用される。これらのサービスを実行するインフラ環境も「Infrastructure Services」となって、単に仮想マシンの計算能力「vCompute」を提供するだけでなく、ストレージの仮想化、ネットワークの仮想化を推進し、 各々「vStorage」、「vNetwork」と進化した。



vSphere 4の目標は3つ。
まずは、①Efficiency(経済性)だ。仮想化前とvSphereを適用した総合的な仮想化後では50%以上のコスト削減を目指し、次に ②Control(制御)・・・総合的なDriving Controlを通して質の高いサービスを提供する。そして、③Choice(選択)・・・ハードウェア、OS、ミドルウェア・スタック、さらにプロバイ ダーなどを含めた選択度をあげ、ユーザーに従来のITシステムと同程度の自由度を与える。

以下、詳細に見ていこう。
VMwareの従来技術はCPUとメモリーを対象とした仮想マシンがターゲットであった。 これまでの大雑把に管理してきた物理的なリソースを仮想化によって細分化し、いわば空きのない状態に詰め込むことによって無駄をなくしてきた。結果、電力削減も格段に向上した。

このようなアプローチはストレージでも同じである。
vSphere のコンセプトのもとに「vStorage」として登場した機能では、Multi-Pass Accessのあるパートナーのストレージ製品を用い、処理効率を下げずにストレージ容量を圧縮し、50%以上の効果をあげることを目指す。 vStorageでは、このため、ただ圧縮するだけでなく、ストレージ圧縮を透過的にモニターしながら実行する。まさに、ストレージの仮想化と管理である。


vSphereのこの仕組みはネットワークについても「vNetwork」として試みられている。
この場合も市販製品のネットワークスイッチを利用し、上位に仮想化を施した「vSwitch」機能を提供して、モニタリングしながらネットワーク効率化をあげることが出来る。



vSphereにはまた、Securityの分野でも改良が施された。
既に発表されているVMsafeでは、仮想マシンと実行仮想サーバーの両方をIDS (Intrusion Detection System)のように内と外からセキュリティーの脅威を保護するが、もうひとつ、昨年買収したBlue Lane Technologiesの技術が加わった。「vShield Zones」である。vShieldは、仮想マシン環境をTrust Zone(信頼ゾーン)として、より厳格化する。つまり、仮想マシン空間をコンテナーに見立ててソフトウェアパーティショニングし、その上で仮想マシン間のトラフィックを監視、ログを採取しながら、独立性を確保する。



こ うしてVMwareは、これまでのEXS ServerをvComputeとして核としながらも、vStorage、vNetworkへと広がり、さらにセキュリティーを強化し、仮想システム全体 をコントロールする製品に成長した。これが「Cloud OS」と自ら命名した所以である。

2009年7月18日土曜日

実行環境管理のPlateSpin -クラウド運用管理2-

クラウド運用管理シリーズの1回目(前回)は、2006年11月のMicrosoftとNovellの提携「広範囲なWindowsとLinuxの相互運 用性向上とサポート」について触れ、その一環として、NovellのSUSEがMicrosoftのシステム運用管理「System Center」でサポートされるようになったことを報告した。


今回(2回目)は、両社に関連するPlateSpinという製品を紹介しよう。
PlateSpin はVMwareの古くからのパートナーで、物理環境と仮想環境を相互移動させる運用管理ツールを開発、2008年2月にNovellが買収。子会社となっ たPlateSpinは、その後、人材の流出などが続いたが、やっとNovellとの調整が軌道に乗り、落ち着きを取り戻しつつある。そして Microsoftとの共同マーケティングを開始した。「Workload Management ;PlateSpin with Hyper-V」だ。

仮想化システムを企業が導入する場合のシナリオは幾つか考えられる。
例えば、利用率がバラバラな既存サーバー群を統合したり、リースアップや老朽化したサーバー、さらにはWindows NTなどの古いシステムを仮想マシンに移行させるなどである。

PlateSpinの主要機能は2つ。
「PlateSpin Recon」と「PlateSpin Migrate」だ。
まずPlateSpin Reconは、仮想化計画(Virtualization Planning)とキャパシティー計画(Capacity Planning)を担当し、データセンター内の仮想化システムを描き出す。PlateSpin Migrateは、これを受けて、任意の環境間のワークロード移動と再配置(Anywhere to Anywhere Workload Migration & Relocation)による運用管理を実行する。

基本的な仕組みは、物理サーバー(Physical Server)と仮想マシン(Virtual Machine)間の移動をイメージアーカイブ(Image Archive)と呼ばれるフォーマットに変換して行われる。これはDMTFによるクラウド運用の標準化-5/7/2009掲載-で述べたOVF(Open Virtualization Format)と同じアイデアだが独自仕様である。

こ のイメージアーカイブを用いて、P2I(Physcal to Image)からI2V(Image to Virtual)経由で物理サーバー上のアプリケーション環境を仮想マシンに乗せ変える。また、ややバンド幅など運用上の問題があるが P2V(Physical to Virtual)で直接移行させることも可能だ。つまり、物理サーバー(P-Physical)上のアプリケーションと仮想マシン (V-Virtual)、イメージアーカイブ(I-Image Archive)間を自由に行き来が出来る。この方法で、旧システムから仮想化マシンへの移行やOn-Premise(自営)のオーバーフローをクラウド 上に移してアプリケーションを実行させるわけである。

「PlateSpin with Hyper-V」を前提に、少し、丁寧に見ていこう。
ま ずPlateSpin Reconは、既存のLinuxやWindowsサーバー群のリソース利用状況を測定し、Hyper-Vを用いたWindows Server 2008上で統合するためのデータを供給する。収集データは、カスタマイズやドリルダウンなども可能だ。これらのデータから統合シナリオを作成。それらか ら最適なものを選び出すために、Capacity Planningを用い、Workloadがどのように変化するかを確認しながら作業を進める。最終的にベストなものを見極めるのは、運用管理者の仕事 だ。さらに、実際の移行前に、統合による消費電力の削減予測も確かめることができる。



次 にPlateSpin Migrateは、最新のHyper-V搭載Windows Server 2008上に32/64bitのWindows NTや2000、XPなどのWorkloadを移して実行させる。これがStep 1だ。Step 2では、移行が期待通りか、本番サーバーへのインパクトに異常はないかを確かめる。さらにStep 3では、旧システムから仮想マシンへの移行やテスト期間中のデータをPlateSpinのServer Sync機能を用いて同期化させる。これで本番開始となる。



7月14日、Novellから最新版のPlateSpin 8.1がリリースされた。
このバージョンから、LinuxとWindowsに加え、Solaris 10のサポートが開始される。

またPlateSpinには「PlateSpin Protest」と「PlateSpin Orchestrate」もある。
PlateSpin Protestは、PlateSpin Migrateの実行環境のレプリケーションを作成するDisaster Recovery用であり、これがあれば、容易に他の仮想システムで代行することが出来る。PlateSpin OrchestrateはNovellのシステム管理「ZenWorks」を吸収したものだ。クラウドの登場で、これまでのシステム管理製品は何がしかの 対応を迫られている。Novellは自社のZenWorksをPlateSpinに統合させ、一方でMicrosoft System CenterにSUSEを対応させた。そしてMicrosoftもPlateSpinと歩調を合わせ、次の段階に入ろうとしている。

2009年7月17日金曜日

Microsoftから Azureの価格とプライベートクラウド計画

MicrosoftはNew Orleansで開催(7/13-16)の「Worldwide Partner Conference 2009 」において、Windows Azure Platformの価格とプライベート化について言及した。周知のようにAzureは昨年11月の「Professional Developer Conference 2008-PDC」で発表され、現在は無償で利用できるCTP(Community Technology Preview)の段階にある。つまりEarly Versionのα版だ。本来なら今後の計画はやはり今年のPDC(11/17~19)で発表が行われるべきだったが、IBMやSunの動きが逼迫し、今回の事前概要説明となった。


まず、11月のPDC 2009でWindwos Azureは正式版(β)となり、有償サービスとして公開される。この説明を正確に理解すると、上図でプラットフォームとなる「Windows Azure」と「SQL Azure」、「.NET Services」の3つが商用の正式版となる模様だ。プラットフォームとなるAzureの基本料金はCompute Serviceが$0.12/時間(Amazon EC2のSmall Instanceは$0.10/時)、Storage Serviceは保存が$0.15/GB/月(Amazon S3は最初の50TBまでが$0.15/GB/月 )となって、Amazonを意識した価格体系となっている。さらにStorage更新などは1万回当たり$0.01となり、バンド幅は30日単位でIn/Outの総量に対して課金される。ただ、今回、詳細な説明はなかったがCompute Serviceでは、開発やテスト段階はInstanceの扱いを変え、料金が最小化されるようだ。このようにAzureではUtility Chargeが基本となるが、企業向けにSubscriptionやVolume Licenseなども発表される見通しである。




次にRelation DBを扱えるSQL Azureは、最大1GBまでを扱うことが出来るWeb Editionが月額$9.99、10GBまでのBusiness Editionが$99.99。.NET ServicesではService Busを流れるメッセージやAccess Contorol Tokenなどを1万回単位でメータリングして$0.15の課金となる。



次にプライベートクラウドに関する言及があった。
MicrosoftはこれまでAzureは同社が運営するパブリッククラウドであり、On-Premiseの運用は出来ないとしていきた。しかし、今回、これを変更した。他社の動きから迫られたものだが、Windows Server 2008、Hyper-V、System Centerなどの最新環境のもとで「Dynamic Data Center Toolkit for Enterprise」をリリース予定だという。これは現在テスト中のホスティングパートナー向け「Dynamic Data Center Toolkit」を転用するように見える。現在、Microsoftはデータセンターを各所に建設中だが、Azureでは間に合わず、世界的にホスティングパートナーを展開し、これらにToolkitを適用して、Windows Azureサービスを計画している。提供されたドキュメントによると企業向けは2010年上期リリース、今のところ無償提供の予定だとしている。問題はサポートパートナーをどう構築するかだが、あと1年しかない。Microsoftにとって、企業ユーザーの手厚いサポートは以前から課題だった。いよいよ本命の大手ITベンダーによる戦いが始まろうとしている。

-Azureの適用地域-
Azureサービスは、今年11月の正式発表に伴い、世界21ヶ国Australia, Austria, Belgium, Canada, Denmark, Finland, France, Germany, Ireland, India, Italy, Japan, Netherlands, New Zealand, Norway, Portugal, Spain, Sweden, Switzerland, UK, United States)でスタートする。その後、2010年3月には16ヵ国(Brazil, Chile, Colombia, Czech Republic, Greece, Hong Kong, Hungary, Israel, South Korea, Malaysia, Mexico, Poland, Puerto Rico, Romania, Singapore, Taiwan)が追加、以降も暫時拡大の予定。

2009年7月3日金曜日

Microsoft System CenterとSUSE -クラウド運用管理1-

このところ、仮想化技術はOSとの緊密化、そして運用管理システムとの連携へと焦点が移ってきている。そこでクラウド運用管理関連の動きをシリーズ3回に分けて追ってみた。

まず、今回はNovellがMicrosoftとの提携の成果として発表した「Micorsoft System Center」のSuSE Linuxプラグイン開発から始めよう。この提携とは、2006年11月に遡る。当時はGPLv3制定の後半に差し掛かっていた。Microsoft の寡占と独善的な動きを嫌うLinuxコミュニティーは、NovellによるMicrosoftとの突然の提携に困惑し、そして大々的な非難の声をあげた。結果、2007年6月に確定したv3の中でMicrosoftの特許囲い込みの対抗策がとられ、違反にはペナルティー(Novellは時期的なこと から免責)が課せられることとなった。

この提携は2011年までで、『広範囲なWindowsとLinuxの相互運用性の向上とサポート(Broad Collaboration Windows and Linx Interoperability & Support)』を目的としている。このため両社は研究施設を整備し、3つの重点施策、①仮想化技術(Virtualization)、② 物理/仮想サーバーの管理(Web Services for Managing Physical & Logical Servers)、③文書フォーマットの互換性(Document Format Compatibility)を掲げた。

今回の開発発表は2番目の項目に沿ったものである。
Microsoft System Centerとは、2003年からのDynamic Systems Initiative (DSI)に沿ったシステム運用管理製品だ。Active Directoryを核に、.NET環境におけるSQL ServerやExchange Serverなどを効率よく管理するために作られ、Windows Server 2008とHyper-Vの登場で仮想化環境も守備範囲となっている。


DSI は、まさに分散環境における動的なシステム管理を目指すもので、初期にはHPC(High Performance Computer)のノードを意識し、現在は仮想マシンを主な分散管理の対象としている。この分散システムは同社が提供するSystem Definition Model(SDM)で定義され、SDMに対応すればサードパーティー製品でも稼動させることが出来る。System Centerは幾つかの機能で構成されているが、①OSやアプリケーションからシステム機器などを構成管理するConfiguration Manager、②システム全体のモニタリングとパフォーマンス管理のOperation Manager、③データバックアップのData Protection Manager(DPM)などが基本要素だ。特にデータバックアップではSystem Center準拠のSymantec(旧Veritas)やSIMPANA(CommVault社)製品などが実際のバックアップ取得のフロントとして機 能し、DPMはバックエンドとなっている。

今回のプラグイン開発でSUSEはMicrosoft System Centerで管理することが可能となった。このことは単に選択肢が増えたということだけでなく、大きな意味を持つ。ユーザーの視点は、これまでのような単一の仮想化技術の優劣から離れ、OSと仮想化、さらに運用管理の3つを総合的に評価し始めている。このような環境下で、IBMは、運用ではTivoliを堅持し、Linuxと仮想化は他社に委ね、SunはOpenSolarisを核に、XenベースのxVM ServerとxVM Ops Centerで独自の路線を進む。VMwareもvSphereによってクラウド運用管理のVOS(Virtual OS)化を目指している。Red Hatは運用管理ではニュートラルだが、仮想化ではKVMのQumranetを買収し、近々、リリースの予定だ。いよいよ、時代は総合化の段階の差し掛かってきた。