私見、その2。
プライベートクラウドについて、いつも何か迷いがある。
考えれば考えるほど、はっきりしたものではないが、プライベートは一般的に普及しないのではないかと思う。第1世代のインターネットでIntranetがあったように、クラウドでもIntraCloudがあっても良さそうだ。しかしIntranetは当初の期待から形骸化し、ただのIPネットワークとWebアプリケーションに分解して一般化した。多分、企業向けのIntraCloud、いや、プライベートクラウドも同じような道をたどるのだろう。
◆ プライベートクラウドの課題
第2世代のインターネットを目指すクラウドでは、公共性が最重要だと、私見-その1-で指摘した。しかしながら、プライベートクラウドは、この公共性とは基本的に無関係だ。
プライベートでは、自社独自の技術基盤をクラウド化して利用することができる。しかしユーザーがこれを構築して“利用”したくなる動機は何だろう。また、自社独自とは言っても、大方はユーザー企業が依存するベンダー色に染まっており、そうでない場合はオープン環境となる。ベンダー依存が強ければ、そのベンダーが提供するパブリック
クラウドを利用することが出来るし、オープン環境ならAmazonなどパブリックなものを利用すれば良い。それでもプライベートを構築するという企業には、主なベンダーから構築ツールが提供されている。しかし、費用面ではパブリック利用がプライベートに比べて圧倒的に優位であることは疑いようがない。だとすると、自社のファイヤーウォール内に置いて完全なセキュリティーを維持したいか、相当の融通性のあるシステムを持ちたいかということになる。後者の事例は後述(Bechtelの場合)するが、パブリックのセキュリティー対応では、このところVPN適用が増えてきたし、幾つかクラウド対応も登場しているが、オンプレミス並みに十分でないことは確かである。残るは “Latency” つまり、ネットワークや処理速度などが気になるかだ。
もうひとつ、考えなければいけないことがある。
自社データセンターにVMwareやXen、Hyper-Vなどの“仮想化技術”を適用して、サーバー台数を最適化する方法は、大企業ユーザーなら、かなり浸透している。これについては、どの調査でも評価は良い。この場合、基本的にはソフトウェア構造を変えることなく、IT部門主導で進めることができる。しかしながら、クラウドとなると、そうとばかりは言えない。簡単な話、仮想マシンのセットアップや運用管理はデータセンター管理者の手から離れ、ユーザーが行うことが一般的だ。加えて、稀かもしれないが、仮想マシン環境とオンプレミスが完全に同じにならない可能性もあるし、アプリケーションに手を入れる場合も考えられる。現在の経済環境でそこまでするIT予算があるとは考えにくい。以上のように、いざ、プライベートの検討を始めると悩ましい壁に突き当たる。
◆ ベクテルの場合
サンフランシスコに本社を置く、世界的なエンジニアリング企業ベクテル(Bechtel)の場合は徹底している。同社は世界50ヶ国以上に事務所を持ち、原油掘削、鉱山開発、飛行場・港湾建設などで多くのプロジェクトを運営している。これらのプロジェクトは、多くのコントラクターやユーザーと深く係わりながら進めることが基本となる。そのような同社が自社システムをスクラッチから作り直したらどうなるか、4年前に自問した。
インターネットのフロントランナーGoogleやYoutube、Amazon、Slalesforceなどは常に最新技術を駆使したデータセンターを維持している。そこで、彼等の技術を徹底的に分析し、そこから学び取る作業が始まった。解ったことは気が遠くなるなるほどの違いだ。Goolgeでは大雑把に試算すると20万台の保有サーバーをたった12人のシステム管理者が受け持つ。1人当たりでは1万7000台の運用となり、Bechtelの実績は1,000台/人、17倍の開きだ。YouTubeの場合も1日当たり1億回のビデオストリーミングを無償で流すとすると、試算コストは10~15㌦/メガビットとなって、同社の500㌦と比べ、33~50倍も違う。Amazonが提供するストレージS3(最初の50TBまで15㌣/GB/月)とBechtelの場合(3.75㌦)を比べると、これも38倍となる。Salesforceからもポートフォリオの削減を学んだ。同社のSaaSアプリケーションは、端的に言えばCRMひとつだ。それに何百万というユーザーがついている。これに対し、Bechtelでは230のアプリケーションが動き、各々に複数のサブバージョンがある。勿論、これらは規模の経済が大きく効いているので、そのまま目標値化は出来ないが、大きな改善がいることだけは確かだ。
全ての調査が終わった。
そして、ネットワークを再設計し、サーバーやストレージの仮想化を進め、社内アプリケーションのSaaS化を推進するプロジェクトPSN(Project Services Network)が動き出した。データセンターはこれまでの7つを捨て、新たなものにする。つまり、“Scrap & Build”だ。仮想化された新データセンターは全世界3ヶ所(U.S.、U.K.、Singapore)となり、ソフトウェアポートフォリオはアプリケーションを中心に大幅に削減する。ネットワークはインターネット交換ハブを持ったGiga-Ethernetに替え、これまでのキャリアー依存を止めて自前とすることになった。
問題となったのはアプリケーション・ソフトウェアだ。
同社が保有するアプリケーションはMainframe時代のものから、大型のERPパッケージ、Outsourcingで開発保守されているもの、外部にHostingされているものなど様々だ。これらをService Matrixとしてマッピングしたものが下図である。
縦軸は“Application Delivery Model”とし、ソフトウェアがどのような形で提供されているかを示す。これを社内開発(In-House)-パッケージ(Off the Shelf)-外部開発(Vendor Maintained)に分け、横軸には“Infrastructure Delivery Model”を取って、どのようなインフラで稼動しているかを、社内設備(In-House)-設備移設(Co-Location)-外部利用(Full-Service)に区分した。下図左は、2つの軸にマッピングされたアプリケーション分類であり、下図右では具体的なベンダー名が入っている。そして、基本的に左下の「完全なオンプレミス」から右上の「外部インフラ利用のSaaS」にシフトする方向性を主たるもの“Major Shift”とした。つまり、当面は多くを自社クラウドで実行するが、将来は出来るだけ外部のSaaSも利用したいという計画である。2008年から始まったPSNでは、多くのアプリケーションは自営SaaSとなり、全世界のプロジェクトに携わる従業員やコントラクター/サブコン、パートナーなど3万人にポータルを通して提供されている。
Bechtelの場合は、全世界に展開するプロジェクトをより効果的に運営するため、最先端の技術を用いて融通性あるシステムを目指した。基本的にはベンダーに頼らずに、プライベートクラウドを構築した。これはひとつの判断だ。一方、現在のパブリッククラウドは発展途上にある。その意味では十分ではないかもしれない。しかし、だからと言って、プライベートクラウドを構築することに直結はしない。企業にとって、仮想化技術をデータセンターに適用することは本流となっている。ここまでは良い。さらに、その上にクラウド化すべきなのか、もう一度、自社要件を確認する必要がありそうに思う。