2011年8月30日火曜日

次世代クラウドコンピューティング (7)
                  -がんばれニッポン!-

◆ 成熟からの脱皮
産業の成熟化に伴い、中核となる企業の多くは、その地位確保のため、経営の多角化や総合化を推進する。しかし、それだけで大丈夫だろうか。
歴史に見る幾つかの事例では、その先に凋落があった。
コンピュータ産業も例外ではない。
その意味で低迷する日本のコンピュータ産業が、再度、成長曲線に乗るには、明確な目的をもった企業への変身、それに伴う企業の分割、そして動きの軽いスタートアップの育成、さらには他産業からの市場参入など多面的な努力を必要とする。
勿論、グローバル化は前提だ。しかし現実をみると、日本には米IBMのような巨大SIerが5指ほどもあり、その傘下に全てのIT関連企業が組み込まれているような錯覚に陥る。ユーザー企業のIT部門も彼らと付き合う以外に、当面の手立てはなく、まさに閉塞感が漂う。この構図からの脱皮こそが活路である。

一 方、米国のコンピュータ産業を見ると、Appleを筆頭に、Microsoftも、HPやDellも、さらにOracleに至るまで企業の活動フィールドは限定的で、それ故、企業目的はかなり明確だ。その中でどうやって売上を拡大し、利益率を高めるか、それが勝負処である。
例外はIBMだけ。
米国市場におけるIBMの存在は、今やハードからソフトまでを提供する巨大なSIerだ。それを望むユーザーだけが彼らを必要としている。しかし市場はもう新しいテクノロジーが彼らから出てこないことを知っている。クラウドでは完全なフォローワーとなった。つまり、過去、イノベーティブな会社として尊敬され、技術と製品で市場をリードしてきたIBMは、時代の変遷の中で、トップの座にこだわる余り、企業拡大に固執し、SI事業に偏重した。まったくのところ、会社の定款が変わってしまったに等しい。それでもIBMは寄らば大樹的なユーザー需要と、健全化が進む本流のIT企業群のおかげで、その勢力を未だ保っている。

◆ ピンチからチャンスへ-ネットワークの仮想化
クラウドは仮想化技術から始まった。
初期の仮想化はサーバーに始まり、次にストレージ、そして今、一番ホットなのがネットワークの仮想化だ。この分野が整備されれば飛躍的な向上が望める。構造的な問題を抱える日本のコンピュータ産業にとって、クラウドで世界に認められるにはどうすれば良いのか。ネットワークの仮想化はピンチを切り替えるチャン スでもある。

=Virtualized Networkを搭載したミドクラのクラウド!
Midokuraとはミドリのクラウドという意味です」
幸運にもMidokuraのファウンダー兼CEOの加藤隆哉さんにインタビューする機会があった。同社のミッションを尋ねると、「健全で先進的なクラウドをどう提供するか」、そのためには「グローバルオペレーションとネットワークの仮想化は欠かせません」と即答する。混沌とする現クラウド世界の解決法が見えているという印象だ。
Midokuraの戦略ポイントは2つ。
ひとつは、まずグローバル化。クラウドの成功にはこれなくしてはあり得ない。
共同設立者兼CTOのダン・ミハイ・ドミトリウ氏は元Amazonのエンジニアだし、サンフランシスコにはGoogle出身者を置き、ヨーロッパにもエンジニアを抱えている。小さいながらも世界中にエンジニアとオフィスを展開し、英知の結集とグローバルネットワークの構築を進める。目指すはグローバルコミュニ ティーとの連携だ。

2つ目は、勿論、提供するクラウドインフラのMidoStack。
このインフラはRackspaceNASA Amesの協力で始めたOpenStackがベースとなった日本発のディストリビューションである。OpenStackディストリビューションについては前回記事「OpenStackの進撃が始まった!」 で述べたように、もっとも活発なのはCitrixだ。これには買収されたCloud.comも含まれる。さらにUbuntuとInternapが続き、 Midokuraはこれらと戦略的にも製品的にも十二分に戦える。
特に、これを端的に示すのがMidoNetと呼ばれるネットワークの仮想化だ。
ネットワークの仮想化とは、物理層と論理層の間にネットワーク専用のハイパーバーザーが介在すると思えばよい。
この分野では米スタートアップのBig SwitchNiciraなどがいるが、MidoNetはISO Reference ModelのL2/L3、さらにファイヤーウォールやロードバランサーなどを対象とするL4もカバーする。競合する彼らはまだL2が基本でやっとL3に手が伸び始めたところだ。同社にとって、MidoNetこそがコアテクノロジーである。

仮想化ネットワーク(Virtualized Network)は多くのメリットを提供する。Web全盛の今日、幾つものIPアドレスも持ったアプリケーション群を新設データセンターやクラウドに移行することは容易ではない。しかし、この技術が確立されれば、アプリケーション移行もネットワーク変更も画期的に簡素化される。インタビューの最後に、加藤さんはぽつりと、「L2、も しくはL3も時期を見てオープンソースにしても良いかもしれない」とつぶやいた。
Virtualized Networkもそんな時代に入り始めているのだ。MidoNetを搭載した同社製品は近々、βとなる。並行して、大手iDCのBit Isleと組んだパフォーマンステストが進んでおり、全てが順調に推移すれば、そのままMidoStackベースのクラウドプロバイダーが登場する。

NECの挑戦-Programmable Flow=
NECもこの世界の開拓を目指している。
ことの始まりはStanford大学のNick McKeown教授が提唱したOpenFlowだ。
この考え方は、 これまでのISO Reference Modelを前提としながらも、実際のネットワーク構成を大きく簡素化し、これまでのスイッチやルーターをひとつの平面として扱う。つまり、従来のレイ ヤーを基本とする縦型のネットワーク構造に対して、OpenFlowではL1からL4までのレイヤーを論理的に一纏めにし、フローと呼ばれる概念で処理する。これを同社のProgrammble Flow製品でみると、実際にフローを処理するスイッチ部と、そのスイッチ部にどのようなフロー処理を行わせるかを指示するコントローラー部(制御)に分かれる。言い換えると、データのパケット転送にはOpenFlow対応のスイッチがあり、経路制御はサーバー上にソフトウェアを載せたアプライアンスの専用コント ローラーがある。
ここで要となるフローとは、各レイヤー毎のアドレス/タグの組み合わせによって、通信トラフィックを識別して特定するルールであり、このルールの取り扱いをOpenFlowではアクションと言う。これによってエンド・トゥ・エンドの通信が可能となる。

実際のところ、前述のMidokuraもネットワークの仮想化には、このOpenFlowを基本としている。つまり、同じOpenFlowの核となるコントロール部の開発において、NECはネットワーク機器に軸足を置き、Midokuraはそれをクラウドに組み込もうという試みである。NECはOenFlowメンバーの中で、先頭きってスイッチ&コントローラー開発を手がけてきた。その同社を追って、大手CiscoJuniper、さらにIBMやHP、Brocade、Dellなども動き出した。前述の米スタートアップでもコントローラー開発が進み、市場にはオープンソースのNoxもある。大手が本格参入すれば、市場再編は一触即発だ。その前に先行するNECやMidokuraの活躍が浸透すれば、大きなチャンスが生まれる。今年2月末、OpenFlowプロトコルは1.1となり、参加メンバーも40社を超えた。
いよいよ戦闘開始である。

◆  ピンチからチャンスへ-Telematicsの世界
ピンチをチャンスに切り替えるもうひとつの要素は、大きな発想を持ったユーザーかもしれない。特にグローバルビジネスの最前線にいる自動車会社への期待は大きい。彼らは色が染まっていない異業種だからだ。一時期、家電製品ネットワークが話題となったが人気先行で進まなかった。今、クラウドとの関連では自動車業界のテレマティックスが注目だ。これまで、テレマティックスは車載機上のカーナビを核とした交通情報提供として発達してきた。米国勢のGM OnStarFord SYNC、日本のHonda InterNaviToyota G-BOOKNissan CarWingsなどだ。
しかし今後は、スマートフォーンやPHV/EVの普及を睨んだ多様なサービスが中心となる。その核にクラウド利用が浮上する。第1弾として、本場米国ではスマホと車載機を連携させたGM-MyLink、Ford-MyFordを追加、欧州勢ではBMW Connect、SaaB IQonなども登場し始めた。

トヨタの挑戦=
北米トヨタではこのような状況を睨んで、北米市場で販売予定のPrius-V(日本名プリウスα)にEntuneを搭載する予定だ。北米トヨタはこれまでロードアシスタントとして、SafetyConnect(日 本ではG-BOOK)を提供してきた。Entuneはこれに追加する形となり、車載機がスマホ連携のマルチメディアシステムとなる。
インターネット接続のiPhoneと車載機はBluetoothで接続、実際のアプリはiPhoneで動く。しかし、iPhone同様のUIタッチスクリーンが車載機画面に現われるので、ドライバーには車載機にアプリがあるように見える。

このEntuneが発表されたのは今年始めのCES 2011だった。
Microsoftの検索エンジンPingも搭載予定で、これを使えば、最寄のコーヒーショップやガソリン/チャージスタンドを音声で探し出すことも出来る。次いで4月にはMicrosoftの開発中のスマートグリッドシステムMicrosoft Hohmを利用し、PHVやEV向けのクラウドを2015年から運用すると発表した。このシステムはWindows Azureがベースだ。さらに5月末、今度はSalesforce.comと提携、企業向けソシアルネットワークChatterを利用したToyota Friendを発表。このToyota FriendではPHVやEVとオーナー、それにサービスセンターが相互にチャットをしながら、バッテリーのチャージや点検などの的確な処理を目指す。稼働は早ければ来年からだ。



今回述べてきたように、日本のコンピュータ産業は構造的な問題を抱えている。
しかし、これをブレークする糸口が無いわけではない。トヨタに触発されて、MicrosoftやSalesforceも動き出した。同様に、自動車会社だけでなく、他産業でも追従の動きが見えてくれば面白い。また、 Midokuraのように、グローバルな視点で活動するベンチャーも見逃せない。環境の厳しい日本のベンチャーにとって、彼らが日本を抜け出す前に、改革が進む大手ITベンダーなどの支援が欲しい。
それはピンチを切り替える3つ目のチャンスでもある。


2011年7月27日水曜日

次世代クラウドコンピューティング(6)       
            -OpenStackの進撃が始まった!-

◆ プロジェクトの始まり
RackspaceNASA Amesが協力してオープンソースクラウド基盤のOpenStackプ ロジェクトが始まった。昨年7月19日のことである。瞬く間にメンバーが集まり、たった1年で80社となった。ことの始まりは2009年7月、Tim O'Reilly氏率いるOSCN(Open Source Convention)でのことだ。この会議でRackspaceは、これまで自社クラウド基盤のAPIを公開してきたが、ついにコードの公開に踏み切ると宣言。すぐにCloud Filesの書き換えが始まった。2010年にはCloud Serversも書き換えた。一方、この時期、NASAでもNebulaのオープンソース化が進んでいた。NebulaはOpen Governmentの資金で構築が始まったプロジェクトだ。Rackspaceのソースコードは昨年3月、Nebulaは5月にリリース。そしてすぐに両者のコードを組み合わせてク ラウド基盤を作る話が持ち上がった。
プロジェクトは瞬く間に動き出した。
NASAが提供するのはコンピュートのエンジンだ。NASAは当初、Eucalyptusのインフラ適用を試行したが、途中で断念してNovaプロジェクトをスタートさせた。提供するコンピュートエンジンは、このNovaで作成されたものである。NovaをリードしたのはAnso Labsだった。今年2月、RackspaceはそのAnso Labsを買収、OpenStackの強力なメンバーとして組み入れた。Rackspaceからはオブジェクトストレージのエンジンが提供され、昨年10月末にはOpenStackの最初のリリース(コードネーム:Austin)が始めて姿を現した。動き出してたった3ヶ月の早業だ。

以下、OpenStack主要メンバーの取り組みを紹介しよう。

 Cloud.comが選んだOpenStackとの共存
Cloud.comはSunのJVMエンジニアが立ち上げた会社だ。同社の開発したCloudStackとOpenStackは立場が似ている。共にクラウドインフラであり、オープンソースだ。
そして製品のリリース時期(CloudStackは2010年9月、OpenStackは同10月)もほぼ同じである。違いはCloud.comが独自開発してきたのに対し、OpenStackは前述のようにRackspaceとNASAの協力から産み落とされた。
両者は本来競合関係にあるはずだが、実際にはCloud.comはOpenStackのファンディングメンバーとして協調しながら開発を進めている。周知のようにOpenStackは仮想化技術としてXenやKVM、QEMUなどをサポートしているが、VMwareやMicrosoft Hyper-Vには対応していない。しかしCloud.comはOpenStack初期版のリリース直後、Microsoftとパートナーシップを進めると発表。内容はWindows Server Hyper-V上でCloudStackをサポートするためのテクニカルアシストをMicrosoftが提供するというものだ。この技術を利用して、Cloud.comはさらにHyper-V上でOpenStack をサポートするコードを開発、それをOpenStack コード・リポジトリーに加える計画だ。つまり間接的なサポートだが、結果、OpenStackがHyper-V上で動くことになる。
同社に関する詳細は<IaaSプラットフォームCloud.comの選択>を参照されたい。

◆ Citrixと協業するGigaSpces
GigaSpacesのクラウドはJavaSpaces仕様が特徴だ。
JavaのアプリケーションサーバーではJ2EEが有名だが、もうひとつJavaSpaces仕様がある。これは複数のJVM上のオブジェクトを共用する仕組みとして制定された。同社eXtreme Application Platform (XAP)上の個々のオブジェクトは、この仕様実装によって、どのJVM上にあろうとも自由にシステム内をアクセスすることが出来る。このメカニズムを使って、システム管理者やプログラムから、スタック化されたシステムをオブジェクトとして追加・削除する。つまり、負荷の増減に応じて、並行処理システムをオブジェクトに見立てて、数を変え、システムの総合的なダイナミズムを確保する。そして今年4月、GagaSpacesはCitrixが進めるOpenStackベースのインフラ上に、同社のアプリケーションサーバーXAPをPaaSの形で提供すると発表した。


◆ 始まったCitrixのProject OlympusとCloud.comの買収
Citrix SystemsがOpenStackベースのProject Olympusを 発表したのは今年5月末。同社はCloud.comと共にOpenStackのファンディングメンバーであり、共にオープンソースを基本としたサービスプロバイダー/企業向けのソリューションを目指している。このプロジェクトで注目すべきは、XenServer以外にMicrosoft Windows Hyper-VやVMware vSphereもサポートすることだ。
そして、同プロジェクトのEary Access Programの参加登録が始まったばかりの7月12日、CitrixはCloud.comを買収すると発表した。これは何を意味するのだろう。
発表では今後時間をかけて、Cloud.comのCloudStackと開発途上のOpenStackのギャップを埋めて行くという。想像できることは、 Project Olympusを手早く仕上げるためにCloud.comを買収したということだ。開発が進み既に市場実績のあるCloudStackとOpenStackを統合する。それよって、Cloud.comのユーザーを安全に新プラットフォームに誘導し、一方でOpenStackの機能強化したディストリビューションをProject Olympusを通して提供する。これが上手く行けば、念願のVMwareをキャッチアップできるかもしれない。
 
◆ UbuntuはEucalyptusからOpenStackへ切り替え
Ubuntuを主催するCanonical、今年5月のUbuntu Developer SummitでクラウドインフラをEucalyptusからOpenStackに切り替えると発表した。実際のところ、最新版のUbuntu 11.04(4月リリース)からOpenStackがテクニカルレビューとして登場していたので、この戦略変更は既定路線であった。理由はOpenStackの扱いやすさと対応範囲にある。そして今年10月には、次期版Ubuntu 11.10(Oneiric Ocelot)でOpenStackは正式にリリースの予定だ。こうしてCanonicalが2009年のUbuntu 9.04からサポートしてきたEucalyptusはあっけなく幕を閉じることになった。大きな流れの節目である。

◆ InternapからDual Hypervisor Stack
企業向けインターネットプロバイダーのInternap Network ServicesもOpenStackとVMwareによる2つのクラウドスタックを提供する予定だ。同社によると、多くの企業では既にVMwareが導入されており、一方でOpenStackへの期待も高い。このような環境から、同社では既にVMwareベースのプライベートクラウドをホスティングサービスとして提供し、今年始めからは、OpenStack利用のストレージクラウド(XipCloud elastic storage)を開始した。そして、今年下期にはOpenStackベースのパブリッククラウドを登場させる。これによって、ユーザー企業は異なる2つのHypervisorから選んで利用することが可能となる。

◆ Facebookの始めたOpenCompute
FacebookからもOpenStackに関する話題がある。OpenComputeだ。
このプロジェクトの目的は、Facebookの持つデータセンターノウハウと
クラウドインフラのOpenStackを統合して、クラウドセンター運営をハード/ソフトの両面から支援するものである。Facebook初のデータセンター建設はオレゴン州プラインビルで昨年初めから始まった。
2008年、Facebook設立当時の外部委託サーバー数は約1万台、現在では膨張するデータ量から4万台を超え、費用対効果を改善する狙いで自営センター建設に踏み出した。プラインビルは長方形のオレゴン州のほぼ中央の高度874mの内陸に位置し、省エネ型データセンターには欠かせない良好な気候がある。 新センターでは年間の60~70%は外気を取り入れた冷却方式となり、夏の間だけ、特別な冷却装置が稼働する。プロジェクトでは、この新設センターの図面や設置するサーバー仕様をメンバーと共有し、さらにOpenStackの参加を得て、新興国などで需要の多い効果的なクラウドデータセンター建設に役立てる。

-------------------------

以上のように、OpenStackはたった1年で大きく飛躍を見せ始めた。
OpenStackへの期待、それはある意味ではっきりしている。
コンピュータ産業は成熟し、技術は民主化したというのに、クラウドではまたまた技術が乱立気味だ。このようなことはユーザーは望まない。インターネットが公共性の徹底で成功したように、クラウドでも同じような環境整備が望まれている。
OpenStackの飛躍によって、多くのクラウドが共通の基盤上でビジネスを展開することになれば、新たな道が拓ける。その上でのビジネス競争こそが、ユーザーの望むとこ ろだ。特に急展開が期待されるのは発展途上国市場だ。これらの国々では、携帯電話が膨大な設備投資を必要とする固定電話を飛び越して、一挙に普及 したように、企業のIT化において、クラウドがオンプレミスを抑えて、ブレークする可能性は極めて高い。その視点で見れば、Facebookの始めたOpenComputeは発展途上国のクラウドセンター建設に大いに役立つ。今回紹介した企業だけでなく、最近始まったPiston Cloudや日本のベンチャーなどから、今年後半、幾つかOpenStackベースのディストリビューションが登場する。

2011年7月8日金曜日

次世代クラウドコンピューティング(5)
                        -Apacheの憂鬱-

クラウド市場の活況と裏腹に標準化は進まない。
仮想化技術ではVMwareが先行、Xenが追い、さらにMicrosoft Hyper-Vが登場し、そしてLinux KVMも現れた。クラウドプロバイダーではAmazonが先行、RackspaceやSAVVIS、Terremark、GoGrid、Verizon、 続いてOpSource、Hosting.comなどが追う形となった。ここでAmazon、Rackspace、GoGridなどがXen採用組であ り、VMware採用組は、SAVVS、Terremark、Verizon、OpSourceなどである。仮想化技術が違えば、イメージファイル形式は 異なり、互換性はない。標準化としてはDMTFが制定したOVF(Open Virtualization Format)があるが、これとてラッパーであり、中身を解いて、変換しなければ相互運用ができない。
さらにクラウドプラットフォーム分野を見る と、Cloud.com、Enomaly、Eucalyptus、Nimbus、OpenNebula、OpenStack、Nimbusなどがある。 ユーザー企業はこれらのプラットフォームを利用してプライベートクラウドを構築し、加えて複数のパブリッククラウドと連携しなければいけない時代となっ た。まさにクラウドの世界は乱立状態だ。

◆ 理想と現実
Apache Software Foundationのメンバーと話す機会があった。
Apache コミュニティーの存在意義は主要なソフトウェア領域において、ベンダーロックインを解き離すために、Apache Licenseによるオープンソース化を実行し、利用者に使用と改造の自由を与えることにある。しかしクラウド分野は、ユーザーが望まない乱立状態が現実 だ。
このような状況では、Apacheが得意とする大型プロジェクトによるプラットフォーム開発の余地は無い。それよりも状況を緩和し、これらの連携を円滑化する方が賢明だ。
Apacheにはこのためのプロジェクトが3つある。各クラウドプロバイダーやインフラソフトは運用管理のために独自のAPIを提供している。これらバラバラなAPIを共通化することがプロジェクトの目的だ。

◆ LibcloudとCloudkick
Pythonのライブラリーとして共通API化を進めるLibcloudの歴史は古い。
2009 年11月にApacheのインキュベーションステージ入りし、今年5月25日、TLP (Top Level Project)に昇格した。一番の有望株である。このプロジェクトはAlex Polvi氏がリードし、Dan Di Spaltro氏らが参加して始まった。この2人はCloudkickのファウンダーでもある。同社はLibcloud 技術を使い、複数クラウド上で稼働する仮想マシンモニタリングと管理サービスをSaaSとして提供している。Libcloudがカバーするクラウドは、 Amazon、Dreamhost、GoGrid、IBM Cloud、OpSource、Rackspaceなど、クラウドプラットフォームではEucalyptus、OpenNebula、OpenStack など合計20にのぼる。LibcloudのAPIを利用することで、デベロッパーは複数クラウドサービスを共通に管理が可能となった。
プロジェクトは、今後、クラウド上の仮想マシン管理だけでなく、ストレージや負荷分散などにも焦点を当てる予定だ。そして、昨年末、この注目のCloudkickをRackspaceが買収した。


 DeltaCloudとRed Hat
DeltacloudはRed Hatが2009年9月に始めたプロジェクトである。
提 供するAPIはRESTベースでセルフサービスポータルから複数の異なるクラウド上の仮想マシンを管理できる。昨年5月、同プロジェクトはRed HatからApacheに移管されインキュベーションステージ入りした。現在のところ、DeltaCloudがカバーするのはAmazon、IBM Cloud、OpenNebula、Rackspace、Terremarkなど、そして忘れてはならないのはRHEV-M(Red Hat Enterprise Virtualization Manager)をサポートしていることだ。Red Hatが仮想化技術でKVMの正式実装を発表したのは2009年夏のこと、翌年11月にRHEL 6が出荷された。Red Hatにとって、この時期はやっとKVMを実装し、先行するVMwareやCitrix/Xenを追撃する体制が出来た頃だ。DeltaCloudは Red Hatが整備を進めるクラウド基盤と共に追撃の重要な武器である。2010年8月、同社はDeltacloudをDMTF (Distributed Management Task Force)に標準化として申請し、Working Groupに参加すると発表した。この辺りの事情は<共通APIでクラウド連携を目指すDeltaCloud>に詳しく書いたので参照されたい。


 Nuvemプロジェクト
Nuvemプロジェクトは3つの中では一番若く、昨年6月、インキュベーション入りした。
目的はLibcloudやDeltacloudのように外部から持ち込まれたものではなく、Apacheの独自性発揮にある。プロジェクトはSOAの実装仕様SCA(Service Component Architecture)準拠Apache Tuscanyのサンドボックスとして開発中だ。当面の目標はAmazonやGoolge App Engine、Microsoft Azureとの連携だ。

この流れには夢がある。
SOAの実装ではSunが主導していたJBI(Java Business Integration)、そしてIBMなどのSCAと2つの流れがあるが、はっきり言ってSCAが優勢だ。これらはクラウドと共存する。既存システムは 徐々にだが着実にクラウドに移行し、一方でSCA準拠のビジネスプロセス開発が進む。これは企業ユーザーにとって朗報である。一般企業やISVによって開 発されたSOAコンポーネントは、いずれ、クラウド上に登場し、コードやプロセスの統合が可能となるだろう。上手く行けば、この次世代シリーズ(2)で述 べたプロセス拡張型仮想マシンに最適な組み合わせになるかもしれない。

Apacheの憂鬱はユーザーと共有している。
過去、多くのコンピュータメーカーが独自技術を競い合い、ユーザーは混乱した。
しかし時間の経過と共にそれらは収斂し、さらに共通化が進んでLinuxが登場した。
これらは時代の要請であり、我われが既に学習してきたことだ。
だというのに、クラウドはまたまた乱立だ。Apacheの悩みはここにある。
乱立クラウドの自然淘汰までには時間がかかる。
だとすれば、当面はこれらの相互運用の円滑化こそが大事だ。
そう考えるApacheの方針は将来を見据えている。

2011年6月15日水曜日

次世代クラウドコンピューティング(4)      
                  -拡張型仮想マシンの時代へ-

この次世代クラウドシリーズでは ①ハード機能連携型仮想マシン、②プロセス拡張型仮想マシン、③クラウド型ユニバーサルDB について、ここまで述べてきた。これは表現を変えると、仮想マシンの<ハードウエア強化>、<ソフトウェア強化>、そして<データベース強化>についての考察である。今回はこれらの推論のまとめをしようと思う。

◆ 仮想 マシンだからこそ出来るハード能力の強化
GPUやHPCをクラウド強化機能として提供するプロバイダーが出てきたことは述べた。
これらを利用すれば高性能WSなどを持たずにエンジニアリングの仕事ができる。
さらにハード機能強化の上にソフトウェアを搭載するベンダーも現れた。AutoDeskだ。 同社ではクラウド上でGPUを搭載したHPC利用のProject CumulusとProject Centaurの試行を昨春からスタートさせている。
Cumulusは同社のプラスティック部品射出成形シミュレーションのMoldflowをクラウド上で実行させる。もうひとつのCentaurは、製作の前工程としての製造工程設計に伴うビジュアライゼーションやシミュレーションを行うもので、同社製品のInventorがクラウド上で稼働すると思えばよい。AutoDeskのビジネスモデルは変わり始めつつある。
これまでユーザーはWSを購入し、高価なCAEソフトウエアをライセンスしてきた。
しかし、クラウドサービスが軌道にのれば、もうその必要はなく、通常のPCで構わない。AutoDesk製品はクラウド上で動き、使用量ベースのユティリティー課金となる。


◆ ソフトの再利用からプロセス連携へ
ソフトウエア開発の分野も変わる。
ク ラウド上でアジャイル開発を進めるJenkinsCloudBeesは活況だ。
アジャイルはプロジェクト運営論だが、どのように開発するかという方法論と両輪となる。
開発方法論の核のひとつは、一度作ったソフトウェアをどのように再利用するかだ。これは永遠のテーマでもある。そのための技術がSOA(Service Oriented Architecture)だった。そのSOAの考え方に近似し、クラウドとなって登場したのがAmazonのブロック方式である。このブロック結合は、後にAmazon EvangelistのJeff Barr氏によって、COA(Cloud Oriented Architecture)と名付けられた。

SOAとCOAの違いは、SOAがあくまでも物理的なソフトウェアモジュールをベースとしているのに対し、COAはプロセスをベースとした連携である。つまり、処理(実行)となるプロセスをつなぎ合わせることで、システム開発の短縮と実行の簡素化を図る。
クラウドならではの仕組みだ。このような動きは COAだけでなく、複数のBIベンダーなどで活発なことは述べた。目的は、開発の効率化とアプリケションの柔軟性の追求である。
(参照:アジャイル開発クラウドのCloudBees

◆ ソシアルネットワーク型データベース
データベース分野でも新たな変化が始まっている。
政府や自治体などの情報開示が進み、これらのクラウド公開が米国ではかなり進んだ。
そして何よりも肝心なことは、このデータを加工して表示するツールが提供されていることである。これによって、一般ユーザーでもインタラクティブで好みの加工ができる。さらにAPIやデータベースのダウンロード機能などの提供で、デベロッパーは自分のシステムの中に組み込むことも可能となった。それらのアプリはスマートフォン同様、マーケットプレイスに登録されて、一般ユーザーにも開放されている。データ ベースの世界でこのようなことはこれまで無かったことだ。ソシアルネットワーク型データベースの登場である。


◆ これまでの仮想マシンとは何だったのか
振り返ってみると、これまでの仮想マシンとは何だったのだろうか。
物理マシンが無くなり、それはクラウドに移った。インターネット接続で仕事をする通常のクライアントから見れば、相手のサーバーがどこにあっても構わない。しかし、サーバーがクラウドに移ったことで、IT部門の役割には大きな変化が起きた。開発はオンサイトで行い、それをクラウドの仮想マシンに移して実行する。仮想マシンのセットアップもインターネット越しに行わなければならず、遅くて煩わしい。代替案としてソフトウェアのアプライ アンス化が進んだ。それでも面倒くさい。
システムの運用管理も複雑になった。プライベートクラウドでは、物理マシンと仮想マシンの両方の管理が必要だ。これまでの運用管理システムに加え、仮想化技術ベンダーから提供されるツールを天才的なテクニックで使いこなさなければいけない。この煩雑さと初期投資のリ スク回避から、多くの企業はパブリッククラウドをトライアルに選んだ。しかし、仮想マシン自身の管理は利用部門の仕事となった。
これらと引き 換えに得たものは何か。
ROI(Return of Investment)だ。つまり、費用対効果がこれまでより優れている。
噛み砕く と、クラウド利用ではハード/ソフト購入などのIT初期投資が殆どない。導入に要する時間も大きく短縮された。引き換えに、そのしわ寄せの殆どはIT部門に来た。この現象をコンピュータ産業全体で見れば、近視眼的には、仮想化技術とパブリッククラウドなどの集約性向上で、産業全体はやや圧縮されたと言って良いだろう。
中長期的な視野に立てば、コンピュータ利用が廉価でより簡便化されて大きく進む。
ここまでが現状である。

◆  拡張型仮想マシンの時代へ
しかし、大事なことはもっと先を見ることである。
これまでの多くの努力で、仮想マシンの<ハードウエア強化>、<ソフトウェア強化>、そして<データベース強化>は進んだ。これらを統合すれば、新しい世界が拓ける。
これまで高価で手が出なかったWSも仮想マシンなら簡単に増強が可能だ。HPCだってクラウドで借りればよい。今後はもっと色々なハードウェア機能を提供するサービスプロバイダーが現れるに違いない。ビジネスプロセンスも同様だ。APIを介して、好きなプロ セスを統合できる時代が来る。そして、データベースも一部ではあるが、ソシアル化が加速する。


そろそろ、第一段階は卒業の時期である。
時代はクラウドだからこそ出来る「拡張型仮想マシンの時代へ」に差し掛かっている。その先の自立型仮想マシンの議論も散見されはじめた。第一段階のクラウドは煎じ詰めればROIが全てだったかもしれない。しかし、コミュニティーのデベロッパーや企業で働く多くのエンジニアはその先にある何かを感じ取っていた。だからこそ、多大な努力が積み上げられてきた。これからがクラウドの本領発揮である。

2011年6月2日木曜日

次世代クラウドコンピューティング(3)  
               -クラウド型ユニバーサルDB-    

シリーズ1回目はGPUやHPCなどを仮想マシンに連携する方法、2回目は外部プロセス連携について述べた。今回はクラウド型ユニバーサルデータベースについて話そう。

◆ 連邦政府が始めた情報公開サイト (Data.gov)
Data.govは連邦政府CIOのVivek Kundra氏が就任後、実行した3つ(Apps.gov、Data.gov、 Federal TI Dashboard)のうちの1つだ。目的は連邦政府や州政府などが持つ膨大な情報を多面的に開示して利用してもらうこと。Data.govの構成は、①生データカタログ(Raw Data Catalog)、②分析ツールカタログ(Tool Catalog)、③地域別データカタログ(Geo Data Catalog)からなる。ユーザーとなる市民や団体は、目的のデータをカタログから探し出し、インタラクティブでサーチ/ソート/フィルタリング/アナライズなどを施して、データをグラフ化したり、地図とマッピングして、より直截的に見ることができる。
次にデベロッパー向けの対応では、多様なフォーマットへのデータダウンロードが出来るし、提供されるAPIを使い、システムの一部として組み込むことが可能だ。こうして出来上がったアプリケーションは多くの人に使ってもらうためData.gov上に登録できる。現在、政府内部で作られたものが900個以上、民間が開発したものが200個以上利用可能だ。下図の事例FlyOnTime.usは、旅行者向けの航空機発着情報サイトである。このサイトで利用されているデータには ①運輸統計局のAirline Performance 、②連邦航空局のAirport Conditions、③ 国立海洋大気圏局のHistorical Weather Reports、④ナショナルウェザーサービスのCurrent Weather Conditions、さらに ⑤サイト利用者から飛行場セキュリティーでの所用時間をスマートフォンやtwitterで知らせてもらうAirport Security Line Wait Timesなどがある。

Data.gov には現在40万件近いデータが登録されている。
これには連邦政府の全省庁の172部局からデータが提供され、州では初期のワシントンDCやカリフォルニア州、ユタ州などから段階的に広がり、現在では29 州、都市ではニューヨーク、シカゴ、サンフランシスコ、ボストン、アトランタなど11都市、国際間ではイギリス、ドイツ、カナダ、オーストラリア、 ニュージーランド、ノルウェイーなど16ヵ国、さらに国連が参加各国の協力のもとに集めた総合データサイトundataや、欧州連合のEuropean Environmental Agencyも参加している。参考のために連邦政府の主だったデータは以下のようなものがある。

   • Airline Performance航空)
   •
National Weather Services(気象)
   •
Patent Grant Bibliographic Data特許)
   •
Residential Energy Consumptionエネルギー消費)
   •
Census Data国勢調査)
   •
Toxics Release Inventory有毒排出)
   •
U.S.A. Spending Contracts and Purchases政府購買)
   •
U.S. Geographic Data(地理)
   • Crime in the U.S.犯罪)
   •
Medicare Medicaid Statistical Supplement(医療)
   • Census of Agriculture(農業)
   •
Open Government Datasets(オープンガバメント)など

◆ Windows Azureのデータマーケットプレイス (DataMarket) 
MicrosoftからもWindows AzureのサービスとしてDataMarketが提供されている。
しかし、こちらはパブリックな公開データもあるが、民間企業の持つデータベー スも提供され、それらのくは有償である。DBカテゴリーには ①ビジネス&ファイナンス、② 人口統計、③エンターテイメント&メディア、④ヘルス関連、⑤位置情報サービス、⑥ニュース&イベント、⑦不動産、⑧小売業、⑨気象などがある。ユーザーは必要とするデータベースを探し出し、それをMicrosoft OfficeやPowerPivotに展開して、より効果的に加工処理することが出来る。さらにVisual Studioにダウンロードすれば、C#によるアプリケーションに組み上げたり、Windows Phone 7対応にすることも可能だ。以下はデータの一部である。

   • Axiom InfoBase X-Geo地理)
   •CCH CorpSystem(売上税)  
   • Digital Map地理)
   • Dun & Bradstreet(企業情報)
   • Energy Statistic Database UN国連エネルギー統計)
   •
European Greenhouse Gas Emissions(欧州温室ガス)
   •StockViz(インド金融市場)
   •CCH CorpSystem(売上税)  
   •
Practice Fusion(メディカル)
   •Super MicroCast(気象情報)
   •Zillow(不動産)など

◆ アマゾンのパブリックデータセット (Public Data Sets on AWS)
Amazonの場合は、公に供する詳細なデータベー スを無償で提供している。特に有名なのはヒトゲノム・データベースEnsemblプロジェクトのミラーリングだ。もうひとつバイオ関連では、遺伝子や発現配列標識で有名なUniGeneも提供されている。また、米国勢調査ではCensus 2000など過去の調査も含めた詳細なデータベースが利用できるし、世界最大の無償利用のデータベースFreebaseもある。これらのデータベースは提供側の維持管理もさりながら、膨大なアクセスに耐えるシステム提供が大変だ。研究者やデベロッパーは、これらホスティングデーターベースのスナップショットをAWSに取り込んで利用する。利用可能なDBは以下の通り。

  
 • Freebase Data Dump(オープンDB
   • Human Genomeヒトゲノム)
   •
Census国勢調査)
   •
UniGeneバイオテック)

◆ 飛び立つユニバーサルDB
ここで紹介した3つは、単なるデータベースの公開とは違う。
これらのデータベースはユーザーがインタラクティブで活用したり、デベロッパーのプログラムに組み込むことが前提だ。そのためのダウンロード手順やツール、APIなどが整備されている。Data.govでは連邦や州政府、地方自治体、さらに多様な公益団体の データベースを開放し、Amazonではパブリックドメインのデータベースを手がける。これらを利用すれば、これまでにないアプリケーションが出来上がる。
さらに注目すべきはMicrosoftのDataMarketだ。
民間データベースを有償で提供する試みは素晴らしい。データベースの営利サービスはもとより、一般企業においても社内利用のデータを公共の益に照らし合わせて、積極的に公開する時代が来るだろう。
プログラムのオープンソース化で時代が変わったように、データベースのオープン化は分析業務の性能を格段に向上させる。
こうして、クラウド型データベースはユニバーサルな世界に飛びたった。

2011年5月25日水曜日

次世代クラウドコンピューティング(2)
                   -プロセス拡張型仮想マシン-

前回に続いて、近未来のクラウドについて探っていこう。
第1回はGPUサービスを紹介した。これは実際には高価で物理マシンには実装できない装備をクラウドならではの機能を利用して、ハード機能連携型仮想マシンとしてマッピングさせるものだ。第2回は、ビジネスインテリジェンス(BI)をクラウド提供するサービスについて考えてみよう。

◆ GoodDataのBI Platform as a Service
GoodDataというとAmazonとの関係を思い出す。
2009年夏のAWS Start-Up Challengeで見事大賞を射止めた会社だ。GoodDataはAWSのEC2/ESB/S3上でBIに必要なOLAP(Online Analytical Processing)やDWH(Data Warehouse)機能を提供する。

GoodDataの構造は4階層(上図、左から右へ)となっている。
勿論、1層目(左)は利用するクライアントシステムだ。ここからRESTインターフェースの Cloud API(2層目)でGoodDataと結合する。APIにはGoodDataのプロビジョニングやプロジェクト管理、アカウント等のインフラ、データーコネクション、アナリシスがある。実際のエンジン(3層目)では前処理のETL(抽出-Extract、変換-Translation、保存-Load)、そして、分析やレポーティングが非同期キューによって並行実行される。
つまり前回紹介したAWSで複数インスタンスを扱えるHPC on EC2を利用している。これら連携の全てはRESTインターフェースで指示されたものだ。このような組み上げとは別にバックエンドとして用意されたアプリケーションもある。利用ユーザー企業の多いSalesforce向けにはAppExchangeに登録されたシステムがあり、これを使えばCRMとBIが簡単に連動可能である。またユーザーと担当窓口とのやり取りをフィードバックソリューションとして手がけるMarketMetrixなども用意されている。

◆ 1010dataのDWHクラウドサービ ス
1010dataのDWHクラウドはさらに特化したサービスである。
対応するデータベースは列指向(Column-Oriented DBMS)で、同社が開発したTenbaseを利用する。この列指向のDBとWebベースのBIエンジンの採用により、ユーザーは導入が容易で、より高速化されたBIシステムを手に入れることができる。米国経済はサブプライムローンで大問題を引き起こしたが、1010dataのDWHクラウドは、優良な米不動産担保証券業界で利用が進み、大量データ処理を必要とする支払い履歴やデフォルトリスク分析で活躍、健全な市場形成に役立っている。この流れを反映して、最近では小売業やヘルスケアにも広がりだした。


LogiXMLのXML BIエンジン
LogiXMLの場合はXMLベースのクラウドエンジンが特徴だ。
核となる製品はLogi Info。Logi Infoは同社が用意した各種エレメントを組み合わせて利用するユニーク・エレメンタル・アプローチが採用されている。これによって、ユーザーは自社独自のBIシステムをクラウド上で容易に構築が出来る。レポーティングもまた、クラウド上のLogi Reportを利用し、より効果的なチャート作成が可能だ。ユーザーから見れば、BIシステムを開発するというより、必要なエレメントに情報を与えて、組み合わせれば出来上がりという感じである。システム全体は、クラウド上にあるExcelデータベースとレポーティング/チャート作成ツールだと思えば良い。もちろん、データ抽出にはLogi ETLがあるし、モバイルで利用するLogi Mobileも用意されている。

◆ オープンソース勢の進撃 - Pentaho、JasperSoft
BI分野でのオープンソースの頑張りは見逃せない。
まず、オープンソースを全面に打ち出して市場の評価を受け、そしてクラウドへ突き進むのはPentahoだ。同社はこれまで多くのオープンソース・プロジェクトを統合してきた。デベロッパー重視のコミュニティーを尊重し、その作業結果をコマーシャル製品に反映させる。これがポリシーだ。同社製品には、BIに必要なETL、OLAP、クエリー、レポーティング、分析、データーマイニングなどがあり、それらを統合したBI Suiteがもっとも人気が高い。これらの実績のもとに、2009年3月、BI Suite 3.0をベースとしたPentaho BI Suite Cloud Computing Editionを発表した。これを使えばAmazon EC2上で簡単にBIシステムが構築出来る。同年10月にはWebベースのインタラクティブ・レポーティング・ツールLucidEraも買収。より簡単で、高度なレポーティングも可能となった。

オープンソースBIのもう一方の雄はJasperSoftだ。
同社の強みはレポーティングツールJasperReportと、そのライブラリーである。このツールは瞬く間に世界中に広がり、その後、OLAPを開発、全体がJaspersoft BI Suiteとして整備された。そして、今年3月、同じオープンソースのBitNamiと提携してクラウドに進出した。オープンソースは便利だがインストレーションが難しいと思う人は多 い。特に複数の製品を扱えば、それらの相性を合わせる設定には苦労がいる。BitNamiはこの課題をアプライアンス技術で解決してくれる。Webサーバーやデータベース、言語ランタイムなどをスタック化してライブラリーとして整備し、専用のインストラーでローカルマシンにインストールし たり、仮想マシンイメージなら、クラウド上で実行させることが可能だからだ。こうしてJasperRoport Community EditionがAWSなどのクラウド上に登場した。


◆ 無限に広がる可能性-プロセス拡張型の仮想マシン
BIと言えば、過去は大手ベンダーの独壇場だった。
データベースやデータマート、OLAPなど複雑で高度な分析処理が必要だからだ。
しかし、2007年になって、市場は大きく動いた。同年3月-OracleがHyperionを買収、同10月-SAPがBusiness Objects、そして同11月-IBMがCognosを買収した。
この辺りの事情は<消えるかBI業界> として、以前に書いたものがあるので参照されたい。

その後、クラウドが登場して、状況は再度、変わり始めた。
まず、BI処理の最終段階で必要なレポーティング機能がクラウド化し、次いで、大容量のクラウドストレージが処理できる本格的なデータベースも動き出した。今ではBIでは欠かせない並行計算の分析処理も可能となった。これを通常のSaaSだと単純に片付けるわけにはいかない。利用するユーザー企業からみれば、BIは定型業務ではなく、どの企業も異なる戦略的な分析業務である。その柔軟性を可能にするには、基本の流れだけでなく、自在な拡張機能が必要だ。そのために用意された特別なデーターベースや実行エンジン、さらにはAPIなど、これらを駆使すれば、自社専用のBIシステムを作り上げることが出来る。今日のBIクラウドは、進化したSaaSである。自律型SaaSと言っても良い。ポイントとなる拡張機能は、専用プロセスとして提供される。今後、ユーザーはクラウドならではの連携を活かして、異なるクラウドから幾つかの専用プロセスを組み合わせて作り上げることも可能となるだろう。そして、大事なことは、このプロセス自身も、与えられたパラメータで柔軟に動く構造でなければいけないことだ。

このような傾向はBI分野だけでなく、エンジニアリングや医療、環境などの分野でも見え始めている。もう、機能拡張型の自律した仮想マシンを駆使することも夢ではない。

2011年5月9日月曜日

次世代クラウドコンピューティング(1)  
                 -ハード機能連携型仮想マシン-

クラウドは単なる仮想マシンでは終わらない。
この仮想マシンを機能強化することが出来れば、その先に未来のコンピューティングがある。今回からシリーズで、それを予感させる幾つかの動きを追ってみよう。
第1回は「GPUサービス」について検証しよう。

◆ インターネット+クラウド+新たな利用=フューチャーシステム
このブログでは、クラウドは第2のインターネットだと度々述べてきた。
インターネットが公共性という視点で成功してきたようにクラウドもその延長線上にある。このことが理解されれば、成長に疑いはない。そして、その先に将来の姿が見えてくる。代表的なクラウド用語にIaaS/PaaS/SaaSの領域区分がある。これを便宜上、将来のコンピューティングにあてはめると、現在のインターネットはコミュニケーションのインフラ(IaaS)、クラウドはコンピューティングのためのプラットフォーム(PaaS)となり、そしてSaaSにあたる部分こそが重要で、ここが次世代クラウドを占う鍵となる。


◆ GPUサービスとは何か(NVIDIA Tesla)
北米では既にGPU(Graphic processing Unit)サービスが始まった。
これが将来のSaaS部分の構成要素を予兆させる動きのひとつだ。高性能GPUベンダーには2社(NVIDA、AMD/ATI)があるが、これらを用いたプロバイダーの提供アプローチは異なる。まずNVIDIAのGPUを使ったサービスでは、通常の仮想マシンでは処理出来ない高性能グラフィック処理をクラウドに任せようとする傾向にある
このサービスを最初に手がけたのは、サーバーやストレージのクラスターリングに強みを持つPenguin Computerで、そのサービスはPoD(Penguin on Demand)という。PoDはHPCをリモートからオンデマンドでユーザーに提供するもので、その目玉サービスがGPUサービスだ。PoDでは、ユー ザーはHPCにスケジューラーを介してジョブを投入する。GPUサービスは、このHPCに付帯する専用サーバーであり、実際のところ、4 Core Xeonを2つとNVIDIA Tesla C1060を搭載したLinux機である。ユーザープログラムからはOpenCLCUDAなどでアクセスし、このグラフィク処理専用システムを時間借りする。このような提供タイプを“Hosted Reality Server”と言い、ユーザーはGPUを物理サーバーとして認識することが出来る。PoD同様、HPCとGPUサーバーを組み合わせて提供するカナダのPeer 1で は、このクラウドサービスをHPCC(High Performance Cloud Computing)として、金融機関や自動車設計、科学計算などに提供している。また、テキサス州ヒューストンのNimbixからもGPUサービスを全面に押し出したNACC (Nimbix Accelerated Cloud Computing)が始まった。

HPC on Amazon EC2
Amazonからも昨年7月、 EC2上でのHPCサービスHPC on EC2がスタートした。
この新方式では、他のインスタンスより多くのCPUで構成されるHPC向けインスタンス“Cluster Compute Instances for Amazon EC2”が定義された。正確には、1つのインスタンスでEC2 Compute Unitが33.5台、RAMは23GB、Instance Storageは1690GB、そして10GBのI/Oを持ち、最大8つまで拡張が可能だ。これを使えば、小型から中規模程度のHPCとして利用すること が出来る。このCluster Instanceのひとつに“Cluster GPU Instance”がある。これがGPUサービスだ。このインスタンスは通常のCluster Instanceに2つのNVIDIA Tesla M2050が搭載されたものだと思えばいい。このような専用サーバーではなく、あくまでもインスタンスとして提供するGPUサービスのタイプを“Hosted GPU”という。

◆ AMDとOTOYの目指すGaaS(Game as a Service)
次にAMDの対応を見る前に、 GPU市場を一瞥しよう。
AMDは2006年7月、カナダのATIを買収してこの市場に参入した。数字だけをみれば、これまでIntelがGPU マーケットの約半分、残りをNVIDAが優勢のうちにAMDとシェアしてきた。Intel製はローエンドのPC用、NVIDIAはPCのハイエンド、 AMDはさらに上の上位PCからワークステーションをカバーするという構図だ。しかし、昨年夏あたりから状況が変わり始めた。AMDが数字的にNVIDIAに対してややリードし始め、今年に入ってもその状況が続いている。ポイントは3Dゲームなどの普及で、より高性能なGPUが優位になったことだ。中でも、今年3月始めに出たデュアルGPUのAMD Radeon HD 6990がけん引役となっている。

さて、話を戻そう。
OTOYという会社が2008年、AMDからスピンアウトした。
OTOYを率いるのはJules Urbach氏だ。氏はAMD時代にサーバーサイド・グラフィックスの開発を担当していた。この技術を使えば、PCに高価なGPUを搭載することなく、サーバー側で高速レンダリング処理を行い、それをクライアントに転送して、ブラウザだけで表示することができる。つまり、HTMLだけで、精密なレンダリングが出来、しかも動画として見せることも可能となる。これが出来ればHPCがクラウドにあって、超精密レンダリングを担当し、一般のPCだけでなく、モ バイルなどでも3Dゲームが楽しめる時代がくる。まさにGaaS(Game as a Service)の到来だ。

   
もちろん、このサーバー側にはAMD/ATIの高性能GPUが使われており、AMDはこれを“AMD Fusion Render Cloud”としてCES 2009で発表した。現在、OTOYのホームページには、幾つかのサンプルがあるが、これが実用化されるのが待ち遠しい。
ま た、同社では同様の技術範疇のLightStage技術も完成させている。これはモーションキャプチャーとして、人の微細な表情までも再現できるフェイシャルレンダリングで、映画「アバター」や「スパーダーマン」、日本では「ガイキング」などに使われた技術だ。

◆ 無限に広がる可能性-ハード機能連携型の仮想マシン
今回は将来のクラウドを占うひとつの好例として、GPUクラウドを取り上げた。
これまで価格面から、一般のサーバーには高性能GPUは搭載されず、グラフィックス系
アプリケーションの処理は出来なかった。しかし、クラウドによるGPUサービスの登場で徐々に解禁されつつある。ここでポイントとなるのは、クラウドによって物理マシンから開放され、仮想マシンに処理が移り、さらにそれが別な高性能GPUを搭載した仮想マシンとマッピングされることである。この連携型の仮想マシンを使えば、HPCやGPUを必須とする車や列車、飛行機などの訓練シミュレーションが廉価なシステムとして可能となる。類似の事例には、CAD大手Autodeskが始めたプラスティック製品のモルディング加工シミュレーションがある。これは同社のMoldflowをクラウドで稼動させるプロジェクトだ。AutoCADからもiPhoneやiPadでCAD図面にアクセスするAutoCAD WSが始まった。もう、こうなれば、手元のスマートフォンから、クラウド上で連携する最強のマシンを操ることも可能となるであろう。

2011年4月24日日曜日

登場したクラウド向け総合APポータル
             -OKTA、OneLogin、CloudGate- 

最近のクラウド市場中でOktaの動きは見逃せない。
同社が提供するのはオンプレミスはもちろん、ファイヤーウォールの外にあるSaaSやWebアプリケーションのアクセスマネージメントだ。解りやすく言えば、クラウド時代の総合アプリケーションポータルである。

◆  アクセスマネージメントとは
今日、SaaSやWebアプリとして、CRM、ERP、テレビ会議、人材開発、eメールなど多様なアプリケーションが提供されている。企業にとって、自社独自のミッションクリティカル な業務は別にすると、他のアプリケーションはこれら外部のもの利用する時代となった。
しかし利用するユーザーから見ると、多様なアプリケーションを使い分けるには、正確なアプリのURLやユーザーネーム、パスワードの保持・管理をしなければならず、加えて、既存オンプレミスのアプリもあって煩雑このうえない。一方、IT部門から見れば、どのユーザーにどの外部アプリを使わせるべきなのか、またはどのユーザーが使っているのか、システム全体としてのコンプライアンスは大丈夫か、 ROI(Return On Investment)はどうなるのかなど頭の痛くなる課題が山積する。これらへの解答のひとつがアクセス
マネージメントだ。


◆ How to Use It !
Oktaがどのようになっているのか見てみよう。
まず、初期画面からログオンする。Oktaは Active DirectoryベースのSingle Sign On (SSO)となっているので、一度、ログオンすれば、以降、どのアプリケーションも自由に使うことが可能だ。そしてパーソナライズされたポータル画面(左上)が表示される。SaaSでも、Webアプリでも、オンプレミスでも、実行はワンクリックでOKだ。このためには事前のアプリケーション登録やユーザー別の利用選定などが必要となる。アドミニストレータ向けダッシュボー ド(右上)ではアプリケション管理、ユーザー利用状況、セキュリティーポリシーなどが掌握できる。Oktaは構造的(右図)に、ユーザー認証とユーザー管理機能を持ち、ロギング&レポーティングが付帯している。以下は主な特徴である。

1. Controlling User Access
今日、ユーザーニーズの多様化から、何処でも、どのようなデバイスやブラウザーからでも、アプリへのアクセスを保証しなければならない。このための中央側の仕組みがユーザーアクセス制御だ。

2. Password Fatigue
外部のSaaSやWebアプリは基本的に異なるパスワードを要求する。OktaはこれらにSSOで対応し、さらにセキュリティー向上のために、内部的にコードを生成して定期的に変更する。

3. Collaborative Administration
また外部のクラウドアプリは独自の運用ルールを持っており、その適用は煩わしい。このためIT部門とビジネス部門で情報を共有し、共同管理の仕組みが提供されている。

4. On-Premise Directory Integration
SSOによる外部アプリケーションへの統一アクセスだけでなく、オンプレミスのディレクトリーも統合、これによって、エンドユーザーの作業は大幅に軽減される。

5. Managing Compliance and ROI
そして、最終的なROI(Return On Investment)を確かなものにするために、外部アプリ別利用状況を分析し、契約条件へ反映する。さらに外部アプリ別のコンプライアンスを定期的にチェックする。

◆ OneLoginの試み
さて、この分野で活動しているのはOktaだけではない。
OneLoginもActive DirectoryベースのSSOと、ワンクリックのSaaSポータルを提供している。そして今年3月末からはオープンソースのSAML (Security Assertion Markup Language)のツールキット提供が始まった。これは外部プロバイダーの提供するサインオン機能とポータルのSSOをマッピングするこれまでの受身の方法から、OneLoginがよりセキュアなSSO構築のためのツール (SAML)を提供して、プロバイダーがサインオンの手順を改修する能動的なものである。これによって、プロバイダー毎にバラバラなセキュリティーレベルを同じ基準で引き上げようという作戦だ。


 より総合的なホスティングCloudGate
ManagedMethodの提供するCloudGateはより総合的だ。
そして何よりも、大きな違いはHostingサービスである。受託するセンターはロードバランサー付きクラスターで、監査基準はSAS 70Ⅱ対応だ。またセキュリティーでは、HTTPS対応のCloudGate gatewayや侵入検出-ID(Intrusion Detection)、脆弱性テストなどを備えている。これらによって、委託ユーザー企業は、より高度なセキュリティーと処理拡大に伴う拡張性を保持するこ とが出来る。

-----------------------------
米国クラウド市場の動きは早い。
多くの企業ユーザーは、従来のオンプレミス一辺倒から脱し、パブリッククラウドと併用するハイブリッド化が進んでいる。さらに、従来からエンドユーザー利用が進んで いる外部SaaSやWebアプリケーションも相変わらず活発だ。問題はこれらを安全に効率よく、しかもROIを考えて運営するためにはどうすれば良いのかだ。Oktaソリューションはそのひとつの回答である。このようなアプローチは、2年前、Sunが提唱していたCloud Portalに始まり、連邦政府の始めたクラウドサイトAppsApps関連記事)にも見ることが出来る。Appsでは専用認証システムによるSSOだけでなく、外部プロバイダーとの契約条件や支払い方法なども統一されている。ただ、これは連邦政府(ないしは大企業)だから出来ることだ。一般企業においては、基本機能として、ユーザー向けのアプリケーションメニューとSSO機能の整備、IT部門には社内外全体のアプリケーションを管理する仕組みを作り出すことが急務である。また、 OneLoginの提案するプロバイダーのログインプロセスへの新しい試みも興味深いし、CloudGateのHostingも今後、どの程度伸びるか注目に値するだろう。