2016年8月3日水曜日

AutoTech(9) Google Carの狙い(2)!-   
           - ロボットが車を運転する -

前回と今回の2回に分けて「Google Carの狙い」、つまり、Gogleが今後どう動くのかについて、私見を纏めてみた。あくまでも個人的な意見である。その第1ステップが前回のスマホ成功モデルをカーナビ(英語ではHead Unit、以下HU)市場に持ち込んだAndroid Autoだ。その普及を進めるGoogle主導のアライアンスOAA(Open Automotive Alliance)には殆どのメーカーが名を連ねている。無いのはToyotaとBMWだけだ。BMWとAppleの関係が進んでいることは周知の事実。気になるのはToyotaである。現在、HUの仕様は純正品の場合、自動車メーカーが握り、市販品はHUメーカーが決める。自動車メーカーがAndroid Autoを初期段階の今はともかく、最終的にどう扱うのかが今後のポイントとなる。
=動き出したToyota Research Institute!=
さて今年1月、ToyotaはシリコンバレーにAIに関する先端研究とその商品企画のためのToyota Research Institute(TRI)を開設した。所長には昨年9月、Toyotaがスカウトした元DARPAのロボット工学の権威Gill Pratt氏が就任。氏は2012年から昨年までDARPA Robotics Challengeを推進してきたプログラムマネージャーだ。このプログラムは2005年から始まったオートノマスビークル(Autonomous Vehicle-自動運転車)レースDARPA Grand ChallengeUrban Challengeを引き継いだものである。氏をヘッドとするTRIは、MITやスタンフォードの研究所と連携して、複数のプロジェクトを立ち上げる。勿論、最大のテーマはオートノマスビークル開発だ。Toyotaにとって、オートノマスビークルとOAAの関係は無縁ではないだろう。だからこそ、Toyotaはアライアンスへの参加に慎重なのだ。GoogleはAndroid AutoでHUのスマホ化を目指し、その先ではオートノマスビークルでも市場をリードしたい。片やあくまでも自動車会社が主導権を持ちたいToyota。戦いの2幕は既に始まっている。
=近未来のHU(カーナビ)とは!=
Google I/O 2016では新Android Autoを搭載した展示車があった。
Maserati Ghibliだ。これにはセンターコンソールとなる15inの4K対応タッチスクリーンが縦型に置かれている。ステアリングの向こうにはデジタル表示のインスツルメントパネル(インパネ)があり縦型センターコンソールと連動する。この縦型画面は上下に2区分して使うことも可能だ。搭載OSはAndroidの次期リリースAndroid NTesla Model Sをご存知の人は、2つの車がデザイン的にそっくりなことを知っている。Tesla人気の礎となった初代のTesla Roadsterがあの名車Lotus Eliseのボディーを使っていたように、このModel SはMaseratiがモデルだ。そして、Model Sのコックピットを覗けば、センターコンソール用の縦型で大型の17inディスプレイが目に飛び込んでくる。次世代HUではこちらが本家だ。Googleが展示したMaseratiのデモ版は、この模倣だが、これぞまさしくGoogleが考える近未来のHU-Digital Infotainment-である。実際のところ、Tesla Sで使っている地図はGoogle Mapsを共同で適用したものだ。
関連記事 :スマホ化する車(Telematicsの世界)

Maserati Ghibli (L)              Tesla Model S (R)   
Google's Demo Maserati Ghibli
Tesla Model S

=次世代HU、NVIDIAとQualcommの戦い!=
Google戦略の第2ステップがこのデジタルインフォテイメントである。
Android Autoが一般化すれば、次にGoogleはこれまでのカーナビ(HU)からタッチスクリーンでよりインテリジェンスのある次世代HUに誘導するだろう。各種のメータ類が並ぶインパネは既にかなりデジタル化されている。次世代HUでは、このデジタルインパネと連動するだけでなく、ステアリングやエアコン、オーディオ周りの各種操作ボタンなどがセンターコンソールの大型タッチスクリーンに統合される。このHUのエンジンを支えるのはNVIDIAとQualcommだ。前述のように、この分野の先輩格はTesla Model S。そのセンターコンソールのOSはLinux。そしてCPUはNVIDIAのTegra 3。メータークラスターにはTegra 2が搭載されている。一方、Googleのデモ車のインパネには720pのNVIDIA Digital Instrument ClusterセンターコンソールにはQualcommSnapdragon Automotive Processor 820が乗っている。OSは前述の通り、Android Nだ。こうしてみると、センターコンソールは第2ステップの狙いであったデジタルインフォテイメントからさらに進化しドライバーが操作する全てを統合した中央制御装置に見えてくる。
=HUがロボットドライバーになる!=
ここまで次世代HU(カーナビ)の進化を推測してきた。
いよいよ第3ステップだ。Googleの開発している自動運転ソフトウェアはChauffeurという。英語では「お抱え運転手」という意味である。まさにロボットソフトだ。筆者はGoogleがパワーアップした次世代HU上でこのChauffeurを動かすのではないかと考えている。もうひとつ大事な要素がある。クラウド上で動くAIエンジンだ。Google Carではクラウド上でAI処理した結果データをダウンロードして車を走らせる。これには現在2つ見えている。ひとつはGoogleが開発したものだ。GoogleはAlphaGo使用しているDeep LearningライブラリーTnesor Flowを昨年オープンソースとして公開し、今年5月のGoogle I/Oで既報のようにこのライブラリー向け専用AIプロセッサーTPU(Tensor Processing Unit)を発表した。もうひとつはNVIDIAが発表したNVIDIA DGX-1だ。これには8基のメモリーとストレージ内臓のGPUアクセラレータNVIDIA Tesla P100が搭載され、AIシステム開発のツールも用意されている。 (関連記事:データセンターOSは普及するか

Chauffeurの稼働するHUには、LiDARやレーダー、カメラ、GPSなど、さらにステアリング、アクセル、ブレーキのデジタルインターフェースが接続される。 勿論、インターネットは常時接続。そして、クラウドからは運転に必要なAI処理情報をダウンロードしたり、さらに運転結果などをアップロードする。後は人間が指示すれば、Google Chauffeurがロボットになって車が動き出す。