ニュース
【GTCJ2015】Cd値0.19のメルセデス・ベンツ「コンセプトIAA」の設計やアウディの自動運転でNVIDIA製GPUの利用が進む
ZMPはNVIDIA製GPUを搭載ロボットタクシーを東京オリンピックで運用へ
(2015/9/20 09:00)
- 2015年9月18日開催
半導体メーカーのNVIDIAは、同社のソリューションを同社製品の開発者などに説明するGTC(Gpu Technology Conference)を毎年3月頃にサンノゼで行っているが、9月18日にはその日本版となるGTC Japanが、東京港区の虎ノ門ヒルズにおいて開催された。
その基調講演には、NVIDIA ソリューションアーキテクチャエンジニアリング担当副社長 マーク・ハミルトン氏が登壇し、同社がここ最近強力にプッシュしているGPUを利用したディープラーニングのソリューションになどについての説明を行った。
この中でNVIDIAは、ディープラーニング関連のソフトウェアソリューションで注目を集めているPreferred Networksと、産業用アプリケーションに向けたディープラーニング技術の開発および発展で、技術提携関係を確立することを明らかにした。この他東工大のスーパーコンピュータTSUBAME 2.5を利用したVDIのデモ、自動運転用のモジュールやソフトウェアを開発しているZMPの発表など、多数の注目の発表が行われた。
東工大のTSUBAMEでのVDIのデモや、GRID 2.0などが訴求される
ハミルトン氏は冒頭に「NVIDIAはゲーミングによって知られている会社だったが、現在ではエンタープライズ、HPC、クラウド、自動車など多彩なソリューションを提供するようになっている」と話し、NVIDIAがPCの世界でのゲーミング向けソリューションを提供する会社から、エンタープライズやHPCなどのよりプロフェッショナル向けのソリューションも提供する会社になっていくとの考えを述べた。
そうしたNVIDIAが躍進したきっかけが、NVIDIAが2007~2008年頃から取り組みを開始したCUDA(クーダ)だ。それまでのGPUは、PCやゲームコンソールなどで利用されている3Dグラフィックス描画するためのチップとして利用されていたのだが、NVIDIAがCUDAを導入して以降、GPUを汎用演算に使うといういわゆるGPGPUやGPUコンピューティングという使われ方が一般化したのだ。特にGPUは、行列演算や並列演算が得意でCPUよりも高い処理能力で、かつ低い消費電力で演算できるため急速に科学演算などに利用が進んでいるのだ。
ハミルトン氏は、そのNVIDIAのGPUコンピューティングの飛躍を「2008年にはCUDAの開発キットは15万ダウンロードで、6000個の対応GPUという状況だった。しかし、現在では開発キットは300万のダウンロード、対応GPUは45万個も出荷されている」と表現し、CUDAによりGPUの利用用途は大きく広がったのだとアピールした。また、そうした汎用演算以外にも、NVIDIA GRIDと同社が呼んでいるクラウドベースのGPUソリューションを利用した写真品質のレンダリングによるモデリングや様々なシミュレーションデータの可視化などについて言及した。
そのGRIDの具体的な例として、NVIDIAのGPUが多数利用されて構成されている東京工業大学(以下東工大)のスーパーコンピュータであるTSUBAMEにおけるVDI(Virtual Desktop Infrastructure、クラウドベースの仮想デスクトップ)について、東京工業大学 学術国際情報センター 副センター長 GPUコンピューティング研究会 主査 共同利用推進室 室長 青木尊之教授が説明した。
青木教授は「多くのユーザーにスーパーコンピュータを利用して欲しいと考えているが、そこには大きな課題がある。スーパーコンピュータでは大量の演算を行うので、その出力は大きければ数10TBに達して、ダウンロードするだけで数時間~数日かかってしまう。そこでデータのダウンサイジングをするが、そうすると結果の信頼性が下がってしまう。そこで、VDIを利用すれば、データは常にスーパーコンピュータの中だけにあるので、大量のデータをダウンロードする必要も無く、さらにデータを外に持ち出す必要もないためセキュリティが向上する」と述べ、実際に東工大のTSUBAMEにVDIの仕組みを導入していて実証実験を行っていると説明した。
青木教授によれば、TSUBAMEの4200個のGPUに直結されているラスターという高速なディスクに、NVIDIAのGRID K2というVDI用のGPUとHPのサーバーが接続される形になっており、インターネットを経由して、PCやタブレット、果てはスマートフォンであっても接続してスーパーコンピュータに処理を行わせることができるようになっているとのこと。実際、靑木教授が行ったデモでは、VDIのWindows PC(仮想マシンとしてGRID K2上で動いている仮想PCのこと)から、1.44PB(ペタはテラの1000倍)という、PC環境ではあり得ない容量のストレージに接続している様子や、物理シミュレーションなどをTSUBAME上で行い、その結果のグラフだけをローカルにコピーしてという使い方などが紹介された。青木教授は「現在のTSUBAME 2.5では単精度で17PFLOPS、倍精度で5.7PFLOPSを実現している。これから取り組みが始まるTSUBAME 3.0では倍精度で20PFLOPS以上、単精度では40PFLOPSを実現していきたい」と述べ、さらにTSUBAMEを強化し、そこにVDIを組み合わせることで、ユーザーがより利用しやすい環境を作っていきたいと説明した。
その後、ハミルトン氏は、2週間前にサンフランシスコで行われたVMwareのvForumに併せて発表されたGRID 2.0について触れ、「NVIDIAのGRIDではクライアントソフトウェアは何も変わらず、NVIDIAのGPUとドライバレベルで100%の互換性がある。NVIDIAではビジネスユーザー、エンジニア、デザイナーなど幅広いユーザーに提供していきたい」と述べ、GRID 2.0ではGPUがMaxwellになったことなどによりより高い描画性能などを活用できるようになったことなどがアピールされた。
ディープラーニングのフレームワーク「Chainer」の開発元Preferred Networksと提携を発表
ついで、ハミルトン氏は今回のGTC-Japanで最大のテーマとなっているディープラーニングについて話題を移した。ハミルトン氏は「ディープラーニングが今注目を集めているのは、現在では企業や大学に多大なデータというビッグデータが手元にあり、それを活用できる新しいアルゴリズムが登場しつつ、それにGPUアクセラレーションを組み合わせることで、学習にかかる時間を短縮することができるからだ」と述べ、ビッグデータ、ディープラーニングの新しい手法、そしてそれを演算性能で支えるGPUという3つの要素が組み合わさったことで、現在大きな注目を集める存在になっていると指摘した。
その上で、NVIDIAが提供するディープラーニングのソリューションについて触れ、cuDNN、DIGITSツールなどのツールなどについて紹介し、NVIDIAがCUDAを利用したディープラーニングの入門編ツールと位置づけているDIGITS 2のデモが行われた。壇上に呼ばれたのはNVIDIA CUDAエンジニアの村上真奈氏で、村上氏がDIGITS 2で使うデータを選択して、ラジオボタンを押していくだけで、簡単に画像認識のディープラーニングの体験ができる様子などをデモした。
また、DIGITSの最新版であるDIGITS 2は、マルチGPUに対応していることが最大の特徴となるため、マルチGPUで演算する様子などもデモされた。実際に、Webブラウザで検索した車がどのような車種であるかをディープラーニングで学習したデータを元に推定するデモでは、スポーツカーの確立が99.83%だという結果が示された。
そうしたNVIDIAのツールでもサポートされているディープラーニングのフレームワーク(ニューラルネットワークを構築するためのアルゴリズムを構築するためのプログラミングツールのようなもの)として、CaffeやTheanoなどがよく知られているが、ここ最近では日本発の新しいフレームワークが注目を集めている。それがChainer(チェイナー)で、それをオープンソースとして公開したのだがPreferred Networksだ。今回の基調講演では、そのPreferred NetworksとNVIDIAが協業し、技術提携を行っていくことが発表された。
壇上ではPreferred Networks 代表取締役社長 西川徹氏による、同社のディープラーニングに関する戦略が説明された。西川氏によれば、Preferred Networksは昨年創業されたばかりの企業で、ディープラーニングに対応したソリューションを提供する企業だという。西川氏は「機械が生成するデータは非常に膨大な量になる。それをクラウドに集めて処理するのではネットワークがボトルネックになってしまう。そこで、我々は自立分散的なディープラーニングが重要になると考えており、ロボットが複数ある場合にはロボットの情報をクラウドに集めるのではなくて、ロボット自体がデータを解析するなどの手法を用いる」と述べ、同社が推進しているChainerを利用することで、CUDAを利用してより効率よくディープラーニングを実行することができるとアピールした。
西川氏は「時系列に扱うフレームワークが他になかったので自分たちで作ってみたらよいモノができたので、オープンソースとして公開した。現在は国内外から多くの反響を頂いており、今後もコミュニティと協力しつつ成長させていきたい」と述べ、NVIDIAをはじめとしたパートナーとChainerの普及に力を入れていきたいとした。
自動車でのGPUへのニーズは今後も高まるばかりとシャピーロ氏
ここで、ハミルトン氏に代わるスピーカーとしてNVIDIA 自動車担当シニアディレクター ダニー・シャピーロ氏が登壇し、NVIDIAの自動車関連のソリューションを説明した。シャピーロ氏は「すでに世界中の道路で20以上のブランドの100以上のモデルで、800万台以上のNVIDIAの半導体を搭載した自動車が走っている。さらにシリコンバレーには、世界中の自動車メーカー、ティア1のパーツメーカーが研究所を設置しており、すでにシリコンバレーと自動車産業は切っても切れない関係になりつつある」と述べ、NVIDIAの自動車事業への取り組みが成功裏に進んでいることを強調した。
シャピーロ氏は「GPUはこれまでも、自動車メーカーがデザインする時に貢献してきた。ビデオはメルセデスがデザインしたコンセプトカーで、GPUを利用して写真品質でデザインすることで非常に短い期間で作成することができた」と述べ、GPUを利用した写真品質のレンダリングが、自動車のデザインの発展に大きな影響を与えていると説明した。同時にシャピーロ氏は、ホンダがGPUを利用して行っている衝突試験のシミュレーションの映像も公開し、衝突試験もGPUでシミュレーションを行うことで低コストに安全性を高めることができるとアピールした。
また、テスラやアウディのインパネを紹介し、「テスラやアウディが非常にイノベーティブな製品を公開している。車のインパネというよりは、もはやコンピュータやタブレットみたいなモノだと言ってよい。例えば新しい運転モードがソフトウェアにより追加されることが今後は自動車でも可能になる」と述べ、NVIDIAがSoftware Difined Car(ソフトウェアにより機能が追加可能な車)と呼んでいるコンセプトを紹介した。シャピーロ氏がスライドで紹介したテスラやアウディのインパネは同社のTegraシリーズで実現されており、ドライバーの気分で表示の配置を変更することが可能だ。シャピーロ氏は「今後自動車の車内にはもっとディスプレイが設置され、さらにGPUの処理能力が必要になるだろう」と述べ、今後車載の半導体でのGPUへのニーズが高まるだろうという認識を明らかにした。
ZMPがNVIDIAのGPUを搭載したロボットタクシーを東京オリンピックで3000台走らせると表明
次にシャピーロ氏はここ最近の自動車メーカーの関心事であるADAS(先進運転支援システム)について説明した。シャピーロ氏は「現在のADASはそれぞれのセンサー毎に専用のASICやFPGA、CPUなどが処理を行っている。それが次世代のADASでは、ディープラーニングを利用したニューラルネットワークが搭載され、自動車自身が周りの状況がどうなっているのかを判断して危険を避けたりする」と述べ、次世代の自動車ではディープラーニングの技術が必須になるとした。
シャピーロ氏はその具体的なアーキテクチャとして、データセンターにあるスーパーコンピュータでディープラーニングを行い、その学習済みのニューラルネットのモデルを自動車にダウンロードして利用し、自動車からはカメラで撮影した対象物のうち正しく認識されなかったモノをスーパーコンピュータにフィードバックする……という循環モデルが示され、それを循環して回していくことでさらに精度を高めるという仕組みを説明した。これにより、自動車そのものにスーパーコンピュータそのものを搭載しなくても、ディープラーニングの成果が利用できるとした。
それでも、車載のコンピュータにも、カメラから入力された対象物を判定するそれなりに高い演算性能を持つGPUなどが必要になるが、NVIDIAはそのソリューションとしてDRIVE PXを提供していると、シャピーロ氏は説明した。DRIVE PXは、NVIDIAが1月のInternational CESで発表したTegra X1が複数搭載されており、12個のカメラ入力映像をGPUで処理することができる。シャピーロ氏は「このDRIVE PXを利用することで、自動車自身が他の車が来た、前に止まっているクルマのドアがあいたということを認識する」と述べ、自動車がDRIVE PXにより"眼"を持つようになるのだと説明した。
その上で、ゲストとしてZMP 代表取締役社長 谷口恒氏を紹介し、DRIVE PXを利用して構築されているZMPのRoboCarシリーズを紹介した。ZMPは2001年に設立されたロボット技術を開発する企業で、谷口氏によれば鉱山・建設機械、農業機械などのロボット化や、自動車の自動運転、さらにはソニーモバイルとジョイントベンチャーで行っているドローンを開発する企業エアロセンス(http://car.watch.impress.co.jp/docs/news/20150825_717827.html)などを事業として行っているという。
谷口氏は「昨年から国からドライバーが運転席に座っていつでも操作できる状態にあれば自動運転車が公道を走ってもよいという許可がでたことで、自動運転技術の実用化に向けた取り組みは進んでいる。ZMPも、ソニーのCMOSカメラ、NVIDIAのDRIVE PXを採用したRoboVisionというステレオカメラを開発している」と述べ、NVIDIAと協力して自動運転技術の開発を進めていきたいとした。さらに谷口氏は「DeNAと合弁会社とロボットタクシーの構想を進めており、2020年の東京オリンピックで3000台走らせることを目標にしている、ここにもNVIDIAの技術を採用する予定だ」と述べ、同社が推進するロボットが運転するタクシーの構想にもNVIDIAのGPUを採用する予定だと明らかにした。
その後シャピーロ氏は、NVIDIAがアウディと開発しているモジュール「zFAS」を紹介し、zFASを利用することで渋滞内でのコントロールなどが可能になり、その後高速道路での自動運転、将来的には街中での自動運転とソフトウェアをアップデートさせていくことで対応することができるようになるだろうというビジョンを示した。また、「従来の自動車産業ではOEMとしての自動車メーカー、ティア1と呼ばれる主要なパーツメーカー、そして半導体メーカーという構造だった。しかし、自動運転に関してはその3者が協力して開発する体制に変わりつつある」と述べ、半導体メーカーも積極的に自動車メーカーやティア1のパーツメーカーと協力して自動運転を実現していきたいとした。
NVIDIAとIBMが共同してスーパーコンピュータの利用を推進する研究センターを開設
講演の最後にハミルトン氏が再び登壇し、同社のGPUのロードマップに関して説明した。同社のロードマップは今年3月にサンノゼで行われたGTCで公開されたもので、今回のロードマップも基本的には変更はない。来年、Pascal(パスカル)を投入し、その先にVolta(ヴォルタ)と呼ばれる次々世代が計画されている。ハミルトン氏は「Pascalはユニークな製品で、ディープラーニングに必要とされている半精度(FP16)のサポート、3Dスタッキングメモリの採用による広帯域なメモリ、さらにPowerプロセッサとダイレクトに接続されるNVLink、CPUとGPUが同じメモリ空間をシェアするユニファイドメモリなどにより高い性能を持っている」と述べ、NVIDIAが開発中のPascalをアピールした。
また、ハミルトン氏は同社がIBMと共同で行っている“CORAL”というスーパーコンピュータのプロジェクトについて触れ、IBMが開発しているPowerプロセッサと、NVIDIAが次々世代として開発しているVoltaの組み合わせ、100-300PFLOPSを実現するプロジェクトになると説明した。
その上でIBMからのスピーカーとして、日本アイ・ビー・エム ハイエンド・システム事業部 理事 浅海孝氏を壇上によび、IBMとNVIDIAが共同で日本に「データセントリック推進センター」と呼ばれる研究所を設立することを発表した。浅海氏は「IBMとNVIDIAが連携し、汎用サーバー技術をそのまま利用することで低コストでハイパフォーマンスなスーパーコンピュータを作ることができる。日本に研究センターを作ることで、日本が抱える社会的な問題をビッグデータを利用した解決したり、日本発のイノベーションを産官学一体になって提案していきたい」と述べ、「スーパーコンピュータにより社会の課題を解決したり、様々なイノベーションを生み出していきたい」と意気込みを語った。