GTC 2016
NVIDIA ジェンスン・フアンCEOが、AI開発を加速する世界初のディープラーニング用スパコン「DGX-1」発表
自動運転車レース「ロボレース」に自動運転モジュール「DRIVE PX2」採用
(2016/4/6 20:56)
- 2016年4月4日~7日(現地時間) 開催
- San Jose McEnery Convention Center
半導体メーカーのNVIDIAは、4月4日~7日(現地時間、以下同)の4日間に渡り、アメリカ合衆国カリフォルニア州サンノゼ市のSan Jose McEnery Convention CenterにおいてGPUソフトウェア開発者向けの会議「GPU Technology Conference 2016」(以下、GTC 2016)を開催している。
その2日目となる4月5日、NVIDIA 社長兼CEO ジェンスン・フアン氏の基調講演(キーノート)が行なわれた。3000人ほどが入るというホールに入りきれない人が出るほどの注目が集まり、2016年のプレゼンテーションが始まった。
オープニングのビデオは、CERNのヒッグス粒子から始まり、ディープラーニング(深層学習)技術を使用したマイクロソフトの研究や、Baidu(百度)の音声認識、WEPodsの自動運転車の映像が流れる。オープニング映像の最後は、技術タームであるディープラーニングを日本で一般的なものにしたともいえるGoogle DeepMindのAI「AlphaGo(アルファ碁)」が飾り、GPUによる高度な演算能力ゆえに実現できた技術的成果が印象的に紹介された。
それらの映像が流れた後、ジェンスン・フアンCEOが登場。基調講演に訪れた参加者に向かってGTCのイベントとしての成長を紹介した後、最初の発表を開始した。
GPUソフトウェア開発者向け会議らしくSDKから発表
フアンCEOは、2016年のGTCでは5つの分野について発表することがあるのだという。最初に発表された分野はSDK(Software Development Kit)。NVIDIAが市場に投入している各種製品をよりよく使うためのソフトウェアツール群になる。
NVIDIAの製品群の特徴は、車載SoC(System On a Chip)である「Tegra」から、コンシューマPC向けグラフィックスカード「GeForce」、ハイエンドGPUを搭載する「Tesla」まで、すべて同じアーキテクチャで提供されていることにある。これにより、高性能なTeslaの開発環境で開発したソフトウェアが、車載SoCであるTegraで動作可能というスケーラビリティを持つ。これがNVIDIAの製品の強みになっており、その強みを開発者が享受できるのがSDKになる。
SDKとして発表されたのは、ゲーム開発者向けの「GAMEWORKS」、高品質な静止画ソフト開発者向けの「DESIGNWORKS」、近年盛り上がりを見せるHMD(ヘッドマウントディスプレイ)コンテンツ開発者向けの「VRWORKS」、高性能計算ソフト開発者向けの「COMPUTEWORKS」、自動運転車開発者向けの「DRIVEWORKS」。このうち、ディープラーニングを使った自動運転車を開発するためには、COMPUTEWORKSに含まれるCuDNN 5やDRIVEWORKSの各種機能が必要になる。
GAMEWORKS、DESIGNWORKS、VRWORKSのSDKに関しては、すでに無償で提供済みとなっていたが、COMPUTEWORKSに含まれるCUDA 8は6月、CuDNN 5は4月、nvGRAPHは6月となっていたほか、DRIVEWORKSについては正式リリースを2017年の第1四半期とし、現在新しいアルゴリズムなどの作り込みを行なっているとした。
新規のハードウェアの性能を引き出すためには、それに対応したSDKが必要となる。DRIVEWORKSでは1月のCESで発表した自動運転車開発ユニット「DRIVE PX2」の機能を活かしきるために時間がかかっていると推測される。ただ、SDKには複数のセンサーを活かす機能、高品質な地図などが含まれるとしており、誰もが一定レベルの自動運転車を開発できる時代が来るものと思われる。
これまでは、ノウハウのある会社が自動運転車の開発で先行できたが、DRIVEWORKSの提供で周辺環境開発の底上げがされると、純粋にAIのアルゴリズムなど本質的な部分での競争が始まる可能性があり(それがSDKの役割なのだが)、より多くの企業が自動運転車開発に参入してくるだろう。
また、フアンCEOは開発環境であるJetson向けの「JETPACK」も発表。こちらでも画像認識開発は可能で、当初はこちらが自動運転車開発向けとされていたが、GTC 2016では位置づけを変更。ドローンやロボット向けの自律動作開発環境となり、GPUを推論のためのエンジンとして位置づけるGIEを5月に提供するという。ドローン市場の高まりにより、リッチな機能を持つ車載SoCとして市場開拓に成功したTegraが、高性能IoT向けのSoCとして新たな市場に向かうことになる。自動運転開発モジュールであるDRIVE PX2が、とにかく計算力が必要ということで250Wの消費電力となったが、ドローンや自律ロボットはより消費電力に厳しい市場になる。フアンCEOは、Jetsonの性能を24イメージ/s/Wとし、1Wあたりの効率の高さを強調していた。
AI開発のため世界初のディープラーニング用スパコン「DGX-1」を用意
基調講演はその後、アップルの共同創設者であるスティーブ・ウォズニアック氏が登場するVRパートになるのだが、自動運転を実現する機能としての注目は次のディープラーニングパートになる。
ここでNVIDIAは、Pascalアーキテクチャを採用した新GPUとなる「Tesla P100」を発表。半導体チップの製造はTSMCの16nm FinFETを使用し、HBM2でメモリを接続。NVIDIA独自の高速インターフェースNVLinkもサポートし、ディープラーニングで使われるFP16での性能は21.2TFLOPSになる。
さらに、このTesla P100を8基搭載し、FP16性能で170TFLOPSの演算性能を持つ世界初のディープラーニング用スーパーコンピュータ「DGX-1」も発表した。このDGX-1は、CPUに16コアのIntel Xeon E5-2698 v3 2.3GHzを搭載。8基のTesla P100は高速インターフェースNVLinkで接続され、それぞれ16GBのメモリを使用。システムとしてのメモリは512GB搭載し、ストレージは1.92TBのSSDを4基搭載しRAID 0運用する。
ディープラーニング用スーパーコンピュータというだけあり、システム構成から画像データ処理などの高速性を狙ったものと推測され、単にデュアルXeonを搭載する3TFLOPSのサーバーPCと比べて、とくにディープラーニングの教育性能、言い換えるとAIの教育性能が高速となっている。その速度は、AlexNetの場合で、3TFLOPSのサーバーPCが150時間(6.25日)かかるところを2時間で処理できる。もし3TFLOPSのサーバーPCが2時間で同様の処理を行なおうと思った場合、250ノード必要なのに対し、1台ですませられるという。
自動運転に代表されるAI開発はどれだけ計算力があっても足りない状況にあり、世界初のディープラーニング用スパコン「DGX-1」はそのニーズに応えるものとなる。価格は12万9000ドルで、米国において6月から、そのほかの地域については第3四半期から利用可能になるという。価格は日本円にして1400万円ほど(1ドル=110円換算)のため、AIのトレーニング時間やその際にかかる人件費を考えると企業や研究機関によっては購入可能な範囲だろう。問題は、米国とそのほかの地域の利用開始時期が異なることで、開発にしのぎを削る企業にとってはスーパーコンピュータは時間を買う製品だけに、そこがポイントになってくるかもしれない。
基調講演の最後は、CESで発表したPascal GPU搭載の自動運転車開発モジュールDRIVE PX2を紹介。ディープラーニング用スパコン「DGX-1」でAI教育を行ない、DRIVE PX2で実車に搭載して走行。そして再度教育、再度実走というワークフローを提示。NVIDIAであれば、デジタルコクピットやIVI、ADAS、自動運転など、すべて同じアーキテクチャの製品で開発できると強調した。
そして、すでに話題となっている自動運転車によるレース「ロボレース(ROBORACE)」の車両にNVIDIAのDRIVE PX2が搭載されることを発表。ロボレースは電気自動車によるフォーミュラレース「フォーミュラ E」と2016/2017シーズンから同時に開催されることが発表されている。そのロボレースの頭脳としてDRIVE PX2が使用され、各レーシングチームはDRIVE PX2のAI能力を競っていくことになる。世界中の豊かな才能を持つ人たちが、DRIVE PX2のAI能力を磨き上げるイベントが年内に始まるわけだ。
自動車レースが自動車の進化を加速させてきたように、ロボレースが自動運転車の能力を一気に引き上げるかもしれない。そんな未来を示唆して、フアンCEOの基調講演は終了した。