ニュース

【GTC Japan 2016】AI自律運転の開発を加速させる次世代SoC「Xavier」や新OS「DRIVEWORKS ALPHA 1」などを基調講演で解説

NVIDIAの自律運転プロトタイプ「BB8」がディープラーニングで成長する様子なども紹介

2016年10月5日 開催

NVIDIA 社長兼CEO ジェンスン・フアン氏

 半導体メーカーはNVIDIAは10月5日、東京 お台場にあるヒルトン東京ベイでGPU テクノロジー関係者が集まるプライベートイベント「GTC Japan 2016」を開催した。

 GTC(元々はGPU Technology Conferenceの略だったが、現在はGTCとだけ呼ばれることが多い)は、米国のサンノゼで春に開催される本イベントのほか、夏から秋にかけて日本を含むグローバル地域でローカルイベントとしても開催されている。

 今回のGTC Japan 2016は中国、欧州に次ぐイベントとして開催されており、4月に米国で開催された「GTC 2016」と同じように、同社が盛んにアピールしているGPUとディープラーニングの仕組みを活用したAI(人工知能)がメインテーマとなっている。

 このなかでNVIDIAは、同社がAIを利用した「自律運転」(日本政府や米国 運輸省 道路交通安全局が定める自動運転のレベル4)に必要なコンピューティングボードとして提案している「DRIVE PX2」、そのOSとなる「DRIVEWORKS ALPHA 1」などのソフトウェアソリューション、さらにはTegra SoCの現行製品として先日概要が発表された開発コードネーム「Parker」(パーカー)の後継製品となる「Xavier」(エグゼビア)などに関する説明を行なった。

「PCの時代、モバイル・クラウドの時代を経て、これからAIとIoTの時代になる」とフアン氏

「PC/インターネットの時代」「モバイル/クラウドの時代」から「AI/IoTの時代」になりつつある

 基調講演に登壇したのは、NVIDIAの共同創始者で社長兼CEOのジェンスン・フアン氏。フアン氏は「1995年にWindows 95がリリースされ、NetscapeのようなWebブラウザなどが登場したPC/インターネットの時代が来た。そしてその10年後に、iPhoneやAmazon AWSのようなモバイル機器やサービスが登場して、モバイル/クラウドの時代になった。そして現代は、ディープラーニングの登場によりAIそしてIoTの時代へと入ろうとしている」と述べ、コンピューティングのモデルが転換点を迎えていると指摘した。

 さらにフアン氏は「すでにAIの時代に突入しており、“コンピューターが知能を持つ”。これが今回のGTCの最重要トピックだ。こうしたAIが利用可能になったのは、我々が『CUDA』として提供してきたGPUコンピューティングを利用すると、ディープラーニングの学習や推論などが従来のCPUなどとは比較にならないぐらい高速にできるようになったからだ。実際、GPUを利用したDNN(ディープニューラルネットワーク)は人間を越える精度の画像認識を可能にしており、今年に入ってからはマイクロソフトがDNNを利用した音声認識で6.6%のエラー率を実現するなど、AIが実用化される環境が整ってきたと言える」と述べ、同社が提供するCUDAをベースにしたGPUコンピューティングにより、ディープラーニングを利用するAIが実用段階に来ていると強調した。

GPUコンピューティングがディープラーニングを加速している
DNNが画像認識や音声認識を飛躍的に向上させている

 また、フアン氏は「NVIDIAは、GPUコンピューティング、ビジュアルコンピューティングといったこれまでの柱に加えて、AIがもう1つの柱になった。もうAIはSFの世界だけでなく、アイアンマンの映画のようなシーンが現在の技術でも実現可能になりつつある」と述べ、AIはすでにSFの世界だけでなく現実的な技術として利用できると強調した。

 フアン氏によれば、世界各地で今年行なわれているGTCでは2015年と比べて参加者が4倍(開催国の数自体が増えているのでその分は考慮に入れる必要はある)に増え、とくにディープラーニングやAI関連の開発者が増加していると説明した。

GTCではGPUディープラーニング開発者の参加人数が増えている

AI/ディープラーニングのソリューションを「E2E」で提供できるのがNVIDIAの強み

なぜ研究者はGPUをディープラーニングに使うのか

 フアン氏は、AIを開発する研究者がGPUでディープラーニングを行なう理由について「言ってみれば、人間の脳はGPUのようなものだからだ。並列実行が可能なGPUは人間の脳と同じような構造で動くことができる」と述べ、GPUを利用した汎用コンピューティング(GPUコンピューティングやGPGPUなどと呼ばれる)とディープラーニングを利用してAIのソフトウェアを作ることで、従来はコンピュータの動作をすべてソフトウェア開発者が規定していたのに対して、AIではコンピュータが自律的に学習しながら“成長”していくので、より短時間で製品開発ができることなどをメリットとして挙げた。

脳はGPUであり、GPUは脳である
AIは学習しながら成長していくコンピュータ
GPUにより処理しなければならないデータ量は増えている
このように循環型のコンピューティングモデルになる

 ディープラーニングを活用したAIについては「まず、ディープラーニングのアーキテクチャを決めてトレーニングを行ない、そしてそれを推論してデバイスに展開する。さらにデバイスからのトレーニングのデータがさらにフィードバックされるというスパイラルでAIはどんどん進化していく。こうした仕組みは“ムーアの法則”よりも速く進んでいくと思う。なぜなら数十億のデバイスがトレーニングに参加するからだ」と述べ、AIの技術的な進化が、これまでのITテクノロジーよりもさらに速く進んでいくだろうという認識を示した。

 フアン氏は「NVIDIAはこうしたディープラーニングの仕組みを、エンドツーエンド(E2E、始めから終わりまで)で提供していく。学習用のGPU、推論用のGPU、そしてIoT機器用の半導体のすべてを提供できるベンダはNVIDIAだけだ」と述べ、NVIDIAがディープラーニングを利用するAIの開発で、ほかの半導体メーカーに先行していることを強調した。

 とくにディープラーニングの学習と推論に利用されるGPUに関しては、4月のGTC 2016で発表されたパスカルの技術を利用する「Tesla P4」と「Tesla P40」について説明した。NVIDIAはPascalベースの最初の製品として「Tesla P100」(開発コードネーム:GP100)をGTC 2016で発表していたが、中国で行なわれたGTC China 2016において、PCI ExpressカードベースのTesla P4とTesla P40を発表しており、今後市場に投入される。フアン氏は「Tesla P4はCPUと比べて40倍のエネルギー効率を持ち、Tesla P40はCPUの40倍の性能を持つ」と述べ、Tesla P4はディープラーニングのトレーニング用に、Tesla P40は推論用に最適だとした。

Tesla P4とTesla P40を発表

 そのあと、そんなディープラーニングのデモとして、ARTISTOが開発したAIが作家のスタイルなどを学習して、動画の味付けをリアルタイムで変更するシーンを披露した。実際に会場内の様子を撮影した動画を映し出し、それをリアルタイムに「ピカソ風」などに変えていくといったデモを行った。フアン氏によれば、これらのデモはAIが画家の作風を学習して、それを元に自動で処理しているのだという。「現在、多くのエコシステムパートナーがNVIDIAの製品をベースにAIのプラットフォームを組み立てている。自前でデータセンターがないスタートアップでも、Microsoftの『Azure』などのクラウドベースのGPUシステムをレンタルできる」と述べて、スタートアップ企業であってもアイデアさえあればAIの開発ができる環境が整いつつあると強調した。

有名な画家の作風を学習して、AIがリアルタイムで動画を変換していくデモ。ディープラーニングを利用したAIで行なわれている
NVIDIAはディープラーニングを活用したAIのエコシステムをすでに構築している
ファナックが次世代の工場でNVIDIAのAIプラットフォームを採用

 また、NVIDIAが「Jetson TX1」として提供しているIoT向けの開発ボードを紹介し、ロボットや各種産業機器に活用されている事例を紹介した。さらに、産業用のロボットメーカーとして知られるファナックの事例を紹介。ファナック 取締役専務執行役員 ロボット事業本部長の稲葉清典氏を壇上に呼び、ファナックがNVIDIAのGPUをディープラーニングの学習や推論に使っており、さらにIoTのSoCとしてTegraなどを採用していること、将来の工場構築にNVIDIAのAIプラットフォームを選択したことなどを発表した。

Jetson TX1を利用したIoT機器を紹介
Jetson TX1の開発ボード
Jetsonベースで開発されているIoT機器
ファナックではディープラーニングやマシン運用にGPU、IoTのSoCにTegraなどを利用している
ファナック株式会社 取締役専務執行役員 ロボット事業本部長 稲葉清典氏(左)

 ファナックの稲葉氏は「IoTは生活だけでなく、製造の現場も変える。その鍵はAI。従来の工場ではシステムインテグレータなどが時間をかけてシステムを構築していたが、今後はロボット同士がAIを搭載し、それぞれが協調してコリジョンを避けていく」と述べ、ロボットを活用した現代の工場では人間の介入が必要だが、将来の工場ではロボットと人間が協調して動くようになると説明した。

Parkerの後継として「2Parker+2Pascal相当」の性能を持つXavierを計画

AIトランスポーテーション

 最後にフアン氏は、AIトランポーテーション(AIを活用した交通システム)についての説明を行なった。「トランスポーテーションは世界で最大の産業だ。タクシーやバス、物流、自家用車などさまざまな自動車があるが、自動車の運転は非常に複雑な動きで、人間にはできてもコンピュータには難しかった。しかし、それがAIで変わろうとしている」と述べ、AIが交通システムの世界も大きく変えつつあるとアピール。AIを利用した自動運転を実現するには認識、自己位置推定、そしてステアリングやアクセル&ブレーキ操作などの要素が重要で、それらを実現できるAIが必要になると強調した。

NVIDIAがCES 2016で発表したDRIVE PX2の開発ボード。

 そんなAIを活用した自動運転向けのコンピューティングボードとして、NVIDIAは1月の「CES 2016」で「DRIVE PX2」を発表している。フアン氏は、DRIVE PX2には「オートクルーズ(いわゆるハイウェイパイロット)用」「オートシャッファー(A地点からB地点までの自動運転)用」「AIによる自律運転用」という3つのモデルがあると述べ、1つのアーキテクチャで複数のソリューションをカバーできると協調した。つまり、自律運転用のソフトウェアを開発すれば、それから機能を削ればオートシャッファー用になり、さらに削ってオートクルーズ用にするという使い方が可能だということだ。

DRIVE PX2には自律運転用の大きなボードからハイウェイパイロット用の小型ボードまで3種類がラインアップされている

 また、DRIVEWORKS ALPHA 1という名前の自動・自律運転用のOSをリリースしたことを明らかにした。これとDRIVE PX2を組み合わせることにより、比較的短時間で自動・自律運転車を設計することが可能になると説明。実際にフアン氏は、NVIDIAが開発用として組み立てている「BB8」という名前の自律運転車のプロトタイプ車両の事例を紹介し、AIとカメラだけで自動車が自分で運転を学習していく様子をビデオで紹介した。

DRIVEWORKS ALPHA 1の紹介とデモ
NVIDIAが開発用に組み立てた「BB8」

 学習開始当初は駐車場に置かれたパイロンに衝突してしまうほどの“ド下手運転手”だったBB8だが、学習が進むにつれて周囲のクルマを確認したり、道路を自分で認識しながら進んでいく“優良運転手”に成長していく様子が見て取れた。なお、こうしたNVIDIAのDRIVE PX2やDRIVEWORKS ALPHA 1などは、中国の検索サイト事業者のBaiduや、欧州の地図メーカーであるTomTomが自動運転技術を開発するときの開発プラットフォームとして採用することがすでに明らかにされている。

BB8の紹介ビデオ。AIとカメラだけでここまでできるというのはすごい
中国の検索サイト事業者のBaiduや、欧州の地図メーカーTomTomが自動運転技術の開発プラットフォームとしてNVIDIAを採用

 そしてフアン氏は、DRIVE PX2にも搭載されているNVIDIAの最新Tegra SoCであるParkerの次世代版となるXavierを計画していることも紹介した。Xavierは欧州GTCで発表された計画で、16nm FinFETプロセスルールで製造。70億トランジスタ、8つのカスタム64ビットARMプロセッサ、512コアのVolta GPU、新しいコンピュータービジョンアクセラレータ、2つの8K HDRビデオプロセッサ、ASIL Cレベルの機能安全といった機能を詰め込んだ製品となる。

 フアン氏によれば「性能的には2つのParker+2つのPascalを1つのXavierで置き換えることが可能になる」と語り、非常に強力なSoCになることを予告。演算性能はいくらあっても十分ということはないAIによる自律運転を実現するSoC向けとして魅力的な選択肢となりそうだ。

開発コードネーム「Xavier」(エグゼビア)と呼ばれる次世代SoC
現在のDRIVE PX2の最上位版となるParkerを2個とPascalを2個を足して、1つのXavierで置き換えることができる