CES 2016

NVIDIA、GPUアーキテクチャ“Pascal”採用による世界最高能力の車載人工知能エンジン「DRIVE PX 2」

ディープラーニング処理能力を10倍以上に。自動運転車開発競争を加速

2016年1月4日(現地時間) 発表

車載人工知能エンジン「DRIVE PX 2」を発表する、NVIDIA CEO兼共同創立者 ジェンスン・フアン氏

 NVIDAは1月4日(現地時間)、米国ネバダ州ラスベガスにおいてプレスカンファレンスを開催。「CES 2016」開催に合わせ、世界最高能力の車載人工知能エンジン「DRIVE PX 2」を発表し、NVIDIAのCEO兼共同創立者であるジェンスン・フアン氏がプレゼンテーションを行なった。

 車載可能なモジュールとして提供されるDRIVE PX 2は、NVIDIAの次世代型GPUアーキテクチャ“Pascal”採用のGPU2基に加え、次世代型車載SoC(System on a Chip)「次世代Tegra」を2基搭載。それらにより車載モジュールとして8TFLOPSの処理能力を獲得。これは、現行世代のGPUアーキテクチャ“Maxwell”の処理ユニットを256基内蔵の「Tegra X1」を2基搭載する「DRIVE PX」の4倍の処理能力となる。

DRIVE PX 2が実現する性能。この性能と外観のみ発表された

 昨年(2015年)の現行世代Tegra X1の発表では、処理ユニットの数が発表されたものの今回は発表されず、詳細については後日となるのだろう。

 一般的計算能力の指標に使われる浮動小数点処理能力で4倍と発表されたDRIVE PX 2だが、この製品のメインターゲットとなる人工知能処理能力の指標として、ディープラーニング処理能力を示す「DL TOPS」を提示。このDL TOPSにおいては、従来のDRIVE PXの10倍以上、ワークステーションに使われるデスクトップ向け最高性能製品である「TITAN X」の4倍以上となる24DL TOPSの性能を発揮。ディープラーニングの画像学習指標としてAlexNetの処理能力も示し、TITAN Xが450イメージ/秒に対し、車載モジュールであるDRIVE PXは2800イメージ/秒と6倍以上になるという。TITAN Xは“Maxwell”アーキテクチャを採用し、7TFLOPSの性能を持つため、次世代の“Pascal”アーキテクチャのディープラーニング処理能力の高さが分かる。

ワークステーション向け製品である「TITAN X」との性能比較。ディープラーニング性能において飛躍的な性能向上を実現
製品名 TITAN X DRIVE PX 2
製造プロセス 28nm 16nm FinFET
CPU 12 CPUコア(8コア A57+4コア “Denver”
GPU Maxwell Pascal
TFLOPS 7 8
DL TOPS 7 24
AlexNet 450イメージ/秒 2800イメージ/秒

 フアン氏はこのDRIVE PX 2の処理能力を「150台のMacBook Proが(クルマの)トランクに入っている」と表現。その処理能力をランチボックスサイズで実現するという。

 DRIVE PXからDRIVE PX 2になって大きく変わった点は処理能力だけでなく、処理する情報の種類が増えたこと。DRIVE PXでは12chの映像入力を持ち、12個のカメラによるサラウンドビュー的な映像処理能力を実現していたが、DRIVE PX 2では、映像入力に加え、LIDAR(Light Detection and Ranging)や超音波センサー(ソナー)にも対応。自動車メーカーでは自動運転車に映像だけの手段ではなく、さまざまな手段によって環境認識を行なおうとしているが、そのニーズにしっかり対応してきたことになる。

 また、従来のDRIVE PXでは電動ファンによる空冷方式を採用していたが、DRIVE PX 2では液体による冷却、つまり液冷を採用。消費電力は250Wと発表されており、モジュールシステムとしての安定性を重視している。

150台のMacBook Proをトランクに
液冷を採用

自動運転車開発の現状

 ファン氏のプレゼンテーションは、自動運転車開発の現状を説明するところから始まった。自動運転車の実現はコンピュータサイエンスにとっての挑戦であり、それにはソフトウェア開発、判断部となるディープラーニング、自動車に搭載するためのスーパーコンピュータ(高度な計算能力を持つユニット)が必要であると図示。世界最高能力を持つという車載人工知能エンジン「DRIVE PX 2」を紹介した。

 自動運転車の実現は、より安全なドライブ、新しいカーサービス、都市の再設計をもたらすとし、トヨタ自動車とGoogleの自動運転車の違いについて言及。トヨタはチームメイトとしての自動運転、いつもまわりに注意し優れた運転能力を持つ副操縦士と一緒に運転できるクルマを開発し、Googleは完全自動運転のクルマを開発しているという。そのいずれもが、現状より大きな大きな計算能力が必要になるという。

自動運転車による革命
トヨタとGoogle、2つのビジョン
基本的な自動運転車のロジック

 自動運転の計算については、高精度な地図、クルマの現在地の正確な把握、環境認識の3つの要素がある。いずれも高度な計算能力が必要で、その結果から進むべきルートを計画し、実際にクルマの運転に反映していく。

 いずれの要素も、複合的な要因、天候要因などがあり、計算が非常に難しく、自動走行の実現を困難なものにしている。

 それを助けるのが近年大きく進化し続けるディープラーニングを利用したAI(人工知能)技術。多くの大学や、Facebook、Google、IBM、Baidu、Microsoft、各種スタートアップ企業などがNVIDIA GPUプラットフォームの上でAIエンジンを開発しており、NVIDIA GPUプラットフォームはワークステーションやロボット、サーバー、クルマでディープラーニングを実行できる。

 自動運転の実現のためには、エンドツーエンドでディープラーニングの実行環境が必要で、フアン氏は「NVIDIA DRIVENET」というディープラーニング実行環境を示し、学習によって認識率がどう向上するのかを示した。

ディープラーニングによるAI能力
各学校、企業が研究を続けるAIエンジン
ディープラーニングをさまざまな機器に
エンドツーエンドでのディープラーニング環境
NVIDIA DRIVENETでの認識率向上

 また、アウディから提供された映像、メルセデス・ベンツ(ダイムラー)から提供された映像を紹介。ディープラーニングによる認識率の高さをデモするとともに、各自動車メーカー開発部門からのコメントを紹介していった。

メルセデス・ベンツ(ダイムラー)提供の映像
アウディでの認識例
メルセデス・ベンツでの認識例
認識状態をピクセルに色を付けて表示
天候悪化状態での認識
アウディのコメント
ダイムラーのコメント
BMWのコメント
フォードのコメント
ZMPのコメント
プリファードネットワークスのコメント

「NVIDIAのDIGITSディープラーニング・プラットフォームを使ったところ、4時間もかからず、Ruhr University Bochumの交通標識データベースについて96%以上の精度が得られました。いままでのコンピュータビジョン・アルゴリズムでこのレベルの精度を得るには何年もの開発期間が必要だったことを考えると、我々は光のスピードで開発ができたと言えるでしょう」(アウディ アーキテクチャ・ドライバ支援システム部門ディレクタ、マティアス・ルドルフ氏)。

「ディープラーニングのおかげで、従来型のコンピュータビジョンでは不可能だったレベルまで車両の環境認識能力を大きく引き上げ、人間に近づけることに成功しました」(ダイムラー ビークル・オーメーション部門ディレクタ、 ラルフ・G・ハートウィッチ氏)。

「BMWでは、自律走行から製造段階の品質検査にいたるまで、自動車のさまざまなユース・ケースにディープラーニングが適用できないか、研究を進めています。そのためには、大量のデータによるディープ・ニューラル・ネットワーク・モデルのトレーニングが短期間で行えなければなりません。NVIDIA GPUノードを持つクラスタとDIGITSのようなソフトウェア・ツールを使ったところ、 すばらしい成果を挙げることかできました」(米国BMWグループ・テクノロジ・オフィス代表、ウエ・ヒゲン氏)。

「NVIDIA DIGITSにおけるディープラーニングのおかげで、歩行者検出アルゴリズムのトレーニング効率が30倍になりました。いまは、NVIDIA DRIVE PXに向けて、さらなる試験と開発を進めています」(フォード・リサーチ&イノベーション・センタ テクニカル・ディレクタ ドラゴス・マチューカ氏)。

統合開発環境としてのDriveWorks

NVIDIA DriveWorks

 フアン氏は、ここでNVIDIAの用意できるエンドツーエンドのディープラーニング開発環境を提示。デスクトップPCやワークステーションでNVIDIA DIGITSによるディープラーニングを構築。構築したディープラーニングをNVIDIA DRIVENETととして学習。それをNVIDIA DRIVE PX 2で実行するというものだ。

 さらにNVIDIAは、DRIVE PX同様の12chの映像入力に加え、新たにLIDARや超音波センサー(ソナー)の入力も対応するDRIVE PX 2のために開発環境も提供。「NVIDIA DriveWorks」と呼ばれる開発環境は、センサーのキャリブレーションから周囲データの取得、センサーデータの同期、記録、処理にいたるまで、さまざまなアルゴリズムを組み合わせることができるという。そのアルゴリズムの組み合わせによるソフトウェアモジュールをDRIVE PX 2で処理し、センサーデータのストリームを効率的に管理することができるとしている。

 このNVIDIA DriveWorksについてもデモを実施。デモでは、各映像チャンネルからの映像をリアルタイムに表示するほか、クルマのCANデータからの情報も図示。そして画面が切り替わると、それぞれの映像における空間認識のためのコーナーマッピングをリアルタイムで実施。4画面を同時実行しており、驚愕の性能を持っていることが分かる。2世代前の車載SoCのTegra K1用に提供されていたVision Worksには、Harris CornerやLucas-Kanadeの演算ライブラリが用意されており、同様のものがDriveWorksにおいても提供されているのだろう。

 そしてこの検出したポイントを3次元空間にマッピング。映像による3次元認識をリアルタイムで生成したうえに、LIDARなど映像以外のセンサーによる認識状況を重ね合わせ、さらに精密な空間認識をリアルタイムで行なっていた。

 DriveWorksでできるのは認識だけではなく、クルマをどう動かすかという部分にも踏み込んでいる。デモ映像では、車線変更を含む未来のルートを示しながら自車が走り、左車線からほかのクルマが追い越しにかかると、左への車線変更のルートが狭くなり、ついには消失。車線変更できない空間が斜線で示される。リアルタイムに生存空間(自車が移動可能な空間)を認識するとともに経路探索を行なっていることを示していた。

NVIDIA DriveWorks
NVIDIA DriveWorks
DriveWorks

 フアン氏はプレゼンテーションの最後にボルボがNVIDIAのディープラーニング環境を選択したことを紹介。「ボルボでは、新車による死者と重傷者を2020年までにゼロにすることを目標に掲げています。高性能で反応性に優れたNVIDIAのプラットフォームは、この目標の達成に向けた重要な一歩となるもので、当社の自動運転プログラムにとってもDrive Meプロジェクトにとっても申し分のない製品だと言えます」と、ボルボ 自動運転プログラム ディレクタ、マーカス・ロソフ氏のコメントが別途発表された。

ボルボのコメント

 自動運転可能なクルマが目指す未来は、ボルボなどのコメントにあるように交通事故死者の低減が大きな目標となっている。自動車先進国である日本では、ここ数年交通事故死者数の低減率が下がってきており、各種安全装備をいくら増やしても従来技術の延長線上ではなかなか改善できていない(2016年1月4日警察庁発表の速報値では、4117人で前年に比べ4人増と悪化)。交通事故死者低減の大きな期待を担っているのが自動運転技術で、NVIDIAはディープラーニングを実現できる高い計算能力と優れた開発環境を自動車の世界に提供することで、自動運転技術を次のステップに引き上げようとしている。

 新たに発表されたDRIVE PX 2の特徴は、液冷が必要なほどの過剰な計算能力を持つモジュールになっており、12chの映像のほかLIDARやソナーなど、いわゆるフュージョンデータの処理能力を持つことだ。液冷となることで搭載位置や搭載車のシステム構築の難易度が上がるが、これは大手自動車メーカーの自動運転車開発現場で聞かれる「フュージョンデータの処理能力が必要」という要求に応えた結果と思われる。

 DRIVE PX 2開発プラットフォームの一般販売は2016年第4四半期を予定。アーリー・アクセス開発パートナーには、第2四半期に供給を開始する予定としている。

NVIDIAのプレスカンファレンスで掲示されたプレゼンテーションシート

【訂正】消費電力についてはモジュール全体で250Wとの発表があり追記。“Pascal”GPU 2基+次世代Tegra 2基搭載も明確化しました。

(編集部:谷川 潔)