CES2015

NVIDIA、システム開発コストを低減する「Tegra X1」向け実走レス開発環境

Unreal Engine 4+GeForce GTX980で、自動駐車システムの開発が容易に

会期:2015年1月6日~9日(現地時間)

会場:Las Vegas Convention and World Trade Center(LVCC)、LVH、The Venetian

 NVIDIAが「2015 International CES」へ向けて発表した、モバイル・車載用SoC(System on a Chip)「Tegra X1」。GPUとしてはKeplerアーキテクチャの次の世代となるMaxwellアーキテクチャを採用したCUを256搭載。同じチップ内に64bitのCPUを8つ(64bit A57コア×4+64bit A53コア×4)搭載し、FP16で1TFLOPSを実現するという非常に強力なSoCだ。

 同時に、IVI(In-Vehicle Infotainment)の開発環境としてTegra X1を1基搭載した「NVIDIA DRIVE CX」、ADAS(Advanced Driver Assistance Systems、先進運転支援システム)・自動運転の開発環境としてTegra X1を2基搭載した「NVIDIA DRIVE PX」を発表した。そしてプレスカンファレンスにおいて触れられていたのが、「AUTO - VALET PIPLINE」と呼ばれる自動駐車システムの開発環境だ。

 この開発環境がNVIDIAのブースに展示されていたので、その詳細をNVIDIA オートモーティブ事業部 事業本部長 ダニー・シャピーロ氏に聞いてみた。

NVIDIA DRIVE PXを持つNVIDIA オートモーティブ事業部 事業本部長 ダニー・シャピーロ氏

 まずは、Tegra X1を2基搭載したDRIVE PXの基盤をご覧いただきたい。写真を見て分かるように、このDRIVE PXには左下に12chの映像入力が備え付けられている。これは、本来自動車に取り付けられたデジタルビデオカメラからの映像を入力するもので、その入力した映像をTegra X1で処理していくわけだ。

 このDRIVE PXの処理能力は2.3TFLOPSで、1.3Gピクセル/sと発表されており、高い映像処理性能を持つ。Tegra X1が搭載するGPUはCUDAプログラミング可能なもので、デスクトップPCでGeForce系のビデオカードを使って開発したプログラムをシームレスに移行することができる。自動駐車システムの開発者は、デスクトップ環境でシステム開発し、それをDRIVE PXにポーティング。カメラ搭載した実車にDRIVE PX設置し、実際の駐車場に行ってプログラムの動きを確かめていたわけだ。デスクトップPCでプログラミングできることや、豊富なCUDAライブラリを使えることが、今までのNVIDAの開発環境のメリットだった。

 Tegra X1と同時に発表されたAUTO - VALET PIPLINEでは、実車で走行することなく、デスクトップで自動駐車のシステムを開発できるようになる。その仕組みは、GeForce GTX980を搭載したPCでゲームエンジンとして知られる「Unreal Engine 4」動作させ、映像を作り出すというものだ。

NVIDIA AUTO - VALET PIPLINEの構成
NVIDIA AUTO - VALET PIPLINE

 Unreal Engine 4を使ったゲームで遊んだことは分かると思うが、このゲームエンジンは非常にリアリティのある世界を描き出す。そのリアリティのある映像をTegra X1を2基搭載したDRIVE PXに入力することで処理していく。NVIDIAのブースのデモでは、GeForce GTX980を搭載したPCを5台用意。その5台がそれぞれ、フロントカメラ、右側方カメラ、左側方カメラ、リアカメラ、追従カメラの役割を持ち、同期して仮想世界の映像を生成する。その生成された映像をDRIVE PXに入力し、DRIVE PXは上方から見たサラウンドビュー映像を生成するとともに、クルマの制御信号を発生。その制御信号をGeForce GTX980を搭載したPCに送ることで、新たな映像が生成されてる、閉じたループを作り出している。

5つの画面。5台のPCで描かれている
DRIVE PXで画像解析し合成したもの。いわゆるサラウンド画像がリアルタイムに生成される
解析した1つの画面。特異点が抽出されている

 シャピーロ氏によると、このシステムのよいところは、実走しなくても開発ができることだという。実際にクルマを走らせると、ガソリン代などのお金がかかるほか、都合のよいテスト環境にならないことが多い。たとえば、角の駐車スペースを使って実験したいが、そのスペースは空いていないであるとか、雨の実験をしたいが晴れたままだとかだ。

 ところが、このシステムを使えば自由にテスト環境を生成できる。フラットな駐車場であるとか、立体駐車場であるとか、晴れとか、雨とか、嵐とかなど天候要因も自由自在だ。路面などはテクスチャデータとして作り上げればよいし、シャピーロ氏によると「たとえば車いすマークのある場所を作り、そこは避けるようにプログラミングするなどの開発も容易です」とのことだ。

 また、カメラ映像も自在に作れるのがポイント。「遠くを見るカメラ、近くを見るカメラ、魚眼レンズをつけたカメラなどさまざまなカメラをつけたケースをシミュレーションできます」(シャピーロ氏)といい、「ドライバーカメラを取り付け、ドライバーが居眠りしたらクルマを止める」(シャピーロ氏)という制御の開発もデスクトップでできる。

 仮想環境を自由に作り出し、思う存分開発できるわけだ。GeForce GTX980搭載PCはフルHD映像も作ることができ、一般的に実車に搭載されているカメラより高解像度な映像を生成可能。1chの映像を作るのに1組のGeForce GTX980搭載PCが必要で、DRIVE PXの12chをすべて使ったシミュレーション環境を作り上げるには12台のGeForce GTX980搭載PCが必要になるわけだ。

NVIDIA DRIVE PX
12chの画像入力

 シャピーロ氏は、これらGeForce GTX980搭載PCが作り上げた仮想世界をシナリオと呼び、「シナリオ次第では自動運転のシミュレーションもできます。そうすることで自動運転の実験ができないような道路での開発も進められます」という。たとえばUnreal Engine 4用の首都高のデータや人があふれる渋谷センター街などのデータを作れば、それらの地域でADASや自動運転の実験が仮想的にできることになる。もちろん、現実とのずれなどは当然発生するため、その部分についてはチューニングが必要になってくるだろう。

 これまでADASや自動運転の開発には多大な走り込みが必要だった。元祖「ぶつからないクルマ?」である先代「レガシィ」は、デビュー時にはEyeSightを搭載しておらず、マイナーチェンジ後からEyeSight ver.2を搭載した。デビュータイミングのずれについて当時のインタビューでスバルの開発担当者に聞いたところ、走り込みが必要だったことを挙げていた。

●スバル レガシィの注目機能、新型EyeSight
http://car.watch.impress.co.jp/docs/news/20100604_371778.html

 NVIDAの提供する開発環境であれば、24時間365日、仮想環境とはいえ世界中の道を走り続けることが可能になるわけだ。さまざまな法的規制に縛られている日本に向いたシステムともいえる。

 これまでADASなどのシステム開発には、車載システムのプログラミング能力が大切だった。それは今後も変わらないものの、仮想世界のシナリオを作り出す能力も要求されてくるだろう。仮想世界の道をNVIDA DRIVE PX搭載車が走り続けることで、さまざまな知見が蓄積され、ADASや自動運転に関するCUDAライブラリは加速度的に充実していくものと思われる。NVIDIAは強大なビジュアルコンピューティングパワー持つ製品を提供することで、自動車開発の最前線に躍り出ようとしている。

編集部:谷川 潔

http://car.watch.impress.co.jp/