ニュース
トヨタの自動運転研究も紹介された「NVIDIA Deep Learning Day 2016 Spring」
(2016/5/3 00:00)
- 2016年4月27日 開催
NVIDIAは4月27日、米国 サンノゼで4月に行なわれた「GPU Technology Conference 2016(GTC 2016)」で発表されたディープラーニング関連の情報を紹介することを目的として、東京都内で「NVIDIA Deep Learning Day 2016 Spring」を開催した。本稿ではとくに自動運転に関連するポイントについてリポートする。
最初に登壇したNVIDIA プラットフォームビジネス本部 ディープラーニングソリューションアーキテクト兼CUDA エンジニアである村上真奈氏は、ディープラーニングの仕組みやトレンド、具体的な技術などについて解説した。
まず、村上氏はこの1年を振り返り、コンピュータの画像認識精度を競う大会「ImageNet」において、マイクロソフトとグーグルが人間を上まわる認識精度を達成したこと、バイドゥが1つのニューラルネットワークで英語と中国語の2つの言語の音声認識を実現したこと、さらに碁の世界チャンピオンに「AlphaGo」が勝利したことなどを挙げ、「人工知能にとって驚くべき1年だった」と語った。
現在、人工知能(AI:Artificial Intelligence)の世界を牽引しているのがディープラーニングだが、これは人間の脳を模した複数の層のニューラルネットワーク(DNN:Deep Neural Network)を利用した機械学習を指す。このDNNに学習のためのデータを入力すると、DNNが自動的に学習を行ない、例えば画像に写っているものがなにかを識別するといったことが可能になる。この学習における重要なポイントとして、村上氏は「よい構造をしたDNN、学習のために利用するビッグデータ、そして処理に要する時間を短縮するためのGPU」だと説明した。
ディープラーニングの学習は汎用的なCPUでも可能だが、村上氏は「GPUは対CPUで10倍近く高速」だと説明し、さらにNVIDIAではディープラーニングによる学習を高速化、効率化するため多数のSDK(Software Development Kit)を提供していることを紹介した。
このほかに村上氏は、NVIDIAが提供する「ディープラーニング・インスティチュート」というオンラインで学べる学習コースも紹介した。実際に操作しながらディープラーニングを学ぶことができるほか、アマゾンのクラウドサービスを利用することで、自身のパソコンに搭載されていなくても、実際にNVIDIAのGPUを使ったディープラーニングを試せるようになっているという。
トヨタ自動車が考える自動運転の形
NVIDIA プラットフォームビジネス本部 部長の林憲一氏は、サンノゼで行なわれたGTC 2016の2つの基調講演の模様を紹介した。
1つめはToyota Research InstituteのCEOであるギル・プラット博士の基調講演だ。Toyota Research Instituteはトヨタグループにおける人工知能技術の研究・開発を担う研究機関であり、今年の1月に設立されている。
この基調講演においてプラット博士は、自動運転について「パラレルオートノミーが重要」だと述べたという。これは人間とAIが同時に操作を行なうモデルを指し、具体的な例として大人が子供にゴルフのスイングを教える様子が挙げられた。子供にゴルフのスイングを教えるとき、大人が子供の背後から手を回し、いっしょにスイングをしてサポートする。同じように、人間の運転をサポートする形で自動運転の実現を目指すのがパラレルオートノミーだ。
この考え方は、トヨタ自動車 代表取締役社長の豊田章男氏の自動運転に対するビジョンと一致するという。豊田氏が示す自動運転のビジョンとは「Safety(安全)」「Environment(環境)」「Mobility for All(あらゆる人のための移動手段)」「Fun to Drive(運転する楽しさ)」というもの。
さらに自動運転の実現に向けては、ショーファーモードとガーディアンエンジェルの2つのモードのハイブリッドが考えられるという。AIが自動運転するのがショーファーモード、人間の運転をAIが手助けするのがガーディアンエンジェル(守護神)だ。プラット博士は「この2つを両立させ、ハイブリッドでユーザーが選べる。これによって自動運転を実現しようというのがToyota Research Instituiteでやっていこうとしていること」だと語ったと、林氏は紹介した。
また、NVIDIAの共同創設者で社長兼CEOのジェンスン・フアン氏による基調講演についても紹介された。すでにNVIDIAでは急速に広がるディープラーニングの処理を支援するため、学習に最適化された「TESLA M40」と推論での利用を想定した「TESLA M4」をリリースしているが、より高速なGPUを求める声に応えるためにリリースされるのが「TESLA P100」だ。
「ハイパースケールデータセンターの世界でもっとも先進的なGPU」として紹介されたTESLA P100は、NVIDIAが開発した新たなGPUアーキテクチャである「Pascal」や、最新のプロセス技術である16nm FinFETを採用するなど、新たな技術が積極的に取り込まれている。これによって演算性能とメモリバンド幅をそれぞれ3倍、GPU間の通信速度を5倍として、「基礎体力、根本的な性能を大幅に向上させているのが特徴」だと紹介した。実際の製品は2017年第1四半期の出荷が予定されている。
合わせてTESLA P100を搭載したサーバー製品「NVIDIA DGX-1」も紹介された。この製品について林氏は「250台のサーバーの性能をワンボックスで提供する」と説明する。また、ディープラーニングのためのフレームワークをNVIDIAがDGX-1に最適化して提供するとした。
NVIDIAにおける自動運転関連の取り組みについては、現状の自動運転はまず地図を参照し、そのなかで自車の位置を特定。周囲の自動車や標識、走行レーンなどを認識した上で、自車の振る舞いを判断して行動するという処理を繰り返す形になっているという。NVIDIAでは、この自動運転に必要な学習と推論をエンドトゥエンドでサポートするために、学習側としてTESLA P100やTESLA DGX-1、さらに車両側で推論を行なうために「NVIDIA DRIVE PX」を提供していることを紹介した。
NVIDIA自身でも自動運転に向けたトレーニングを行なっており、「NVIDIA DRIVENET」として開発が進められている。自動運転のベンチマークスイートである「KITTI」において、このNVIDIA DRIVENETは最高得点を取得しているという。
また、自動運転に欠かせない高精細な3次元マップを更新するための仕組みを提供していることも紹介された。NVIDIA DRIVE PXには12個のカメラで撮影された映像を入力するインターフェイスがあり、GPUを使って既存の地図との差分を検出してクラウドに送信する。クラウド側ではTESLA P100などの強力なGPUで処理を行ない、自動運転用の地図に反映するというプラットフォームを提供する。これによって効率的に地図を更新していくことができると林氏は話した。
自動運転に関する別の取り組みとして披露されたのは、地図に頼らず、初めて訪れる場所でも周囲の状況をチェックしながら自動運転を行なうという技術。フロントカメラだけを利用し、そのときの状況に対して人間がどのように運転したのかを学習するという取り組みだ。3000マイルを走行して学習させたところ、舗装された道から未舗装路、あるいは雨の日など、それぞれの状況に応じて自動運転が行なえるようになったとしている。これはステアリング操作のみで加減速は自動化していないとのことだが、このような方法でも自動運転を実現できる例だとする。
さらにNVIDIAにおける自動運転の取り組みとして紹介されたのが、世界初の自動運転カーレースである「ROBORACE」だ。実はこのレースで使われるマシンには、NVIDIA DRIVE PX 2が組み込まれており、この上で自動運転のアルゴリズムが実行される。
GTC 2016で発表されたディープラーニングの研究成果
「GTCリピートセッション」と題されたセッションでは、GTC 2016でディープラーニング関連の発表を行なった中部大学 工学部 情報工学科 講師の山下隆義氏、AlpacaのChief Engineering Officerの林佑樹氏、Preferred Networksの取締役副社長である岡野原大輔氏がそれぞれプレゼンテーションを行なった。
NVIDIA エンタープライズビジネス事業部 DLビジネスデベロップメント シニアマネージャーの井﨑武士氏は、GTC 2016のディープラーニング関連セッションの内容をダイジェストで紹介した。その1つである「TRAINING MY CAR TO SEE:USING VIRTUAL WORLDS」は、仮想世界の映像を自動運転のディープラーニングの学習データとして利用するという内容で、バルセロナ自治大学が実施した発表。自動運転の学習では、映像に含まれるオブジェクトを適切に認識することが重要になるが、一方でそれを実現するための学習データを用意するのは苦労が伴う。そこで容易に取得できる仮想世界のCGデータを利用して学習を行ないつつ、さらに現実社会の映像で追加学習を実施するといった内容だ。