ニュース

トヨタの自動運転研究も紹介された「NVIDIA Deep Learning Day 2016 Spring」

2016年4月27日 開催

NVIDIA プラットフォームビジネス本部 ディープラーニングソリューションアーキテクト兼CUDAエンジニア 村上真奈氏

 NVIDIAは4月27日、米国 サンノゼで4月に行なわれた「GPU Technology Conference 2016(GTC 2016)」で発表されたディープラーニング関連の情報を紹介することを目的として、東京都内で「NVIDIA Deep Learning Day 2016 Spring」を開催した。本稿ではとくに自動運転に関連するポイントについてリポートする。

 最初に登壇したNVIDIA プラットフォームビジネス本部 ディープラーニングソリューションアーキテクト兼CUDA エンジニアである村上真奈氏は、ディープラーニングの仕組みやトレンド、具体的な技術などについて解説した。

 まず、村上氏はこの1年を振り返り、コンピュータの画像認識精度を競う大会「ImageNet」において、マイクロソフトとグーグルが人間を上まわる認識精度を達成したこと、バイドゥが1つのニューラルネットワークで英語と中国語の2つの言語の音声認識を実現したこと、さらに碁の世界チャンピオンに「AlphaGo」が勝利したことなどを挙げ、「人工知能にとって驚くべき1年だった」と語った。

直近1年間における人工知能の進化
ディープラーニングが加速している要因

 現在、人工知能(AI:Artificial Intelligence)の世界を牽引しているのがディープラーニングだが、これは人間の脳を模した複数の層のニューラルネットワーク(DNN:Deep Neural Network)を利用した機械学習を指す。このDNNに学習のためのデータを入力すると、DNNが自動的に学習を行ない、例えば画像に写っているものがなにかを識別するといったことが可能になる。この学習における重要なポイントとして、村上氏は「よい構造をしたDNN、学習のために利用するビッグデータ、そして処理に要する時間を短縮するためのGPU」だと説明した。

 ディープラーニングの学習は汎用的なCPUでも可能だが、村上氏は「GPUは対CPUで10倍近く高速」だと説明し、さらにNVIDIAではディープラーニングによる学習を高速化、効率化するため多数のSDK(Software Development Kit)を提供していることを紹介した。

ディープラーニング(推論)における、CPUとGPUの処理速度の違い
NVIDIAが提供するディープラーニング用のSDKである「NVIDIA cuDNN」。さまざまなディープラーニングフレームワークの処理を高速化できる
NVIDIAが提供するディープラーニングトレーニングシステム「NVIDIA DIGITS」。Webインターフェイスでディープラーニングを体験可能
NVIDIAではWebサイト上でトレーニングプログラムも提供。実際に体験しながらディープラーニングが学べるハンズオンも用意されている

 このほかに村上氏は、NVIDIAが提供する「ディープラーニング・インスティチュート」というオンラインで学べる学習コースも紹介した。実際に操作しながらディープラーニングを学ぶことができるほか、アマゾンのクラウドサービスを利用することで、自身のパソコンに搭載されていなくても、実際にNVIDIAのGPUを使ったディープラーニングを試せるようになっているという。

トヨタ自動車が考える自動運転の形

NVIDIA プラットフォームビジネス本部 部長 林憲一氏

 NVIDIA プラットフォームビジネス本部 部長の林憲一氏は、サンノゼで行なわれたGTC 2016の2つの基調講演の模様を紹介した。

 1つめはToyota Research InstituteのCEOであるギル・プラット博士の基調講演だ。Toyota Research Instituteはトヨタグループにおける人工知能技術の研究・開発を担う研究機関であり、今年の1月に設立されている。

 この基調講演においてプラット博士は、自動運転について「パラレルオートノミーが重要」だと述べたという。これは人間とAIが同時に操作を行なうモデルを指し、具体的な例として大人が子供にゴルフのスイングを教える様子が挙げられた。子供にゴルフのスイングを教えるとき、大人が子供の背後から手を回し、いっしょにスイングをしてサポートする。同じように、人間の運転をサポートする形で自動運転の実現を目指すのがパラレルオートノミーだ。

 この考え方は、トヨタ自動車 代表取締役社長の豊田章男氏の自動運転に対するビジョンと一致するという。豊田氏が示す自動運転のビジョンとは「Safety(安全)」「Environment(環境)」「Mobility for All(あらゆる人のための移動手段)」「Fun to Drive(運転する楽しさ)」というもの。

 さらに自動運転の実現に向けては、ショーファーモードとガーディアンエンジェルの2つのモードのハイブリッドが考えられるという。AIが自動運転するのがショーファーモード、人間の運転をAIが手助けするのがガーディアンエンジェル(守護神)だ。プラット博士は「この2つを両立させ、ハイブリッドでユーザーが選べる。これによって自動運転を実現しようというのがToyota Research Instituiteでやっていこうとしていること」だと語ったと、林氏は紹介した。

豊田章男氏が自動運転に求める4つのポイント
ギル・プラット博士は、完全自動運転のショーファーモードとAIが運転者を手助けするガーディアンエンジェルの2つの自動運転をユーザーが選択できる形を提示する

 また、NVIDIAの共同創設者で社長兼CEOのジェンスン・フアン氏による基調講演についても紹介された。すでにNVIDIAでは急速に広がるディープラーニングの処理を支援するため、学習に最適化された「TESLA M40」と推論での利用を想定した「TESLA M4」をリリースしているが、より高速なGPUを求める声に応えるためにリリースされるのが「TESLA P100」だ。

「ハイパースケールデータセンターの世界でもっとも先進的なGPU」として紹介されたTESLA P100は、NVIDIAが開発した新たなGPUアーキテクチャである「Pascal」や、最新のプロセス技術である16nm FinFETを採用するなど、新たな技術が積極的に取り込まれている。これによって演算性能とメモリバンド幅をそれぞれ3倍、GPU間の通信速度を5倍として、「基礎体力、根本的な性能を大幅に向上させているのが特徴」だと紹介した。実際の製品は2017年第1四半期の出荷が予定されている。

ディープラーニングの学習を高速化する演算環境を提供するGPUとしてリリースされた「TESLA P100」
TESLA P100には、Pascalアーキテクチャをはじめとする最新のテクノロジーが組み込まれている
過去の製品とTESLA P100のパフォーマンス比較

 合わせてTESLA P100を搭載したサーバー製品「NVIDIA DGX-1」も紹介された。この製品について林氏は「250台のサーバーの性能をワンボックスで提供する」と説明する。また、ディープラーニングのためのフレームワークをNVIDIAがDGX-1に最適化して提供するとした。

 NVIDIAにおける自動運転関連の取り組みについては、現状の自動運転はまず地図を参照し、そのなかで自車の位置を特定。周囲の自動車や標識、走行レーンなどを認識した上で、自車の振る舞いを判断して行動するという処理を繰り返す形になっているという。NVIDIAでは、この自動運転に必要な学習と推論をエンドトゥエンドでサポートするために、学習側としてTESLA P100やTESLA DGX-1、さらに車両側で推論を行なうために「NVIDIA DRIVE PX」を提供していることを紹介した。

TESLA P100を搭載したNVIDIAブランドのサーバーである「NVIDIA DGX-1」は、デュアルXeonサーバー250台分の性能を有するとの説明
自動運転における市場動向についての説明

 NVIDIA自身でも自動運転に向けたトレーニングを行なっており、「NVIDIA DRIVENET」として開発が進められている。自動運転のベンチマークスイートである「KITTI」において、このNVIDIA DRIVENETは最高得点を取得しているという。

 また、自動運転に欠かせない高精細な3次元マップを更新するための仕組みを提供していることも紹介された。NVIDIA DRIVE PXには12個のカメラで撮影された映像を入力するインターフェイスがあり、GPUを使って既存の地図との差分を検出してクラウドに送信する。クラウド側ではTESLA P100などの強力なGPUで処理を行ない、自動運転用の地図に反映するというプラットフォームを提供する。これによって効率的に地図を更新していくことができると林氏は話した。

NVIDIAが車載コンピュータとして提供する「NVIDIA DRIVE PX」。ベンチマークでも優秀な成績を残している
NVIDIA DRIVE PXに入力した映像を利用し、自動運転に使われる高精細地図を更新するためのプラットフォームも提供する

 自動運転に関する別の取り組みとして披露されたのは、地図に頼らず、初めて訪れる場所でも周囲の状況をチェックしながら自動運転を行なうという技術。フロントカメラだけを利用し、そのときの状況に対して人間がどのように運転したのかを学習するという取り組みだ。3000マイルを走行して学習させたところ、舗装された道から未舗装路、あるいは雨の日など、それぞれの状況に応じて自動運転が行なえるようになったとしている。これはステアリング操作のみで加減速は自動化していないとのことだが、このような方法でも自動運転を実現できる例だとする。

 さらにNVIDIAにおける自動運転の取り組みとして紹介されたのが、世界初の自動運転カーレースである「ROBORACE」だ。実はこのレースで使われるマシンには、NVIDIA DRIVE PX 2が組み込まれており、この上で自動運転のアルゴリズムが実行される。

フロントカメラで人間の運転(ステアリング操作)を学習し、地図のない場所でも自動運転を実現するという取り組み
今秋から始まる自動運転カーレース「ROBORACE」には「NVIDIA DRIVE PX 2」が採用された
プレゼンテーションの最後に、2016年10月5日に「GTC JAPAN 2016」を東京 お台場で開催することが発表された

GTC 2016で発表されたディープラーニングの研究成果

中部大学 工学部 情報工学科 講師 山下隆義氏

「GTCリピートセッション」と題されたセッションでは、GTC 2016でディープラーニング関連の発表を行なった中部大学 工学部 情報工学科 講師の山下隆義氏、AlpacaのChief Engineering Officerの林佑樹氏、Preferred Networksの取締役副社長である岡野原大輔氏がそれぞれプレゼンテーションを行なった。

複数の異なる情報を同時に学習するヘテロジニアスラーニングによる歩行者の認識。傘を差しているかどうか、顔や身体の向きがどちらかといったことまで検出できる
こちらはカメラから入力された映像を画素ごとに解析し、それぞれのオブジェクトを認識した上でラベリングを行なっている例
カメラ映像により、自身がどのように動いているかを推定しているシーン。夜間の映像学習は行なわれていないが、明るい昼間と同じようにどちらに移動しているかを適切に判定している
AlpacaのChief Engineering Officerである林佑樹氏
シリコンバレーと東京に拠点を置くAlpacaは、ディープラーニングを用いて為替チャートのパターンを認識して、ユーザーが指定しているものと同じパターンを検出するサービスを提供している
株式会社Preferred Networksの取締役副社長 岡野原大輔氏
Preferred Networksの事業領域。トヨタ自動車との共同研究により、自動運転を実現するための機械学習やディープラーニング技術の研究も行なっている
CES 2016で行なわれた自動運転のデモ。自動運転のアルゴリズムが組み込まれた白い車両が、人がラジコン操作する赤い車両が行なう乱暴な運転を避けていく様子が紹介された
Preferred Networksが開発するディープラーニングのためのフレームワーク「Chainer」。そのほかのフレームワークに比べて柔軟性が高いことが特徴だとしている
NVIDIA エンタープライズビジネス事業部 DLビジネスデベロップメント シニアマネージャー 井﨑武士氏

 NVIDIA エンタープライズビジネス事業部 DLビジネスデベロップメント シニアマネージャーの井﨑武士氏は、GTC 2016のディープラーニング関連セッションの内容をダイジェストで紹介した。その1つである「TRAINING MY CAR TO SEE:USING VIRTUAL WORLDS」は、仮想世界の映像を自動運転のディープラーニングの学習データとして利用するという内容で、バルセロナ自治大学が実施した発表。自動運転の学習では、映像に含まれるオブジェクトを適切に認識することが重要になるが、一方でそれを実現するための学習データを用意するのは苦労が伴う。そこで容易に取得できる仮想世界のCGデータを利用して学習を行ないつつ、さらに現実社会の映像で追加学習を実施するといった内容だ。

現在、ゲーム開発に広く使われているゲーム開発環境である「Unity」を用い、自動運転の学習に利用するCGを生成
実際にUnityで構築された仮想世界のCG
CGを利用して学習を行ない、映像をオブジェクトの種類ごとにラベリングして色分けしたもの。季節を問わず、道路や横断歩道、歩行者などを識別している

(川添貴生)