ニュース
【GTC Japan 2017】ホンダの自動運転への取り組みを紹介した本田技術研究所 安井裕司氏のセッション
AI技術とモデルベース制御を組み合わせる次世代の自動運転システム
2017年12月14日 19:10
- 2017年12月12日~13日 開催
NVIDIAはGPUテクノロジーカンファレンス「GTC Japan 2017」を12月12日~13日に開催。同カンファレンスで、本田技術研究所 四輪R&Dセンター 統合制御開発室ADブロック 主任研究員の安井裕司氏が「AIを用いたHONDAの自動運転への挑戦」と題したセッションで自動運転へ向けたホンダの取り組みを紹介した。
同セッションでは「自動運転システムのトレンド」「自動運転システムに関するホンダのビジョン」「高速道路における自動運転システム」「次世代の自動運転システム」「結論」という5つの項目で行なわれ、安井氏はホンダでは“すべての人に事故ゼロと自由な移動の喜びを提供する”ため、自動運転システムの研究開発を行なっている考えを示すとともに、ホンダならではの自動運転車に対するこだわりとしては、クルマの乗員のみならず、クルマの外にいる人からも安心と感じてもらえる、絶対的な信頼性を目指すと強調した。
自動運転システムのトレンドについては、高度運転支援と位置付けられるレベル2自動運転から、今後実現を目指しているドライバーを必要としないレベル5自動運転までの機能紹介や違いを解説。さらに自動運転車にはモビリティサービスに向けた走行エリアを限定する自動運転車とオーナーが行きたいところにいけるエリアを限定しないパーソナルカーの自動運転車という、2タイプあることなどを紹介した。
2020年に向けて開発を進めている高速道路における自動運転システムについては、カメラのほかレーダーやライダー、3Dの地図データなどを使用するとともに、ドライバーを監視するシステムを組み合わせたもので、開発を進めていることを紹介。
一方、次世代の自動運転システムとして、2025年までの実現に向けた、パーソナルカーのレベル4自動運転システムについては、センサーとしてカメラを使用するとともに、AI技術やモデルベース制御を組み合わせたハイブリッドのシステムで開発を進めていることを明かした。
この次世代の自動運転システムについて、安井氏は「実験車両を見てなぜカメラだけなんだと言われますが、ホンダとしては考えがあります。人間は目で見て運転しています、まずはカメラでより人間に近いレベルまで信頼性を上げておいて、ライダーやレーダーを付け加えて人間のレベルを超える、そうしたレベルでないと自動運転を認めてくれないのではないかと考えている。まずカメラで頑張ってどこまで行けるのかやってみようとやっています」と説明。GPSやライダーが有効ではない場所におけるデモ走行の映像を披露して、走行エリアを限定せずにどこへでも行けるために必要な技術であることを強調した。
そのアーキテクチャについてはAI技術の「Deep neural network」とモデルベース制御「Model-based algorithm」を組み合わせたハイブリッドとなっており、デープラーニングの学習にはNVIDIAの「DGX-1」を活用するとともに、先日AIに関する共同研究を発表したSenseTimeとともに開発していることを明かした。
さらに、クルマのシステム構成については、カメラユニットと、パワートレーン、ステアリング、ブレーキを制御するユニットの間にDeep neural networkを投入した「Drive PX2」とModel-based algorithmを投入した「Rapid Prototyped ECU」を採用していることを紹介。
安井氏は「NVIDIAさんのプラットフォームを使いながらModel-based algorithmを組み合わせられるのが、先行開発においては非常にメリットがある。ただし、アルゴリズムについてはホンダ独自のものを使用していて、そこらへんもフレキシブルに受け入れていくれるのがDrive PX2のいいところ」と感想を話した。
安井氏は「ホンダとしては高速道路における自動運転を実現させていき、そのあと順次一般道に対して条件を拡げていきます。特にそこの部分でAIに期待している」と述べ、新しい実験車両がアメリカのシリコンバレーで走行を始めたことを報告して同セッションを締めくった。