CES 2018

【CES 2018】高速ディープラーニングでさらなる“愛車”に。ドライバーの感情を理解するトヨタの人工知能搭載車「Concept-愛i」コックピット試乗

開発主査 岡部氏が感情判断を解説

1年前から進化して「CES 2018」に登場した、人工知能搭載車「Concept-愛i」のコックピット

進化した「Concept-愛i」

「CES 2018」開幕前日となる1月8日(現地時間)のプレスカンファレンスで、MaaS(Mobility as a Service)専用次世代EV(電気自動車)「eパレット コンセプト」を発表したトヨタ自動車だが、CES 2018の同社ブースには、「eパレット コンセプト」に加えて人工知能搭載車「Concept-愛i」の進化版がシミュレータとして体験展示を行なっていた。

 Concept-愛iは、1年前の「CES 2017」の同社プレスカンファレンスで世界初公開された(関連記事:トヨタ、人工知能搭載車「Concept-愛i」を世界初公開)クルマ。TRI(Toyota Research Institute)のギル・プラットCEOが登壇して、搭載するAI(人工知能)などについて説明した。2017年の東京モーターショーでも展示されたので、実物を見た人もいるだろう。

 2018年のCESでは、その進化版のコックピットモデルを展示。顔の表情から感情を読み取るようになり、また、視線入力機能も搭載したほか、自然言語の認識処理も行なうことで、クルマがよりドライバーの気持ちを分かってくれるようになった。Concept-愛iは、トヨタの自動運転の考え方「Mobility Teammate Concept」を具現化したものだが、その友達具合がより親密になったと思えばよいだろう。

評価すべきところは人工知能。なのでコックピットモデルとなっていた

 この進化したConcept-愛iについて説明を行なったのは、オリジナルのConcept-愛iから開発を担当しているトヨタ自動車 先進技術開発カンパニーの岡部慎主査。岡部主査は、2018年版のConcept-愛iでは、表情認識、行動認識、声認識でドライバーの感情を理解するという。表情は顔の表情を、行動は手や体の向きなどを、声色は声の状態を把握。この3つのパラメータそれぞれが、喜び、疲れ、不安などの状態を持ち、その状態を判断して最終的な感情を推定する。

 感情判定も、短めの時間での感情と、長めの時間での感情を判定し、その感情に応じた対応をクルマが行なってくれる。

 この感情判定のベースになっている技術がディープラーニング。顔なら顔、体なら体の画像を学習させ、学習させることでクルマがドライバーの感情を分かるようになる。声については言語認識ではなく、声の調子を見ており、自然言語認識は別途行なっている。

トヨタ自動車株式会社 先進技術開発カンパニー 先行開発推進部 EV事業企画室 主査 岡部慎氏
進化した人工知能搭載車「Concept-愛i」のブロックダイヤグラム
左側の映像や音声の入力対して、中央で評価、右側で判断・決定を行なっている
自然言語認識でコマンドをやり取りできる
いざというときはガーディアンモードで保護してくれる
【CES 2018】進化版人工知能搭載車トヨタ「Concept-愛i」コックピット

 岡部主査は、この感情をクルマが分かるようになることについて、「子供が親の表情などを見て、親の感情が分かるようになるのと同様」といい、ディープラーニングよる学習で、感情を推論できるようになっているという。この感情をクルマが理解するためには膨大な学習過程が必要となるが、岡部主査は「画像ではなく映像で学習している」とその学習速度の秘密を明かし、学習過程において秒間30枚以上の画像を学習する強力なコンピューティングパワー&オリジナルルーチンを利用していることを示唆した。

感情を理解し、ドライブルートをお勧め

 進化した「Concept-愛i」の体験シナリオは、感情をConcept-愛iが判断し、ドライブしながら質問に答えることで、最終的にお勧めのスポットを提案してくれるというもの。途中、Concept-愛iがドライバーの感情を元気と判断したら陽気なドライブルートを、いらいらや不安と判断したらリラックスできるドライブルートを提案するというイベントもある。

 体験には、最初に名前と年齢、メールアドレス、顔写真をタブレット端末に登録する必要があり、その後、自分の好きな趣味を2つと、自分の好きな食べ物を2つ登録する。この趣味と食べ物はクルマとの会話を通していずれが好みか判断してくれ、好みと判断されたほうをお勧めしてくれる。

 登録が終わったらクルマに乗り込む。クルマに乗り込んだら視線登録を行ない、この作業が済めば視線でYes/No選択やA/B選択ができるようになる。実際に体験してみたが視線コントロールの精度は高く、“ここまでスムーズに動くのか!!”というほどの出来。会話や表情による判断は、陽気と判断されたようで、趣味はサイクリングを、食べ物はハンバーガーをお勧めされた。

最初に趣味として、サイクリングとIT(??)を選択、結果サイクリングがより好みであると判断された。ハンバーガーは、イタリアンとの比較。ハンバーガーのLIKE度(という値でよいのかな?)が激しく高い

 ドライバーの表情やしぐさ、そして声のトーンなどを読み取れるこのシステムは、“疲れているな”と読み取ったらクルマが休憩を勧めるなど、さまざまな可能性が開かれているのが容易に想像できる。それが、クルマが“愛車”へ向かう道筋なのか、それともツンデレ好きにとっては“余計なお世話”となるのかこれからのさじ加減だと思う。また、“愛車”になりすぎてしまったら別れがつらくなり、「次のクルマに買い換えられなくなる未来もあるのだろうか?」と思ってしまう部分もある。

 高度なAI、ディープラーニングが切り開く未来は、クルマをどう変えていくのだろうか? そんなことを感じたConcept-愛iのコックピット試乗だった。

編集部:谷川 潔