ニュース

三菱電機、AIにより約100m後方の物体をリアルタイムで認識可能となった「電子ミラー向け物体認識技術」説明会

人の視覚特性を低演算量でモデル化し、ディープラーニングに活用

2018年1月17日 開催

「電子ミラー向け物体認識技術」の車載向け組み込みシステム。演算量を抑えることでさまざまなクルマに搭載できるという

 三菱電機は1月17日、車両後側方の物体を約100mの遠方から早期にカメラで認識する「電子ミラー向け物体認識技術」を開発したと発表。同日に技術説明会を開催した。

 今回三菱電機が開発したのは、人の無意識下での生理反応となる視野内の目立つ領域に優先的に注目する「視覚的注意」を模倣した、独自のアルゴリズムによる「視覚認知モデル」を活用した物体認識技術。従来の物体認識技術では、映像中の静止体と移動体を動きの違いで接近物として判断していたが、見通しのよい直線道路で乗用車程度の大きさの物体を検出できる距離は約30mと限られていた。今回開発された視覚認知モデルを用いた技術では、同条件での物体の最大検出距離を約100mまで拡大。検出精度を14%から81%に向上させ、高速道路での事故防止に重要な接近車両の早期発見に大きな効果が期待されるとした。

 また、視覚認知モデルを三菱電機のAI(人工知能)技術「Maisart(マイサート)」に取り入れ、検知した物体の種類(人、乗用車、トラックなど)を識別することで、検出から識別までを低演算量で実現。車載向け組み込みシステム上でリアルタイムに動作させることが可能となった。

三菱電機株式会社 情報技術総合研究所 所長 中川路哲男氏

 技術説明会では、はじめに三菱電機 情報技術総合研究所 所長 中川路哲男氏が「AIに関しては昨年からいろいろとニュースリリースを発表いたしまして、さまざまなアプリケーションや事業ということで今までご説明をしてきましたが、今回は電子ミラー向けの物体認識ということでご説明するものでございます」と挨拶。

 続けて、「電子ミラーとAIをうまく組み合わせてクルマを安全に便利にしていこうということで技術開発を進めている」と述べ、2017年5月に発表したAI技術「Maisart」について触れるなど、AI技術の取り組みについて説明を実施。最後に「いろいろな形でAIを進化させていきたいと考えております」と話して挨拶を締めくくった。

中川路氏のAIに関する説明で紹介された資料

 次に、三菱電機 情報技術総合研究所 知能情報処理技術部長 三嶋英俊氏が電子ミラー向け物体認識技術について説明を行なった。

三菱電機株式会社 情報技術総合研究所 知能情報処理技術部長 三嶋英俊氏

 まず、三嶋氏は電子ミラーについて「後側方の映像を確認するだけでなく、映像解析を行なって接近してくる車両を認識するという付加価値を与える」と前置き。課題として「遠方の物体を早く見つけてくること」を挙げ、「実際のカメラ映像では(対象物が)米粒のように小さく写るということで、AIを使った物体認識というのはかなり難しいことになる。対象物が20画素程度でも正しく認識するということが必要となり、ズームしても50m、100m先の画像はきれいに写らないという状況になる。このなかで正しく認識することが課題として重要なものになる」と説明。

 そこで、組み込みのシステムの中に乗せられるように、アルゴリズムをコンパクトにして計算量を少なくしたディープラーニングを利用。視覚認知モデルという人間の脳の中の視覚情報処理で、遠方の画像から物体の領域部分を検出し、その領域をディープラーニングで詳細に認識をすることで、物体がトラックなのか乗用車なのかを判断するという。さらに、物体の周辺領域についてはディープラーニングを適応しないことで、全体的なシステムとしての計算付加を削減。これらのことにより、カメラ画像をリアルタイムに処理できるようにしたとしている。

 また、今後については「ミリ波レーダーやLiDARなどのセンサーと合わせて認識をすることで、検出精度を上げてまいりたいと思ってございます。例えば、カメラの見通しがわるいような状況下では、カメラ以外の情報も合わせて使うことも有用であると考えており、そのような方向へ進みたいと考えています」と語った。

三嶋氏の説明で使用されたスライド資料

 最後に、事前に撮影した映像を使ってリアルタイムに認識を行なう電子ミラー向け物体認識技術のデモンストレーションと質疑応答が行なわれ、説明会は終了した。

動画1フレームにつき約30ミリ秒で側後方の対象物を検知するため、後方を走行する車両が入れ替わってもすぐに認識が行なわれる。なお、AIは錯覚を起こさないように学習を行なっているという
約100m離れていてもしっかりと検知・認識され、枠の色によって乗用車なのかトラックなのかを判断可能
まだ前後の画像の統合を行なっていないため、対象物の認識を継続することができず、認識した対象物から枠が外れてしまうこともあるという。今後は継続して認識されるようなシステムの開発も検討しているとのこと