ニュース
京セラ、長距離の物体を高精度検知する「カメラ-LiDARフュージョンセンサ」と極小物体の距離計測可能な「AI測距カメラ」開発
2024年11月12日 11:20
- 2024年11月11日 開催
京セラは11月11日、カメラとLiDARを光軸一致させる世界初の技術を採用した「カメラ-LiDARフュージョンセンサ」、ステレオカメラとAIの活用で極小物体の距離と大きさを計測できる世界初の「AI測距カメラ」の2種類を発表した。
神奈川県横浜市にある京セラみなとみらいリサーチセンターで実施された技術説明会ではそれぞれの製品が展示され、実際の動作を紹介する技術デモも披露された。
カメラ-LiDARフュージョンセンサは100m先にある30cmの落下物も検知
カメラ-LiDARフュージョンセンサについては京セラ 研究開発本部 システム研究開発統括部 LIDARプロジェクト責任者 岡田浩希氏が解説。
車両のフロントバンパーに設置され、自動運転の際に前方認識を行なうカメラ-LiDARフュージョンセンサは、これまで別々の製品として周辺にある物体の3D情報や色情報を含む画像データを収集していたLiDARとカメラを一体化。正面に向けたLiDARとLiDAR前方に置いたカメラ用のハーフミラーが捉える映像の光軸を一致させる独自技術により、センサー間のキャリブレーションの必要なく、得られた3D情報と画像データをリアルタイムで統合可能にして高度な物体認識を実現している。
岡田氏はカメラ-LiDARフュージョンセンサの特徴として「光軸一致による簡便なデータ重畳」「特殊な光学系による世界最高の解像度」「独自のMEMSミラーによるLiDARの高耐久化」の3点を挙げ、技術開発では京セラグループで手がけているセラミック+半導体、光学技術、回路・制御、光走査といったコア技術を融合させたと紹介。
2017年からスタートした開発では、カメラとLiDARの融合による視差のないデータ重畳を最大のコンセプトとして設定。それぞれ別の製品で車両などに設置した場合、データを重畳させるには設置場所ごとのキャリブレーションが必要となり、片方にしかデータが存在しないオクルージョンも発生する。さらにソフトウェアでの処理負荷が増加する点もデメリットとなっており、カメラとLiDARを融合させることでこうした問題を解消できる。また、部品製造からソフトウェア開発まで京セラですべて手がけることで、納入先となる自動車メーカーなどのニーズに応じて細かなカスタマイズが可能である部分も強みとしている。
世界最高を標榜する照射密度を実現するきっかけとなった背景として、国土交通省の物流・自動車局が6月に発表した「自動運転車の安全確保に関するガイドライン」に、従来のクルマや2輪車、歩行者に加え、路上に横たわっている横臥者やタイヤなどの落下物、動物などに対応することを目的とした「自車の最低地上高よりも高さがある障害物を検知して、衝突を回避する能力を確保すること」という項目が用意されたことを説明。
このガイドラインは現時点では20km/h以下で走行する車両には適用されないものの、今後の高速化に向けて自動運転の車両に求められる性能になるとの考えから、路面の低い位置にある障害物を路面の凹凸や影などと区別して、できるだけ遠距離から検知してドライバーへの警告や穏やかな衝突回避ができるセンサーの実現に向けて開発を進めてきた。
この結果としてカメラ-LiDARフュージョンセンサでは、「100m先にある30cmの落下物も検知可能」という世界最高の最高垂直分解能0.0045度を実現。実例として70m先にある横倒しのタイヤを障害物としてきちんと検知しているテスト風景を紹介し、これは他社製のLiDARよりも細かく多数のレーザー光を照射する独自開発のMEMSミラーの採用によって垂直分解能を高め、遠距離にある対象物も多数の点群データによって高精度な検知を実現している技術コンセプトだと解説した。
MEMSミラーでも京セラが得意とするセラミックパッケージと半導体の生産技術を使い、LiDARセンサーの高耐久化を図りつつ、MEMSミラーでもモーター式を上まわる高解像度を実現しているという。
カメラ-LiDARフュージョンセンサは2027年度中の事業化を予定して30億円の事業規模を見込んでおり、2025年からLiDARセンサーの検出範囲別に、測定範囲60~100m、視野角100×24度の「Short」、測定範囲120~200m、視野角50×15度の「Long」の2種類をサンプル展開する予定となっている。
また、乗用車以外での展開では、バスなどは自動運転で乗り越えるべきハードルが多く、まだしばらくのあいだはLiDARだけでも十分という声も多い一方、重機・建機の分野では引き合いが強いと紹介。もともと重機や建機が運用されるメインとなるのは建設現場などの私有地で環境が整っており、近年の人手不足で自動運転の導入に積極的で、仮に事故が発生した場合でも人的被害と無縁になるなど費用対効果も高く、大きな需要が見込まれていると岡田氏は語った。
AI測距カメラは1mm程度の極小サイズまで物体を識別
AI測距カメラの説明では、まず京セラ 研究開発本部 先進技術研究所 第2基盤技術ラボ コンピュータビジョン研究課 責任者 林佑介氏が開発の背景や特徴などについて解説。
産業用ロボットの自動化に向けたビジョンセンサーであるAI測距カメラでは、1つのイメージセンサーに2枚のレンズを並べて配置する独自のステレオカメラ構成を採用。基線長(レンズ間距離)を狭めることで、ステレオビジョンによる視差を利用して対象物までの距離や大きさを計測しながら、計測可能な距離を10cmまで近づける超近距離センシングを実現。ステレオビジョンが測定を苦手とする「光沢反射がある物体」「半透明の物体」「テクスチャの少ない物体」などの対象物を、AIベースのステレオビジョンアルゴリズムで高精度に距離計測する技術となっている。
林氏は、製造現場では人材不足が深刻さを増しており、AIやロボットを活用した自動化が推し進められており、今後に向けてこれまで自動化されていない分野でもAIやロボットの導入が求められるようになったことが開発のきっかけになっていると説明。
従来からある距離測距カメラでは対応が難しい極小サイズの物体、光沢反射がある物体、半透明な物体などを正確に計測できる技術としてAI測距カメラが生み出され、工場や製造現場で同じような部品の中から特定サイズのものを選別するアームロボットの距離計測のほか、医療現場における高精細な人体の計測や手術器具など反射がある物体の認識、物流や小売り現場での搬送ロボットの周辺監視などさまざまな分野で活用され、労働力不足の解消に貢献していくとした。
AI測距カメラの特長としては、「高精度での距離計測」「光沢・半透明部品の計測が可能」「小型・軽量」の3点を紹介。
高精度での距離計測では、従来品は測距カメラとして2つのカメラを組み合わせて使っており、カメラの筐体同士が干渉して2つのレンズを近づけることができず、近距離での正確な距離計測が不可能となっていた。AI測距カメラでは独自のステレオカメラ構成によって測距レンジ10cm~という超近距離センシングを可能としたほか、計測誤差0.1mmという高精度の測距も実現している。
光沢・半透明部品の計測では、従来手法では左右2つの画像を比較するために物体の特徴点同士をマッチングさせる段階で、光沢の反射などでマッチングが難しくなると計測誤差が発生する原因となっていたが、AIベースのステレオビジョンアルゴリズムを組み合わせることで高精度な距離計測を可能としている。
技術解説は開発を担当した京セラ 研究開発本部 先進技術研究所 第2基盤技術ラボ コンピュータビジョン研究課 2係責任者 菅原俊氏が担当。
AI測距カメラで林氏が紹介した3つの特長を実現するため、アナログ技術の光学技術とデジタル技術のAIを融合させて採用。光学技術では1つのイメージセンサーに2枚のレンズを並べて配置する独自のステレオカメラ構成を編み出したほか、この特異なスタイルを活かした光学キャリブレーション手法も構築して、高精度な3次元距離計測と小型・軽量化を実現している。
光沢のある部品や半透明部品を計測し、距離計測の精度を高めるAIでは、画像に領域情報を付与する独自の事前学習技術を用いることで、正解データを不要としつつ従来手法と比較して10分の1の学習データ利用で従来手法同等の認識精度を達成。学習時間を大幅に短縮し、正解データを用意する作成コストも不要としている。
これに加え、AIの事前学習で利用する学習データを用意するため、CGによる学習データ生成技術を開発。対象物や対症環境を再現したCGシミュレーション環境を構築して、この環境内で学習データ生成技術を走らせることで学習データの自動生成を実現。AIの学習方法を工夫することで新規対象、新規環境に適合させているという。
AI測距カメラは2025年4月から京セラ社内での利用を始め、2026年以降からAI測距カメラを備えた産業用ロボットとして社外への販売を開始する予定。2027年度中に150億円規模の産業用ロボット市場に向けて事業化を目指していく。