ニュース

アカザーのNTTドコモと久留米工業大学の「対話型AI自動運転車いす」を体験しました

AIによる自動運転と5Gによる遠隔操作サポートで、車いすにも自動運転時代が到来!

2021年3月5日 開催

 どうもアカザーっす!2000年に怪我で脊髄を損傷して以来、車いす歴20年ものオレです。普段、オレが足がわりに使っているのはOXエンジニアリング製の手動式車いす。でも、今どきの最新車いすはドコモ5Gを使った自動運転で、しかもAI搭載なんですか!? そんなの聞いたら体験したくなるじゃないですか!なりますよね~!

 というワケでやって来たのは、3月5日にパシフィコ横浜で行なわれた「Minatomirai 5G Conference」。これは5G時代における街づくりや映像伝送の活用事例、スタートアップによる事業プレゼンなどを紹介するカンファレンス。

3月5日にパシフィコ横浜で行なわれた「Minatomirai 5G Conference」
どうもアカザーっす!(イラスト・水口幸広)

 オレが目指すは「対話型AI自動運転車いす」を体験できるブース。なお今回はコロナ対策もあり、入場制限のうえ事前登録者のみの体験取材となりました。

NTTドコモと久留米工業大学が開発した「対話型AI自動運転車いす」の体験ブース

障碍者や高齢者がひとりでも気軽に外出できる自動運転車いす

 まずはこの「対話型AI自動運転車いす」で何ができるのか? をブース前に展示されていたモニターに、わかりやすい解説ムービーが公開されていました。

【対話型AI自動運転車いす 解説ムービー】NTTドコモと久留米工業大学が開発した対話型AI自動運転車いす 解説ムービー

 そこで紹介されていた、対話型AI自動運転車いすの主なポイントとしては、以下の3つの特徴になります。

【「対話型AI自動運転車いす」3つの特徴】
1:ひとりでも自由に移動できる
2:AIと会話をするだけで目的の場所に自動運転でアクセス
3:細かなリクエストには5Gを使いオペレーターが対応

デモムービーでは自動運転で利用者のもとまで走り出迎えるシーンも
車いすに搭載されたAIと会話することで、自動運転で目的地に連れていってもらえる
5G回線を使った遠隔サポートにも対応

NTTドコモと久留米工業大学が開発した自動運転車いす

 この「対話型AI自動運転車いす」は、NTTドコモと久留米工業大学が開発した、介助者なしでも移動が可能な人工知能搭載の対話型電動車いす。すでに2018年より実証実験を実施しており、今回発表したモデルではNTTドコモの5G回線を使うことで、リアルタイムでの遠隔地からの車いすサポートを実現したもの。

NTTドコモと久留米工業大学が開発した「対話型AI自動運転車いす」
電動式車いす「WHILL Model C2」がベースとなっている

 AIによる自動運転だけだと、GPSを見失った際にコントロールを失う場合もあるので、その場合は遠隔地からオペレーターが車いすから転送される画像やデータを見ながらサポートを行なう仕組み。

 これまでも4G回線を使ってリモートサポートは可能だったみたいなのですが、遅延のせいで操作に慣れるまで少しコツが必要だったとのこと。しかし、NTTドコモが開発した「エッジAI対応5Gデバイス」を使うことにより、その操作感がほぼリアルタイムといえるほどに向上!

車いすに搭載される「エッジAI対応5Gデバイス」。これまではクラウドで処理していた各種データの解析などを、車いす側で処理することを可能にした

 さらに、「エッジAI対応5Gデバイス」は電動車いすのAI自動運転に加えて、遠隔操作用の映像に顔検知やプライバシー保護のモザイク処理などをかけ、5G回線で瞬時にオペレーターへ転送することも可能とした。これにより、病院などプライバシーが重視される場所での運用がしやすくなったとのこと。

プライバシー保護のため、顔の部分はモザイク処理される

「対話型AI自動運転車いす」には車いすの周囲を俯瞰できる高い位置に、ウェブカメラ、360度カメラ、2眼カメラ、赤外線センサーなどを適宜搭載可能。また複数のカメラやセンサーを同時に使用することができる。

デモ機に装着されていたのは、低遅延性に優れるウェブカムと、背後を含む周囲の状確認用の360度カメラ。障害物検知用の赤外線センサーの3つ。すべて頭の上の高い位置に配置される
遠隔地からのサポートでは、主に遅延の少ないウェブカメラからの映像を使用
2眼カメラは対象までの距離を正確に測れるのが利点。「エッジAI対応5Gデバイス」を使うことで、これら複数の入力機器からのデータを瞬時に処理。AIによる自動運転や遠隔地からのサポートに使われる

実際に車いすユーザーが体験してみた

 今回ブースにおいて、ショッピングモールに来たという想定のデモを体験することができました。

車いす歴20年の筆者が、普段使用している自走式車いすから移乗して体験

「対話型AI自動運転車いす」に座ったら、まずは左の肘置きにマウントされているスマホに向かって音声入力。マイクのアイコンをタップするとコンシエルジュAIから「お名前を聞かせてもらえますか?」との音声案内が。

操作は基本的に音声入力で行なう

 これは名前を聞くことで過去に利用した履歴やID登録情報から、利用者の好みにマッチしたお店や商品、開催されているイベントなどを紹介するためだとのこと。

 名前を伝えると、AIが音声で「本日は体験ですので、ご案内できるのは食器売場とぬいぐるみ売場です。どちらにいたしましょう」との案内が。

会話のやりとりはスマホのディスプレー上に表示される

 食器売場を選択したところ「それでは自動運転で案内します」とのアナウンスが流れ、ゆっくりと動き出す。

 ブースに設置された柱を避けながら、壁に当たらないように右に回り込んで目的地の食器売り場へ。途中の柱や壁などの障害物はライダーという赤外線センサーで探知し、そのデータをクラウドに送り瞬時にルートを決定。そのルート情報をもとに自動運転を行なっているとのこと。

ブース内に置いてある柱なども、自動運転で危なげなくスムーズに回避

 食器売り場に到着後、「開催中の福岡物産展に向かいたい」と音声入力したところ、AIからは「詳しいスタッフと変わりますのでサポートセンターとTV電話を繋ぎます」のアナウンス。

 アナウンスが流れてすぐにスマホの液晶画面にサポートセンターのスタッフが登場し、「遠隔操作で福岡物産展にご案内いたします」との案内があり、車いすが動き出す。

AI制御の自動運転からオペレーター制御の自動運転は、タイムラグや違和感なく切り替わる

 先ほどまではAIによる自動運転だったが、今回は遠隔地に居るオペレーターが車いすに取り付けられたウェブカメラや360度カメラを見ながらリモートで操作。言われれば先ほどのAIに比べていくぶん動きがスムーズな気も?(笑)。

 福岡物産展に到着後、TV電話越しにオペレーターにおススメを聞くと「博多通りもん」をおススメされる(笑)。ゆくゆくは顧客IDを管理することでeコマースと連動させ、気に入ったお土産を購入し、そのまま自宅に届けてもらうなんていうサービスも考えているとのコト。

オペレーターから紹介してもらったおススメのお菓子も、今後はeコマースと連動させることで、口頭で買って宅急便で家まで送るなんてコトも可能になる

 あ~!これは何気にめっちゃありがたいサービスかも!なぜなら俺が車いすでお土産を買う際にいちばん気にしているのが、購入したお土産がかさばらないか? というコトだからです。

 車いすでお土産を買いすぎると、車いすの操作が難しくなるんですヨ!なので、毎回お土産を購入する際には、リュックに入る量なのか? そのお店に宅配サービスはあるか? などを気にして購入していました。しかし、eコマースと連動したこのサービスが実用化されれば、そんな悩みも過去のものに!

車いすユーザーとしては手ぶらで買い物ができるのはありがたい!

ラジコンマニアが5Gの遠隔操作を体験

 そんな感じでデモは終了したのですが、ラジコンマニアとしてはひとつどうしても気になるコトが。それは「5G回線を使った遠隔操作はどれだけスムーズなのか?」という疑問。

 なので、スタッフの方にお願いして遠隔操縦の体験までさせてもらいました!そして、これがクラウドを経由しているとは思えないほどリニアな操作感でマジ凄かったんですヨ!

【5Gリモート操作体験動画】NTTドコモと久留米工業大学が開発した「対話型AI自動運転車いす」5Gリモート操作体験

 まるで車いすをラジコンのように直接操作しているかのようなレスポンス!コントローラーで操作したとおりに車いすが動く!これがデータをいちどクラウドにあげ、サーバーを経由して動かしているとは思えない操作感。

コントローラーのスティックを倒した瞬間に車いすも動き出した!

 ただウェブカメラからの画像を見ながらの操作だと0.1~0.3秒ほどのラグを感じる場面も。これはもしかしたらウェブカメラの性能によるものかも? ともあれ、あくまでラジコンマニアな俺の厳しめの感想なので、フツーの人ならこれぐらいの遅延ならほぼリアルタイムな操作感に感じると思います。

実機を見ながらの操作では全く感じないライムラグも、モニター越しだと気持ち感じる場面も

実用化はいつ? どんな場所から?

 最後に、開発の中心人物である久留米工業大学の東大輔教授に「対話型AI自動運転車いす」の今後の展開についてお聞きしました。

久留米工業大学交通機械工学科学科長の東大輔教授

東教授:すでに久留米商店街などでの公道実験を終え、現在は介護施設などで実験的に運用を開始しております。現実的な商用化としては来年度の導入を目指しています。

 本日体験していただいたショッピングモール以外の運用では、病院や介護施設への導入を考えています。病院での使用例を挙げると、病室からレントゲン室まで移動>レントゲン撮影>内科を受診というような院内の移動には、基本AIによる自動運転で対応します。一方、外出しての買い物などには、遠隔地からのリモートサポートで柔軟に対応するといったイメージです。

 この車いすの自動運転が実現すれば、外出時に介助者の助けが必要だという理由で外出することに高いハードルを感じていた方も、もっと気軽にショッピングや旅行を楽しむ事ができるようになると思います。また、少子高齢化による介助者不足も緩和されるのでは? と期待しております。


 今回「対話型AI自動運転車いす」を体験していちばん強烈に感じたのは、これは従来の車いすの概念を変えるものになるのでは? というコト。また、車いすという枠には収まりきらない「次世代のパーソナルモビリティ」としての可能性でした。「対話型AI自動運転車いす」のベース車両となっている「WHILL」にはじめて乗った時にも感じましたが、未来は気付けば現実になっていたりするんですよね~。なんかワクワクするなぁ。