ニュース
アカザーのNTTドコモと久留米工業大学の「対話型AI自動運転車いす」を体験しました
AIによる自動運転と5Gによる遠隔操作サポートで、車いすにも自動運転時代が到来!
2021年3月8日 15:15
- 2021年3月5日 開催
どうもアカザーっす!2000年に怪我で脊髄を損傷して以来、車いす歴20年ものオレです。普段、オレが足がわりに使っているのはOXエンジニアリング製の手動式車いす。でも、今どきの最新車いすはドコモ5Gを使った自動運転で、しかもAI搭載なんですか!? そんなの聞いたら体験したくなるじゃないですか!なりますよね~!
というワケでやって来たのは、3月5日にパシフィコ横浜で行なわれた「Minatomirai 5G Conference」。これは5G時代における街づくりや映像伝送の活用事例、スタートアップによる事業プレゼンなどを紹介するカンファレンス。
オレが目指すは「対話型AI自動運転車いす」を体験できるブース。なお今回はコロナ対策もあり、入場制限のうえ事前登録者のみの体験取材となりました。
障碍者や高齢者がひとりでも気軽に外出できる自動運転車いす
まずはこの「対話型AI自動運転車いす」で何ができるのか? をブース前に展示されていたモニターに、わかりやすい解説ムービーが公開されていました。
そこで紹介されていた、対話型AI自動運転車いすの主なポイントとしては、以下の3つの特徴になります。
【「対話型AI自動運転車いす」3つの特徴】
1:ひとりでも自由に移動できる
2:AIと会話をするだけで目的の場所に自動運転でアクセス
3:細かなリクエストには5Gを使いオペレーターが対応
NTTドコモと久留米工業大学が開発した自動運転車いす
この「対話型AI自動運転車いす」は、NTTドコモと久留米工業大学が開発した、介助者なしでも移動が可能な人工知能搭載の対話型電動車いす。すでに2018年より実証実験を実施しており、今回発表したモデルではNTTドコモの5G回線を使うことで、リアルタイムでの遠隔地からの車いすサポートを実現したもの。
AIによる自動運転だけだと、GPSを見失った際にコントロールを失う場合もあるので、その場合は遠隔地からオペレーターが車いすから転送される画像やデータを見ながらサポートを行なう仕組み。
これまでも4G回線を使ってリモートサポートは可能だったみたいなのですが、遅延のせいで操作に慣れるまで少しコツが必要だったとのこと。しかし、NTTドコモが開発した「エッジAI対応5Gデバイス」を使うことにより、その操作感がほぼリアルタイムといえるほどに向上!
さらに、「エッジAI対応5Gデバイス」は電動車いすのAI自動運転に加えて、遠隔操作用の映像に顔検知やプライバシー保護のモザイク処理などをかけ、5G回線で瞬時にオペレーターへ転送することも可能とした。これにより、病院などプライバシーが重視される場所での運用がしやすくなったとのこと。
「対話型AI自動運転車いす」には車いすの周囲を俯瞰できる高い位置に、ウェブカメラ、360度カメラ、2眼カメラ、赤外線センサーなどを適宜搭載可能。また複数のカメラやセンサーを同時に使用することができる。
実際に車いすユーザーが体験してみた
今回ブースにおいて、ショッピングモールに来たという想定のデモを体験することができました。
「対話型AI自動運転車いす」に座ったら、まずは左の肘置きにマウントされているスマホに向かって音声入力。マイクのアイコンをタップするとコンシエルジュAIから「お名前を聞かせてもらえますか?」との音声案内が。
これは名前を聞くことで過去に利用した履歴やID登録情報から、利用者の好みにマッチしたお店や商品、開催されているイベントなどを紹介するためだとのこと。
名前を伝えると、AIが音声で「本日は体験ですので、ご案内できるのは食器売場とぬいぐるみ売場です。どちらにいたしましょう」との案内が。
食器売場を選択したところ「それでは自動運転で案内します」とのアナウンスが流れ、ゆっくりと動き出す。
ブースに設置された柱を避けながら、壁に当たらないように右に回り込んで目的地の食器売り場へ。途中の柱や壁などの障害物はライダーという赤外線センサーで探知し、そのデータをクラウドに送り瞬時にルートを決定。そのルート情報をもとに自動運転を行なっているとのこと。
食器売り場に到着後、「開催中の福岡物産展に向かいたい」と音声入力したところ、AIからは「詳しいスタッフと変わりますのでサポートセンターとTV電話を繋ぎます」のアナウンス。
アナウンスが流れてすぐにスマホの液晶画面にサポートセンターのスタッフが登場し、「遠隔操作で福岡物産展にご案内いたします」との案内があり、車いすが動き出す。
先ほどまではAIによる自動運転だったが、今回は遠隔地に居るオペレーターが車いすに取り付けられたウェブカメラや360度カメラを見ながらリモートで操作。言われれば先ほどのAIに比べていくぶん動きがスムーズな気も?(笑)。
福岡物産展に到着後、TV電話越しにオペレーターにおススメを聞くと「博多通りもん」をおススメされる(笑)。ゆくゆくは顧客IDを管理することでeコマースと連動させ、気に入ったお土産を購入し、そのまま自宅に届けてもらうなんていうサービスも考えているとのコト。
あ~!これは何気にめっちゃありがたいサービスかも!なぜなら俺が車いすでお土産を買う際にいちばん気にしているのが、購入したお土産がかさばらないか? というコトだからです。
車いすでお土産を買いすぎると、車いすの操作が難しくなるんですヨ!なので、毎回お土産を購入する際には、リュックに入る量なのか? そのお店に宅配サービスはあるか? などを気にして購入していました。しかし、eコマースと連動したこのサービスが実用化されれば、そんな悩みも過去のものに!
ラジコンマニアが5Gの遠隔操作を体験
そんな感じでデモは終了したのですが、ラジコンマニアとしてはひとつどうしても気になるコトが。それは「5G回線を使った遠隔操作はどれだけスムーズなのか?」という疑問。
なので、スタッフの方にお願いして遠隔操縦の体験までさせてもらいました!そして、これがクラウドを経由しているとは思えないほどリニアな操作感でマジ凄かったんですヨ!
まるで車いすをラジコンのように直接操作しているかのようなレスポンス!コントローラーで操作したとおりに車いすが動く!これがデータをいちどクラウドにあげ、サーバーを経由して動かしているとは思えない操作感。
ただウェブカメラからの画像を見ながらの操作だと0.1~0.3秒ほどのラグを感じる場面も。これはもしかしたらウェブカメラの性能によるものかも? ともあれ、あくまでラジコンマニアな俺の厳しめの感想なので、フツーの人ならこれぐらいの遅延ならほぼリアルタイムな操作感に感じると思います。
実用化はいつ? どんな場所から?
最後に、開発の中心人物である久留米工業大学の東大輔教授に「対話型AI自動運転車いす」の今後の展開についてお聞きしました。
東教授:すでに久留米商店街などでの公道実験を終え、現在は介護施設などで実験的に運用を開始しております。現実的な商用化としては来年度の導入を目指しています。
本日体験していただいたショッピングモール以外の運用では、病院や介護施設への導入を考えています。病院での使用例を挙げると、病室からレントゲン室まで移動>レントゲン撮影>内科を受診というような院内の移動には、基本AIによる自動運転で対応します。一方、外出しての買い物などには、遠隔地からのリモートサポートで柔軟に対応するといったイメージです。
この車いすの自動運転が実現すれば、外出時に介助者の助けが必要だという理由で外出することに高いハードルを感じていた方も、もっと気軽にショッピングや旅行を楽しむ事ができるようになると思います。また、少子高齢化による介助者不足も緩和されるのでは? と期待しております。
今回「対話型AI自動運転車いす」を体験していちばん強烈に感じたのは、これは従来の車いすの概念を変えるものになるのでは? というコト。また、車いすという枠には収まりきらない「次世代のパーソナルモビリティ」としての可能性でした。「対話型AI自動運転車いす」のベース車両となっている「WHILL」にはじめて乗った時にも感じましたが、未来は気付けば現実になっていたりするんですよね~。なんかワクワクするなぁ。