ニュース

ニュアンス・コミュニケーションズ、車載器のUX&UIにフォーカスしたプライベートイベント「Nuance Auto Forum Japan 2017」レポート

2017年11月17日 開催

「Nuance Auto Forum Japan 2017」講演会場

 音声認識技術に関する高い技術を持つニュアンス・コミュニケーションズは11月17日、東京都内でプライベートイベント「Nuance Auto Forum Japan 2017」を開催した。同イベント内で報道向けに発表会を開催したので、その模様をお伝えする。

 ニュアンスは、AppleのiOSなどに使用されている音声認識サービス「Siri」に技術提供を行なっているとみられており、今回のイベントでは車載分野で自動車メーカーや自動車パーツメーカーの関係者などを対象に、車載器のUX(ユーザーエクスペリエンス)やUI(ユーザーインターフェイス)をテーマとして将来像を語った。

複数のシステムを連携させて相互運用性を向上

SBDのパノス・コンスタントプロス氏

 同イベントでは、ニュアンス・コミュニケーションズのパートナーであり、自動車技術のコンサルティングや調査・評価サービスなどを提供しているSBDによる招待講演も行なわれた。登壇したSBD シニア・テクニカル・スペシャリスト UXストラテジー&リサーチのパノス・コンスタントプロス氏は、音声アシスタントを使用したスマートスピーカーが普及しつつあるなか、「タッチ」「音声」「ビジュアル」の3つが統合されることにより、新しく力強いUXが実現すると語った。

2022年には「タッチ」「音声」「ビジュアル」の3つを統合

 また、多くの自動車メーカーがデジタルアシスタントを導入すると発表しているが、車内に複数のデジタルアシスタントが存在する場合、それらをどのように統合するか、どのような利点が得られるかが今後は重要になると語った。また、顧客の期待に応えるために、OEM側は今後、より柔軟なアプローチが必要であり、ソフトウェアとハードウェアでもっと頻繁なアップデートが必要になると語った。

 さらに、音声認識システムの課題として、「発話後に音声によるユーザーへのフィードバックがないとユーザーが不安になる」「システムがコマンドを理解できず、選択肢を示す場合はUIに工夫や改善が必要」「システムに自然言語処理の能力がない場合は、人にコマンドを覚えさせることが必要」「音声認識を使いたくないという人に対してどうアプローチするか」「すべてを音声認識で行なう必要はなく、ダイヤルやボタンを操作する楽しさも重要」といった点を挙げた。

 これらを踏まえた上で、今後の音声認識に対する提案として、「ナビゲーションやコミュニケーション、エンターテインメントなど、個々の機能の基本に戻って考える」「まずはシンプルな使い方にフォーカスし、それから細かい機能を考える」「ユーザーによるシステムのトレーニング方法についても検討する」「変わったアクセントの言葉やエラーにも対処できるようにする」「AIを活用することで膨大な情報の中から適切な情報だけを伝える」といった5つの点を挙げた。

 さらに現状は複数のシステム同士が連携していないため、UXが継続・調和しないという課題があるが、ユーザーは車内・車外は関係なく1つのサービスとして見たいので、個々のサービスのアカウントを共有するなど、相互運用性を高めた「インターオペラビリティ2.0」という考え方を示し、それを達成することでシームレスな使い勝手を実現していくことが必要であると語った。

複数のサービスの相互運用性を高めることが必要

音声認識サービスを活用して走行状態に応じて説明書の情報を提供

ニュアンス・コミュニケーションズのアダム・エムフィールド氏

 さらに、ニュアンス・コミュニケーションズ オートモーティブ・ビジネスユニット プリンシパル・ユーザーエクスペリエンス・マネージャーのアダム・エムフィールド氏による講演も行なわれた。エムフィールド氏は米国でローンチした研究所「Drive Lab」を紹介し、Drive Labにおいてさまざまな新しいアイデアを試したり、実際に路上でのテストを行なったりしていると語った。また、Drive Labの現在の拠点はデトロイトだが、まもなくグローバルに展開すると語った。

「Drive Lab」を設立

 さらに、ユーザーが使用している自動車の紙の説明書を、従来よりも有効に活用するための取り組みについても紹介した。紙ベースのマニュアルをデジタル化して音声認識サービスとして提供する「スマートカーマニュアル」のアイデアは、ユーザーに好意的に受け止められている。ユーザーはクルマに会話や自己診断、自己認識などの機能を求めており、スマートカーマニュアルもその1つであると述べた。具体的には、クルマに関する質問を走行中に行ない、それに対してインテリジェントな回答が得られるようになることをユーザーは望んでいると語った。

ユーザーは会話や自己診断などの機能を求めている

 このほか、車内で複数のバーチャルアシスタントがある場合、どのように統合するかということについても語った。米国ではスマートフォンやスマートスピーカーによるバーチャルアシスタントを家庭内で利用するユーザーが増加しており、音声認識による操作に興味を持つ人が増えてきた。クルマのほうからユーザーに対してさまざまなことを提案することについても、それが的確なものであれば前向きな回答が得られている。ユーザーの希望としては、シンプルで正しい結果が出るのであれば、複数のアシスタントの中でどれがその結果を出そうが構わないと考えていると語った。

 エムフィールド氏は報道向けの説明会において、これらの発表内容についてより詳しい説明も行なった。音声認識によるマニュアルの提供については、単純にマニュアルを読み上げるのではなく、例えば走行中は情報量を少なく、駐車中は情報量を多くするなど、直面する状況に応じて適正な量の情報を提供すると語った。また、将来的には個々のドライバーの好みや使い方に合わせて情報を提供することも考えていると語った。

 さらに、今後目指しているのは自然言語処理の技術であり、すでに根本的な技術は確立しているが、実際にクルマに実装されるには、まだ3~4年はかかるだろうと語った。

 また、マイクの質がわるかったりすることで認識率が下がるなど、基本がきちんとできていないケースも多いので、そのような点を改良していくことも必要であると語った。ニュアンスは認識精度を上げるための方法として、ウインドノイズや騒音を排除する技術、発話者を限定してその声だけを拾う技術、音声による生体認証、ディープラーニング、AIによる自然言語の創出など、さまざまな取り組みを行なっていることを紹介した。

 ただし、すべてのUXとUIを音声認識に置き換えることは考えていないとも語った。例えば窓を下げる場合はボタンで操作するほうが便利だし、音量調整をする場合でも、ゼロから大きな音に切り替える場合は音声認識のほうがいいかもしれないが、微調整するならツマミを操作するほうが便利なため、正しいタイミングで適切な方法を使い分けることが必要であると語った。

エムフィールド氏(左)とコンスタントプロス氏(右)