音のインタフェースでコンピュータとの自然な会話をめざす
音を使ったインタフェース
インターネット検索やメッセージ、地図アプリなど、私たちは日常生活のほとんどの情報を視覚から収集しており、いまや視覚情報は飽和状態です。そこで、視覚から得ている情報の一部を、ヘッドフォンなどを通じて聴覚で得ることができれば、私たちの暮らしはより安全で豊かになると期待できます。例えば、「歩きスマホ」が危険なのはスマホの画面に視覚が集中してしまうためですが、聴覚を通じた音によるナビゲーションになれば、周囲にもっと視覚的な注意を払えるでしょう。そこで、音を人と機械とのインタフェースととらえて、人間とコンピュータがスムーズにコミュニケーションできるような立体音響の研究が行われています。
聞こえ方からのアプローチ
聞こえ方は人によって違い、片方の耳が聞こえにくい人もいれば、加齢などで聴力が低下している人もいます。そこでたくさんの被験者に参加してもらい、音源の位置を特定する実験や音響を評価する実験が行われています。実験結果は、機械学習やデジタル信号処理などの技術だけでなく心理学も取り入れて検証し、さまざまな聴覚の人に対応できる音響システムをめざした開発が進められています。
AIやロボットと自然に会話する未来
コンピュータが人間の話し声をうまく認識するための研究も必要です。例えば、言語によって「きしみ声」という特殊な発音に特定の意味がある場合があります。そこで機械学習を使って、あるきしみ声が普通の発声なのか意味のある発声なのかを予測させます。このきしみ声の判別は、将来、病気の初期症状の予測にも役立つ可能性があります。そのほか、周囲に雑音があるときの音量調節などの研究も行われています。コンピュータが人の声をよく認識できるようになれば、人の疲れた声を検知したなら手短に話すといったように、人とコンピュータのより自然な会話が構築できるでしょう。
また音のインタフェースや立体音響の研究は、拡張現実や仮想現実にも貢献するものとして期待されています。
※夢ナビ講義は各講師の見解にもとづく講義内容としてご理解ください。
※夢ナビ講義の内容に関するお問い合わせには対応しておりません。