「しゃべる・会話する」という日常行動を「科学の目」で見つめ直す
話しかけた言葉が正しく認識されないのはナゼ?
スマホの音声アシスタント機能を使おうとしたら、あなたの言葉を認識せずに的外れな回答が返ってきた、という経験はありませんか。このようなケースでAI(人工知能)が言葉を正しく認識しない要因の1つとして、「音環境」があげられます。周囲の雑音が混じっていたり、吐き出した息がマイクに強く当たったりすると、AIが音声を分析しにくくなるのです。この課題に対して、マイクの指向性や配置場所を変えたり、複数のマイクを声による信号処理で切り替えたりする手法が検討されています。
AIとスムーズに会話するには
コミュニケーションロボットが徐々に普及するにつれ、「AIと会話する」機会が増えてきました。今後、図書館や公共施設などへの導入が進むと思われますが、その場合、質問者とAIとの話の間(ま)がうまく噛み合わないケースがあります。人間同士の会話では、一方が話し終わりそうなタイミングを見計らってもう一方が話し始めることで、滞りなく進みます。AIは発声が終わってから言葉を認識し、回答内容を選ぶので、ワンテンポ遅れてしまうのです。このテンポのズレを解消するため、「今、聞いているよ」というジェスチャー機能をロボットに持たせるなどのアイデアが採用されつつあります。
リモートでは意外にしゃべりにくい
コロナ禍の影響で、リモート授業やリモート会議が当たり前になりました。ところが大学生約2千人を対象に行った調査では、3割ほどの学生が「リモートでうまくしゃべれていない」という苦手意識を持っていることが明らかになりました。「しゃべる」という行為は、多くの筋肉や脳の働きが協調して実現されるものなので、手先が不器用な人がいるのと同じように、口や舌の動かし方が不得手な人もいるのです。そこで、スマホのカメラを活用し、発語中の自分の口の開け方や表情の動きをチェックできるような手軽なトレーニングツールの開発が、知能情報学の研究を通じて進められています。
※夢ナビ講義は各講師の見解にもとづく講義内容としてご理解ください。
※夢ナビ講義の内容に関するお問い合わせには対応しておりません。
先生情報 / 大学情報
甲南大学 知能情報学部 知能情報学科 教授 北村 達也 先生
興味が湧いてきたら、この学問がオススメ!
知能情報学先生が目指すSDGs
先生への質問
- 先生の学問へのきっかけは?
- 先輩たちはどんな仕事に携わっているの?