言葉にならないものまで理解する「会話エージェント」って?
人のしぐさや表情を読み取るコンピュータ
私たちがコンピュータを扱う時、多くの場合はキーボードやマウス、タッチパネルなどを利用します。最近では、こうした従来のインタフェースのほかに、人が話しかけるなどすることによってロボットやアニメーションのキャラクタが応答を返してくれる「会話エージェント」と呼ばれるシステムの開発が進められています。会話エージェントは会話の内容そのものだけではなく、人間のジェスチャーや視線、表情などといった非言語的な要素も読み取った上で、より自然なやりとりを実現できる段階にまで到達しています。
まずは人間の行動パターンを調べ、反映させる
ジェスチャーや視線、表情などの非言語の要素を会話エージェントの技術に取り入れるには、プログラミングなどよりも先に、まずは人間の行動パターンそのものを綿密に調べる必要があります。人はどんな気分の時に、どういった視線の動かし方をするのか? どういった姿勢をとり、どんなしぐさをするのか? そういった膨大なデータを蓄積して分析し、得られた結果をどのようにしてエージェントの動作に反映させるのかを考えていかなければなりません。
こうした非言語の要素をうまく取り入れると、例えば複数の人が出席している会議の場などで、参加者の態度を分析し、それに応じて話を振って発言を促す会話エージェントを作ることが可能になります。
人間の行動を変える力を秘めた会話エージェント
会話エージェントの研究がさらに進むと、私たちの身の回りでも、さまざまな場面に応用することが可能になります。最近の例では、高齢者を介護する人の負担を減らすために、高齢者と会話をするエージェントが開発されています。このエージェントでは、高齢者の心の部分の支援を行うとともに、会話の調子や抑揚などからその人の健康状態を判断する機能などの導入も研究されています。将来実現されるエージェントは、人間の生活を支え、その行動を変えていく力までも秘めているのです。
※夢ナビ講義は各講師の見解にもとづく講義内容としてご理解ください。
※夢ナビ講義の内容に関するお問い合わせには対応しておりません。