ディープラーニングを利用した非接触インタフェース
ディープラーニングによる画像認識
コロナの流行により、カメラで撮影した顔の位置を認識して体温を非接触で測定できる機器が普及しました。また、スマホのカメラやデジタルカメラで人物を撮影するときには、人物を認識して顔の輪郭が表示されることが当たり前になっています。
さらにディープラーニングを利用することで、顔の輪郭だけでなく、目や口などの顔の器官の位置や開閉動作も認識できます。画像から体や手の関節を認識し骨格を推定する技術は、医療・福祉、ヘルスケア、スポーツから匠の技術の伝承まで、多くの分野での活用が期待されています。
誰かのデキないをデキるに変えよう
キーボードやマウスを使えない場所や状況、あるいは使えない人でも、体の一部の動きを撮影し、それらをコンピュータにキーボードやマウスの操作として学習させることで、コンピュータの利用が可能になります。例えば、手の形を学習させると指文字の認識が可能になり、さらに一連の動きも含めて学習させることで手話の認識が可能になります。この認識技術を応用し、スマホのカメラを使った手話翻訳が実現できると、聴覚に障害がある人とのコミュニケーションがよりスムーズになると考えられます。
また、現在のスマホはタッチパネルでの入力が主流ですが、将来はメガネ型のスマホが主流になるかも知れません。そのときにも活躍するのが非接触インタフェースで、例えばメガネを通して空中に表示されたボタンを操作する「空中フリック入力」が可能になります。
ディープラーニングの実装
ディープラーニングの実現には、ネットワークのモデルを作成し、学習データを集めて学習させ、学習結果を評価するプロセスが必要で、特に性能を向上させるには学習するデータが重要です。
学習が完了したら、学習したネットワークを含めてプログラムに組込んで機能を実装することで、所望の課題を解決する処理が可能になります。
どのような課題に対して、どのような学習データを収集するかを考えることが、ディープラーニング実現の第一歩なのです。
※夢ナビ講義は各講師の見解にもとづく講義内容としてご理解ください。
※夢ナビ講義の内容に関するお問い合わせには対応しておりません。