「原理を理解できるAI」を作る AIの思考回路を探る研究

AIはブラックボックス
質問に答えたり、画像認識をしたり、絵を描いたりと、万能に思えるAIですが、実はAIがどういう道筋で考えて何を判断基準にしているかはわかりません。画像や文章などの学習データを大量に与えると、AIは自分で学習して答えが出せるようになります。その答えを人間が見て、正解率が低ければ高くなるようにさらに学習させる、といった方法でAIアプリは作られています。
説明可能なAIを
AIはデータを丸暗記して例えば「この言葉の次に〇〇が来る確率」で答えを出します。データが大量であるほど精度が上がります。今、AIの正解率は非常に高くなりました。しかしブラックボックスであるが故に、自動運転など命に関わる分野では、間違えたときにその理由がわからないためAIに任せることができません。また、データ収集に手間がかかり、学習にはたくさんの電力も必要で、環境問題への影響も心配されています。
例えば掛け算なら、AIは九九を丸暗記して答えを出します。AIに九九の原理を理解させる学習方法(アルゴリズム)があれば、少ない学習で正確な答えが出せます。そうしたアルゴリズム開発の最初のステップとして、思考手順がわかる「説明可能なAI」が求められています。
AIの「思考回路」を変える
現在、AIの計算過程(思考回路)を解析して答えに辿り着くための変数を見つけ、それらを操作して精度を上げる研究が行われています。例えば、色だけ違う同じ車の画像を生成したときに、その計算過程を解析した結果、その画像を表現する768次元の変数の一部が色に関わっていることがわかりました。
この方法を文章の生成AIに応用すれば、言葉の「意味」をAIに教えられる可能性があります。現在のAIは確率で言葉を推測するだけで「意味」を考えてはいないため、同じ意味でも、質問の言葉が違うと答えが異なることがあります。そこで、AIの計算過程からそれらの言葉に対応する変数を見つけて「同じ」と認識させる操作で精度が上がると考えられるのです。
※夢ナビ講義は各講師の見解にもとづく講義内容としてご理解ください。
※夢ナビ講義の内容に関するお問い合わせには対応しておりません。
先生情報 / 大学情報
