研究シーズ

Research Seeds

AI の判断根拠を探る

研究者:加藤 邦人

キーワード
説明可能なAI、解釈可能なAI、AI の信頼性

岐阜大学工学部電気電子・情報工学科

加藤 邦人

説明可能AIは、AIの実利用に欠かせない技術で、現在多方面で研究が行われています。AI導入の加速や、改良に役立てます。

最近の研究テーマ

✦ コンピュータビジョン、画像認識の基礎理論と産業応用
✦ 深層学習
✦ 画像認識、物体検出、追跡、行動認識、異常検知
✦ 感性情報処理

研究概要

 

近年、AIや機械学習の研究が盛んにおこなわれ、その精度が人間を超える分野が次々と現れています。しかし、高い精度の判定ながらAIはブラックボックスで、その判断根拠がユーザには分かりません。AIを導入したい場面であっても、ユーザへの説明が果たせないために信頼を得ることが難しいことが多々あり、実利用の妨げになっています。

当研究室が主に扱っているコンピュータビジョンを対象に、説明可能なAIの研究開発を行なっています。画像認識をAIが行なった際に何を根拠にその判断を行ったのかを可視化するなど、人間にとって分かりやすく説明することで、AIの利用への敷居を下げ、AIの信頼性を高めることを目標としています。

最近では、画像認識を用いた異常検知の分野と組み合わせて、画像からその部分を異常だと判断した際に何を根拠にそのモデルが判断したかを説明できるような方法の研究を行なっています。

産業界へのアピールポイント

  • AI、機械学習に対する信頼性の向上
    (説明性を付与することでユーザが安心して使える)
  • ニーズに応じた説明手法の開発
    (問題設定に合わせた説明の研究)
  • 他のAI、機械学習モデルとの差別化
    (予測のみを提示するモデルとの差別化)

画像はR R.Selvaraju, et al. Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization より引用

 

分野で探す

研究シーズ検索に戻る

お問い合わせ

Contact us

航空宇宙生産技術開発センターへのお問い合わせは、
電話またはメールにて承っております。