Google、機械学習でなぜその結論に至ったかを明確にする「Explainable AI」を発表
人工知能(AI)がどのように機能するのか、自信を持って理解していると言える人はそれほど多くない。Googleが「Google Cloud Next '19 UK」で発表した新たなツール 「Explainable AI(説明可能なAI)」は、機械学習(ML)の難解さを分かりやすくするものになるかもしれない。
Explainable AIは、データセット内の各特徴がアルゴリズムの導き出した結果にどの程度の影響を与えたのかをスコアの形で定量化する。ユーザーはそのスコアを参照することで、あるアルゴリズムが何らかの判断を下した理由を理解できるようになる。例えば、誰かに対する融資の承認可否を決定するモデルの場合、Explainable AIは口座残高や信用度が最も重要なデータであることを示してくれるのだという。
医療などの一部の分野では、AIの透明性を向上することにつながるかもしれないとしている。
情報元へのリンク