「説明可能なAI」ってなんだ?

私はコンピュータ関連の仕事を

しているので、コンピュータ用語を

スペイン語でどう表現するか

お伝えしますね。

 

今回は、


第27回「説明可能なAI」って何だ?

です。

以前テーマとして取り上げたAI、
凄まじい進歩を遂げていますが、
昨今ある問題が浮き彫りになってきています。

 

その問題とは。。。。

 

AIにより結果だけがわかり、
どんな根拠で判断に至ったか論理的に
説明できない。。。。。。

 

言われてみれば、なるほど
AIの主流となっている
ディープラーニング等の技術で
知識を蓄積していきますが、
判断に至る過程は
ブラックボックス」ですね。

 

2016年3月に囲碁AI「AlphaGo」が
世界トップクラスの棋士を破りましたが
アルゴリズムブラックボックスのため
複雑怪奇なAlphaGoの打ち筋に
解説者であるプロ棋士はもとより
AlphaGoを開発したメンバーさえも
勝因がわからなかったそうです。

 

この問題に対し、
近年「XAI(説明可能なAI)」という
技術が注目を浴びています。

 

英語で
Explainable Artificial Intelligence

 

スペイン語
Inteligencia Artificial explicable

 

になります。

 

医療・法律・金融・国防など
透明性や信頼性が要求される分野で
活用できるよう、
意思決定に理由を人に提示できる人工知能技術
のことを指します。

 

いわば「人間が腹落ちするAI」のことですね。

 

例えば
医療診断において、
AIによる画像診断で病気の早期発見や
見落としの改善などが期待できる反面、
AIの誤診・ご判断により適切な治療が行われず
患者の症状が悪化した場合、
説明できないとなったら到底納得できる
ものではないですね。

 

便利になるのは素晴らしいことですが、
何とも難しい問題といえそうです。

 

こうしたAIのブラックボックス問題に対して
ルール整備の動きも活発化しているようです。

2018年5月に施行されたEU欧州連合)の
一般データ保護規則(GDPR)では、
ユーザに「重大な影響」を及ぼす
自動意思決定システムが下した判断について、
ユーザ本人が「説明を受ける権利」、
そしてその決定に「反対する権利」が確立されました。

 

AIを採用したローン審査や人材採用等で
ユーザが何らかの重大な不利益を被った場合、
どのように判断されたかその理由について
説明を求めることができ、
かつその決定について従わないでいいということです。

 

かなりセンシティブな問題なので
今後わが国でどのような展開になっていくのが
注目していきたいと思います。

 

人工知能がもたらした新たな側面に
ついてフォーカスしてみました。

 

今回は「説明可能なAI」についてでした。

 

お役に立てたましたか?

次回をお楽しみに。

 

ありがとうございました。