Explainable AI

Explainable artificial intelligence (XAI) is a set of processes and methods that allows human users to comprehend and trust the results and output created by machine learning algorithms. Explainable AI is used to describe an AI model, its expected impact and potential biases. It helps characterize model accuracy, fairness, transparency and outcomes in AI-powered decision making. Explainable AI is crucial for an organization in building trust and confidence when putting AI models into production. AI explainability also helps an organization adopt a responsible approach to AI development.
As AI becomes more advanced, humans are challenged to comprehend and retrace how the algorithm came to a result. The whole calculation process is turned into what is commonly referred to as a “black box” that is impossible to interpret. These black box models are created directly from the data. And, not even the engineers or data scientists who create the algorithm can understand or explain what exactly is happening inside them or how the AI algorithm arrived at a specific result.
There are many advantages to understanding how an AI-enabled system has led to a specific output. Explainability can help developers ensure that the system is working as expected, it might be necessary to meet regulatory standards, or it might be important in allowing those affected by a decision to challenge or change that outcome.

3 thoughts on “Explainable AI

  1. shinichi Post author

    Explainable AI

    IBM
    https://www.ibm.com/watson/explainable-ai

    What is explainable AI?

    Explainable artificial intelligence (XAI) is a set of processes and methods that allows human users to comprehend and trust the results and output created by machine learning algorithms. Explainable AI is used to describe an AI model, its expected impact and potential biases. It helps characterize model accuracy, fairness, transparency and outcomes in AI-powered decision making. Explainable AI is crucial for an organization in building trust and confidence when putting AI models into production. AI explainability also helps an organization adopt a responsible approach to AI development.

    As AI becomes more advanced, humans are challenged to comprehend and retrace how the algorithm came to a result. The whole calculation process is turned into what is commonly referred to as a “black box” that is impossible to interpret. These black box models are created directly from the data. And, not even the engineers or data scientists who create the algorithm can understand or explain what exactly is happening inside them or how the AI algorithm arrived at a specific result.

    There are many advantages to understanding how an AI-enabled system has led to a specific output. Explainability can help developers ensure that the system is working as expected, it might be necessary to meet regulatory standards, or it might be important in allowing those affected by a decision to challenge or change that outcome.

    Why does explainable AI matter?

    It is crucial for an organization to have a full understanding of the AI decision-making processes with model monitoring and accountability of AI and not to trust them blindly. Explainable AI can help humans understand and explain machine learning (ML) algorithms, deep learning and neural networks.

    ML models are often thought of as black boxes that are impossible to interpret.² Neural networks used in deep learning are some of the hardest for a human to understand. Bias, often based on race, gender, age or location, has been a long-standing risk in training AI models. Further, AI model performance can drift or degrade because production data differs from training data. This makes it crucial for a business to continuously monitor and manage models to promote AI explainability while measuring the business impact of using such algorithms. Explainable AI also helps promote end user trust, model auditability and productive use of AI. It also mitigates compliance, legal, security and reputational risks of production AI.

    Explainable AI is one of the key requirements for implementing responsible AI, a methodology for the large-scale implementation of AI methods in real organizations with fairness, model explainability and accountability.³ To help adopt AI responsibly, organizations need to embed ethical principles into AI applications and processes by building AI systems based on trust and transparency.

    Continuous model evaluation

    With explainable AI, a business can troubleshoot and improve model performance while helping stakeholders understand the behaviors of AI models. Investigating model behaviors through tracking model insights on deployment status, fairness, quality and drift is essential to scaling AI. Continuous model evaluation empowers a business to compare model predictions, quantify model risk and optimize model performance. Displaying positive and negative values in model behaviors with data used to generate explanation speeds model evaluations. A data and AI platform can generate feature attributions for model predictions and empower teams to visually investigate model behavior with interactive charts and exportable documents.

    Reply
  2. shinichi Post author

    “人知を超えたAI”はビジネスに不適切 「説明可能なAI」が求められるワケ 機械学習の“グランドマスター”が解説

    ITmedia News Special

    2022年06月16日

    https://www.itmedia.co.jp/news/articles/2206/20/news010.html

     一昔前まで、AIはフィクションの中の話だった。「2001年宇宙の旅」に登場したAI「HAL 9000」のように、人間の理解が遠く及ばない判断を実行する“人知を超えた存在”として描かれることが多かった。

     しかし現在、AIは私たちの生活に浸透している。あらゆる分野でAIのビジネス活用が進む一方で、さまざまな課題も見えてきた。その一つがAIのブラックボックス化だ。AIで満足のいく結果を出力できても、「なぜその結果になったのか」「根拠はどこにあるのか」が分からない点を懸念する声がある。万が一トラブルが起きたとき、その理由を説明できないのはビジネス上のリスクだ。

     「AIの創造は人類史上で最大の出来事ですが、リスク回避の方法を学ばなければ、残念ながら最後の出来事になるかもしれません」――スティーブン・ホーキング博士の言葉を引用して、このリスクに警鐘を鳴らす人物がいる。世界的な機械学習のコンペティションプラットフォーム「Kaggle」の最高位ランクの称号「Grandmaster」(グランドマスター)を持つシバム・バンサル氏だ。

     バンサル氏は、世界に248人しかいないGrandmasterの称号を持ち、AI生成プラットフォームを手掛ける米H2O.ai社のシニアデータサイエンティストとして活躍している。世界トップクラスのデータサイエンティストは、一体何を語るのか。

     今回はバンサル氏が「説明可能なAIがもたらすビジネス拡大」と題した基調講演をレポートする。講演はデル・テクノロジーズ主催のセミナー「AI Experience Zone セミナー 2022 Spring」(2022年4月22日開催)で実施したものだ。

    AIに関する懸念点 倫理面や技術面の課題に、大手IT企業も直面

     基調講演の冒頭で、バンサル氏はAIやデータサイエンスにおける懸念点が2種類あると説明した。1つ目は一般的なリスクだ。専門知識が必要なこと、規制の対象になる可能性があること、技術の宣伝要素が大きいといった内容を指す。こうしたリスクは一般消費者やビジネス関係者の目に見えるので分かりやすい。一方で注意すべきは2つ目の隠れたリスクだ。技術的な課題やサイバーセキュリティ上の懸念、倫理面での問題などを挙げられる。

     特に倫理面に関しては、AI活用に注力する大手IT企業でも透明性や信頼性の高いAIの開発に失敗した例が後を絶たない。例えば、米国大手EC企業の採用AIは女性を低く評価する傾向があると判明したのち、停止に追い込まれる出来事があったのは記憶に新しいだろう。

     技術面でも、学習モデルの欠陥によってAI制御の自動運転車が歩行者を死亡させるなど、重大な事故が度々起こっている。こうしたリスクを避けるためには、AIの判断や分析の過程、判断の理由を明示できる「説明可能なAI」が重要だとバンサル氏は説明する。

    説明可能なAIにとって重要な6つの要素とは

     AIの出力結果を信頼する上で、説明可能性は欠かせない。これは、AIの動作を人間が理解できる言葉や形式で説明する解釈可能性とも深く関わっている。では、実際に説明可能なAIのモデルを作成するとはどういうことなのか。バンサル氏は重要な要素を6つに分けて解説した。

    性能と解釈可能性の「トレードオフ」

     機械学習などのAIやデータサイエンスについて、エンジニアが考える評価基準はAIの性能と解釈可能性の2種類に分かれる。

     例えば機械学習について考えるとき、複雑なディープニューラルネットワークを活用した学習モデル(ブラックボックスモデル)は高性能だが、判断の過程を解釈するのは難しい。一方でノードが少なくシンプルなディシジョンツリー(決定木)の学習モデル(ホワイトボックスモデル)は解釈可能だが、性能面で劣ってしまう。

     説明可能なAIを実装する場合には、性能と解釈可能性の間でトレードオフが起こるため、ある程度の妥協が必要になる。

    学習モデルの「多様性」

     AIを実装する際、考えるべき要素が学習モデルの多様性だ。複雑な現実世界を扱うとき、複数の学習モデルを活用することで、高い価値を発揮できる。

     ただしこれには長所と短所がある。長所は、異なる学習モデルを活用することで、ビジネス上でも複数の結果や成果につながる可能性があるところだ。一方で複雑性が増し、説明可能性が低くなる短所がある。

     AI活用を考える企業やデータサイエンスチームにとっては、この長所と短所を理解した上で、多様性について適切な選択基準を用意することが重要だとバンサル氏は話した。

    ジェンダーや人種を平等に扱う「公正性」

     実際にAIを使う前に注意すべきなのが公正性の問題だ。AIを使う場面では、ジェンダーや人種、年齢、宗教などデリケートな要素を含むことがある。本来、AIはこうした要素を平等かつ公正に扱うべきだが、前述した米国大手EC企業の採用AIのように特定の要素が不利になるような結果を出力するケースがある。

     そうしたケースでは、学習用のデータか構築したモデルに偏りがある場合が多い。この偏りはAIを使い始める前に修正することが肝心だ。

    AI活用のためらいを拭い去る「信頼性」

     公正性の問題をクリアした後、ビジネスでAIを活用するときに重要なのが信頼性だ。大きな決断に関わる場合や、医療分野など人命に関わる場合、AIだけで答えを出すのは難しい。

     例えば患者の病気を診察するとき、AIの判定結果を参考にしつつ、最終的な判断を人間が下すことになるだろう。そのとき、学習モデルの信頼度が低いと適切な判断ができなくなる。

     医療分野に限らず、AIの信頼性が足りないとAI活用に疑問を抱く人が出てきてしまう。ためらいを拭い去るために、信頼性の構築に取り組む必要があるとバンサル氏は言う。

    予測結果に影響する変数などの「属性」

     信頼性や説明可能性に関わる重要な要素が、属性だ。属性とは学習モデルに影響する変数や特徴量を指す。AIで、ある予測結果を算出したとき、その結果に影響した変数は何か、それぞれの特徴量の貢献度はどのくらいかといった内容を知ることが大切になる。

     学習モデルにおける属性の効果を知る分析技術は複数あるため、それらを活用してどの属性が出力結果に影響を与えたか判断できる。これは、AIの説明可能性を引き上げることに役立つ。

    AIの正当性を担保する「規制」

     バンサル氏が最後に挙げた要素は、規制だ。AIで導いた判断の正当性や説明可能性を担保する上で必要な、公的な判断の枠組みと言い換えられる。

     例えば、銀行に融資を依頼した人について、その人の属性の1~2つ程度で融資を拒否するようなAIは公正性に欠ける。こうしたことを避け、一定の品質を保つ上でも規制は重要だ。

    AIの解釈可能性を担保する2つの方法

     ここまで説明可能なAIの構築や活用に関わる6つの要素を紹介してきた。こうした要素を満たそうとすると、信頼性や説明責任を追求する声が大きくなり、結果的に解釈可能性の必要性が高まってきた。

     AI開発の全プロセス――データ準備やデータマイニング、特徴量エンジニアリング、機械学習モデリング、実装といった工程で、開発者だけでなくエンドユーザーが解釈できるようにすることが求められている。それはつまり、前述した6つの要素を完全に満たすことだとバンサル氏は説明する。

     一般的に、AIで解釈可能性を担保することは難しい。ニューラルネットワークなどの学習モデルに多くの特徴量を入力する場合、ネットワーク内でさまざまな組み合わせをして予測結果などを出力する。その際、ネットワーク内部では高度な相互作用が起きており「出力結果がこの特徴量に基づいている」と断定できない。予測に至る道筋をさかのぼって追うのも難しい。

     解釈可能性の高いAIを開発する一つの方法は、学習モデルを構築する段階で、調整するという方法だ。特徴量同士の相互作用を制約したり、極端に単純化した特徴量エンジニアリングを行ったりして説明可能な学習モデルを構築する。これにより、機械学習の全工程が解釈可能になる場合がある。

     もう一つの方法は、学習モデルが完成した後にもう1ステップ追加する方法だ。モデルの挙動や予測を分析する技術を加えることで、学習済みのモデルであっても説明可能な結果を得られるメリットがある。

    学習済みモデルに適用できる技術を紹介

     学習済みモデルに適用できる技術を活用したほうが、ビジネスにとって都合がいい。モデルの機能を制限せず、いまあるモデルに使えるからだ。ここで、その技術の一部を簡単に紹介する。

     1つ目の差別的インパクト解析(Disparate Impact Analysis)は、データやモデルの偏りを解析して、AIに影響を与えるかどうか分析できる技術だ。データの偏り具合を確認し、是正に向けて調整する助けになる。

     2つ目のシャープレイ値(Shapley value)は、学習モデルにおいてある1つの変数の重要性や、特徴量の貢献度を評価できる技術だ。ある予測値に影響を与えた変数を検証できる。

     3つ目のK-LIME(Local Interpretable Model-agnostic Explanations)は、データサンプルの変更によってモデルがどのような影響を受けるのか検証できる技術だ。これによりモデルが変化するかどうかの堅牢性を測定できる。

     4つ目の部分従属プロット(Partial Dependence Plot)は、ある特徴量が変化したとき予測結果にどれだけの影響があるかを表せる技術だ。特徴量に変化があった場合、モデルの変化と効果を検証できる。

    「本当に素晴らしいAIの価値は、説明可能性で解釈可能なモデルがもたらす」

     機械学習の解釈可能性(MLI:Machine Learning Interpretability)をどう確保するか見てきた。H2O.ai社では予測モデルの解釈を手助けする機能「MLI」を用意しており、予測モデルの動作の特徴をさまざまな手法で可視化できる。これを活用すれば、モデル全体(グローバル)の可視化と、個々の予測(ローカル)の可視化をどちらも実現できる。

     バンサル氏は基調講演を通して、説明可能なAIとその解釈可能性について解説した。

     「データサイエンティストは、AIや学習モデルが実現した優れた正確性に魅了されるかもしれません。しかし、本当に素晴らしい価値は説明可能性で解釈可能なモデルがもたらします。なぜなら、データサイエンティストでない人でも解釈でき、その価値を理解できるからです」(バンサル氏)

     ビジネスでのAI活用を成功させるには、AIの価値を正しく生かせるかが鍵になる。バンサル氏は、ビジネスに活用するのに適したAI像を示した。説明可能なAIを筆頭に、本当にビジネスに役立つAIを考え、開発または導入し、自社に生かすときが来たといえる。

    Reply

Leave a Reply

Your email address will not be published. Required fields are marked *