AIが説明するようになった

著者: Roger Morrison
作成日: 28 9月 2021
更新日: 19 六月 2024
Anonim
「プログラミング問題を解くAI」が誕生 一体どんな問題を解いてしまうのか!?【橋本幸治の理系通信】(2022年2月22日)
ビデオ: 「プログラミング問題を解くAI」が誕生 一体どんな問題を解いてしまうのか!?【橋本幸治の理系通信】(2022年2月22日)

コンテンツ


出典:Sdecoret / Dreamstime.com

取り除く:

AIシステムの出力を信頼するためには、そのプロセスを理解し、どのように結論に到達したかを知ることが不可欠です。説明可能なAIは、潜在的なバイアスを排除するための鍵です。

AIを信頼できますか?その結果を疑いなく客観的に有効と認めるべきですか?問題は、AI自体に質問しても明確な答えが得られないことです。

AIシステムは一般にブラックボックスのように動作します。データが入力され、データが出力されますが、そのデータを変換するプロセスは謎です。それは二重の問題を作成します。 1つは、どのアルゴリズムのパフォーマンスが最も信頼できるかが不明であるということです。もう1つは、一見客観的な結果は、システムをプログラムする人間の価値とバイアスによって歪められる可能性があるということです。これが、そのようなシステムが使用する仮想思考プロセス、または「説明可能なAI」の透明性が必要な理由です。

倫理的義務は、GDPRの対象となるすべての人にとって法的なものになりました。これは、EUに拠点を置く企業だけでなく、そこにいる人々や組織と取引を行うすべての人に影響を与えます。これには、「特定の状況を除き、自動化された意思決定のみの対象とならない権利」および「意思決定に関与するロジックに関する有意義な情報を提供する権利」をEU市民に適用するデータ保護に関する多くの規定が含まれています」

つまり、「アルゴリズムがアプリケーションを拒否しました」と言うだけではもはや不十分です。人々の生活に影響を与える結論に至った考え方を説明する法的義務があります。 (AIの長所と短所については、機械学習の約束と落とし穴をご覧ください。)

偏った結果

一部の人々がアルゴリズムの決定について提起した懸念の1つは、客観的な推論を支持している場合でも、バイアスを強化できることです。これが、キャシー・オニールが「数学の破壊の武器:ビッグデータが不平等を増大させ、民主主義を脅かす方法」で行う論点の核心です。 。

彼女が「数学の破壊」と呼ぶものは、「障壁を強化し、特定の人口集団を信用、教育、雇用機会、仮釈放などにふさわしくないと特定することで不利な状態に保つモデルの結果」です。


彼女はアルゴリズムの偏りを見つけることだけではありません。 2016年、Pro Publicaは、アルゴリズムが白人よりも黒人の再犯率が高いことを予測しているという調査結果を共有しました。これは、同じタイプの犯罪に対する異なる刑務所判決につながる要因です。 2017年のGuardianの記事は、性別へのバイアスも拡大しました。

問題は、これらのシステムが広範囲に及ぶ結果でプログラムされることです。 Collibraの共同設立者兼CTOであるStijn Christiaensの電話インタビューで、AIは「自動化された意思決定」を可能にすると説明しました。

バグやストレスなし-あなたの人生を破壊することなく人生を変えるソフトウェアを作成するためのステップバイステップガイド

誰もソフトウェアの品質を気にしない場合、プログラミングスキルを向上させることはできません。

それは、悪い決定に設定されたシステムが、人間よりもはるかに迅速に多くの決定を下すことを意味します。システムに偏りがある場合、その膨大な数の決定が「特定の集団に損害を与える」可能性があり、非常に深刻で広範な結果をもたらすと、Christianens氏は述べた。

アルゴリズムの手入れと供給

確かに、不完全または不十分なデータに起因するエラーがあります。これが、上記のGuardianの記事で引用された一部の専門家が、偏ったアルゴリズムの結果に与えた理由です。オックスフォード大学のサンドラワクターは次のように要約しています。「世界は偏っています。履歴データは偏っています。したがって、偏った結果を受け取ることは驚くことではありません。」

同じ方針に沿って、Christianensは「現実世界の観察に基づいているため」、AIは「私たちの偏見を観察し、性差別的または人種差別的な出力を生成します」と言いました。 )、彼は、問題はトレーニングデータを構成する「食物」である可能性があると述べた。それは間違っている、不完全である、または偏っているからである。

人種差別と性差別の結果は、人口の違いを適切に表していないデータからシステムに訓練することができます。彼は、女性の代表者が20%しかいない会議での講演者に基づいてトレーニングデータを利用するケースを提案しました。このような歪んだ表現でトレーニングすると、アルゴリズムにバイアスが組み込まれます。


AI錬金術

AIバイアスの問題は、常にデータフィードに起因するわけではなく、意思決定の方法にも起因します。これらの作戦の謎はアリ・ラヒミとベン・レヒトを襲い、錬金術と比較した。

錬金術はその場所を持っているかもしれませんが、それは人々が深刻な結果を伴う自動化された決定についての質問への答えとして望んでいるものではありません。ラヒミとレヒトは次のように述べています。「しかし、私たちは現在、医療と民事討論への参加を管理するシステムを構築しています。システムが錬金術ではなく、厳密で信頼性が高く、検証可能な知識に基づいている世界に住みたいと思っています。」(ヘルスケアにおけるAIの詳細については、ヘルスケアにおける5つの最も驚くべきAIの進歩を参照してください。)

ブラックボックスを超えて:決定を決定するものを発見する

これが、AIシステムの思考プロセスに透明性を導入する方法を求めている人がいる理由です。AIシステムが行った結論に到達した理由を説明してもらいます。様々な場所からの努力がありました。

アメリカの大学の3人の教授と研究者のグループは、2016年にLocal Interpretable Model-Agnostic Explanations(LIME)と呼ばれるソリューションで働きました。彼らはこのビデオで彼らのアプローチを説明しています:

正しい方向への一歩でしたが、解決策は完全に機能しませんでした。そのため、研究は継続され、GDPRに照らして、EUに接続している人々は、説明可能なAIを達成することに特に関心を持っています。

Christiaensの会社が生まれた機関であるブリュッセル大学の人工知能研究所は、そのような研究に専念する場所の1つです。同研究室は、画像認識と連携する方法を発見し、「ネットワークは、見たものとその理由を言語的に説明する」ことにより、画像にあるものについて行う結論に至ったと述べた。

「アルゴリズムは常に同じように機能します」とChristiaensは説明しました。 「入力データは機能に変換されます。」AIラボでは、「決定ツリーで発生した内容をドリルダウンして確認する」手段があります。それに基づいて、「たどられたパスを確認する」ことができます。何か問題が発生した場所を確認し、「調整して再トレーニング」します。

IBMはブラックボックスの問題にも注意を向け、最近、システムがIBMクラウドを介して実行されている場合でも、バイアスに気付き、AIの決定を考慮に入れるソフトウェアサービスの提供を発表しました。タイムリーなアラートに加えて、偏った結果に対抗するために必要なデータの提案を提供します。

クラウドサービスに加えて、IBMは機械学習システムを構築している企業に、将来の偏った結果を減らすためのコンサルティングを提供しています。おそらく他のAI専門家もコンサルティングに参加して、より良いシステムの構築を支援し、プログラミングされる可能性のあるバイアスのチェックを提供するでしょう。

AIシステムは、それを設定した人間と同じくらいエラーの影響を受けやすいため、意思決定の説明をする人は誰もいないことを覚えておく必要があります。