AIにバイアスをかけることはできますか?

著者: Laura McKinney
作成日: 5 4月 2021
更新日: 26 六月 2024
Anonim
Deep Learning入門:ニューラルネットワーク学習の仕組み
ビデオ: Deep Learning入門:ニューラルネットワーク学習の仕組み

コンテンツ


取り除く:

近年、AIはますます採用され、美の評価から再犯のリスクの評価まで、あらゆるものに適用されています。そうすることで、いくつかの場合にバイアスと差別をサポートする標準も支持しました。

テクノロジーの進歩は、情報と機会へのアクセスを真に民主化する可能性を秘めています。しかし、場合によっては、私たちの社会では一部の人々が他の人々より平等であるという概念を補強する方法で使用されています。

これは、人工知能(AI)が特定のカテゴリを除外するために意図的に使用されている、または人間のプログラマーによって差別的な効果で埋め込まれたバイアスを単に反映している次の7つの例から見たものです。

AIビューティーバイアス

美しさは見る人の目にはあるかもしれませんが、その主観的な見方がAIをプログラムできる場合、プログラムに偏見があります。レイチェル・トーマスは、2016年のbeauty.aiの美容コンテストでそのようなエピソードを報告しました。結果は、明るい顔色は暗い顔色よりも魅力的であると評価されたことを示しています。

翌年、「ニューラルネットワークを使用して写真のフィルターを作成するFaceAppは、人々の肌を明るくし、よりヨーロッパ的な特徴を与える「ホットフィルター」を作成しました。」

言語のジェンダーバイアス

トーマスはまた、キャリアに対するステレオタイプの期待を引き継ぐ翻訳の文書化された例を引用しています。出発点は、「彼女は医者です。彼は看護師です」という2つの文です。

その後、それらをトルコ語に翻訳して英語に戻すと、電話のゲームから期待したような結果が得られます。

あなたが始めたものを手に入れる代わりに、1950年代の「彼は医者です。彼女は看護師です」という期待を抱くでしょう。彼女は、それは期待とステレオタイプの偏りに基づいて性別を割り当てるトルコ語の性中立単数代名詞によるものだと説明しています。 (AIの女性を読む:技術で性差別とステレオタイプを強化する。)

画像や言語への人種的および性別の偏りのフィルタリングは悩みの種ですが、AIに起因する積極的な差別とはまったく同じではありませんが、同様に起こりました。


その証拠は、アフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック系などのカテゴリの除外をチェックすることで視聴者を絞り込むオプションを許可した、その住宅カテゴリの下の広告に設定された制限のスクリーンショットでした。広告はここで表示できます。

ProPublicaが指摘しているように、このような広告の差別効果は、1968年の公正な住宅法と1964年の公民権法の両方で違法です。「この場合の唯一の弁護は、広告が住宅そのものではないということでした」物件または家の販売または賃貸について。

ただし、人種的偏見を示すターゲティングの他の例があり、さまざまな団体が民事訴訟をソーシャルネットワークに持ち込むよう動機付けています。 Wiredが報告したように、2019年3月に広告を通じてマイノリティに対する差別化を可能にした5件の訴訟の和解の結果、広告ターゲティング技術の調整を最終的に決定しました。

和解に関する報告書では、ACLUは、マイノリティや女性が白人男性と共有される情報、住居、雇用機会への同じアクセス権を与えられていないことに気付かない可能性があるため、そのようなターゲット広告がいかに陰湿であることを指摘しました。

より多くの人々が仕事、アパート、ローンを見つけるためにインターネットに目を向けると、広告ターゲティングが社会の既存の人種的および性的バイアスを複製し、さらに悪化させるという本当のリスクがあります。雇用主がエンジニアリングの仕事の広告を男性のみに表示することを選択した場合、男性と識別されていないユーザーがそれらの広告を見ることはないだけでなく、見逃したこともわかりません。

結局のところ、私たちは、オンラインで見ている広告を特定する方法をほとんど持っていません。この差別は、除外されたユーザーには見えないため、停止するのはさらに難しくなります。

2.仕事における性別と年齢の差別

法的事例の中には、ターゲティングが許可されている住宅の違法な差別がありました。和解に関するレポートで、ProPublicaはプラットフォームをテストし、「アフリカ系アメリカ人やユダヤ人などの除外グループの住宅関連広告の購入に成功し、以前は企業が年齢や性別でユーザーを除外した求人広告を見つけた」と述べました。それは姓です。」


ACLUが見つけた多数の求人広告は、特定の年齢層の男性のみを対象としたものであり、ユーザーが特定の広告が表示された理由に対する回答をクリックすると、別のWired記事に掲載されました。 ACLUは、ソーシャルネットワークと、労働法と公民権法の両方に違反しているという理由で広告を掲載した企業に対して、雇用機会均等委員会に責任を負わせました。

40歳以上の雇用に対する差別は、連邦雇用法(ADEA)の年齢差別に違反しています。しかし、求人広告をその年齢以下の人々にのみターゲティングすることは、プラットフォームによって可能になるものの1つです。

ProPublicaは、どの求人広告が年齢によるこの違法な除外形態を利用しているかを明らかにするレポートの1つに焦点を当てました。 「世帯名」には、Verizon、UPS、Uber、Target、Statefarm、Northwestern Mutual、Microsoft、J Street、HusbSpot、IKEA、Fund For The Public Interest、Goldman Sach、OpenWorksなどが含まれます。

顔認識が失敗する

「白人であれば、顔の認識は正確です」は、2018年2月に発行されたNew York Timesの記事の見出しを宣言しました。肌の色調と誤った識別との明確な相関関係を発見した結果を引用しました:

「肌が暗いほど、より多くのエラーが発生します。肌の色が暗い女性の画像の場合、最大35%近くまで、さまざまな人種や性別の人々に対するテクノロジーの動作を測定することで新境地を開くという新しい研究によると」

調査結果は、MIT Media Labの研究者であり、Algorithmic Justice League(AJL)の創設者であるJoy Buolamwiniの功績によるものです。彼女の研究分野は、AIの根底にあるバイアスであり、モデルに設定された白人男性の基準に適合しない顔の認識に関して、そのような歪んだ結果をもたらします。

Buolamwiniは、2017年のTEDトークで顔認識の人種的および性別バイアスの問題を提示し、MIT LabのThe Gender Shades Projectのビデオで2018年初頭に言及しました。

<

ビデオの説明で綴られているのは、AIバイアスを未チェックのままにしておくと、「自動化の時代を損なうことになり、ひどく放置されると不平等をさらに悪化させる」ということです。リスクは「機械の中立性の誤った仮定の下で公民権運動と女性運動で得られた利益を失うこと」に他なりません。

このビデオの説明は、AIの女性:技術による性差別とステレオタイプの強化で見たように、他の多くの人が指摘している警告を追加します:「自動化システムは本質的に中立ではありません。優先順位、好み、偏見を反映しています。人工知能を形成する力を持つ人々の視線。」

2019年1月25日にBuolamnwiniは、自身の研究と、AIの欠陥がAmazon Rekognitionでエラーを引き起こす方法を指摘し、警察機関へのAIサービスの販売を停止することを要求する追加の研究者の研究に基づいた中規模の投稿を公開しました

Rekognitionは、肌色の男性を認識する精度が100%、暗い男性でも98.7%の精度を誇っていましたが、女性については、明るい女性の精度は92.9%に低下しました。さらに目立ったのは、暗い女性の精度がわずか68.6%に急激に低下したことです。

しかし、Amazonは寛大になることを拒否しました。 Venture Beatの記事は、AWSのディープラーニングとAIのゼネラルマネージャーであるMatt Wood博士の声明を引用し、研究者の調査結果はAIの実際の使用方法を反映していないと主張しました。

「顔の分析と顔の認識は、基礎となる技術とそれらを訓練するために使用されるデータの点で完全に異なります。顔分析を使用して顔認識の精度を測定しようとすることはお勧めできません。これは、この目的のためのアルゴリズムではないためです。」

しかし、アルゴリズムに非常に問題があるとわかったのは、主要な研究センターに所属している人だけではありません。 Gizmodoのレポートによると、ACLUは、12.33ドルという最も妥当なコストで独自のテストを実行しました。 Rekognitionは、議会の28人のメンバーを犯罪者の写真と照合したことがわかりました。

「北カリフォルニアのACLUがRekognitionに、議会の会員535人全員の写真を、公開されている25,000枚のマグショット写真と照合するように依頼したときに、誤った識別が行われました。」

28人中11人が有色人種であったため、彼らのエラー率は39%でした。対照的に、全体としてのエラー率は、より許容可能な5%でした。マグショットに関連するRekognitionの1つであった議会ブラックコーカスの6人のメンバーは、AmazonのCEOへの公開書簡で懸念を表明しました。

再犯バイアス

AIに組み込まれた色の人に対するバイアスは、識別のエラー以上のものを意味する場合、より深刻な問題になります。そのようなバイアスの結果は、アルゴリズムによって肌の色が好まれる人からの本当のリスクを無視することと相まって、個人の自由にほかなりません。

この記事は、1人の白人の加害者と1人の黒人の加害者が関与する2つの並行した事例に言及しています。アルゴリズムを使用して、どちらが再び法律に違反する可能性が高いかを予測しました。黒いものはリスクが高く、白いものはリスクが低いと評価されました。

予測は完全に間違っており、自由になった白人は再び投獄されなければなりませんでした。裁判所は仮釈放を決定する際に得点に依存しているため、これは非常に問題であり、それはプログラムに織り込まれた人種的偏見が法律の下での不平等な扱いを意味することを意味します。

ProPublicaはアルゴリズムを独自のテストにかけ、2013年と2014年にフロリダ州ブロワード郡で逮捕された7,000人以上の人々のリスクスコアを、その後2年間に新たな刑事告発が行われた数と比較しました。

彼らが見つけたのは、暴力的な性質の犯罪を繰り返すための予測のわずか20%が実現し、リスクを示すスコアを持っている人の61%だけがより軽微な犯罪が発生したことです。

本当の問題は、正確さの欠如だけでなく、人種的な偏りも含まれます。

  • この公式は特に、黒人の被告人を将来の犯罪者として誤ってフラグを立てる可能性が高く、このように彼らを白人の被告人のほぼ2倍の割合で誤ってラベル付けしました。
  • 白人の被告は、黒人の被告よりも低リスクであると誤って表示されていました。

実際、これは、黒人では45%、白人では24%のエラー率に変換されます。その明白な統計にもかかわらず、トーマスはウィスコンシン州最高裁判所がこのアルゴリズムの使用を引き続き支持したと報告した。また、再犯アルゴリズムに関連する他の問題についても詳しく説明しています。