【インタビュー】 AIはどのようにジェンダー・バイアスを強めるのか、そして私たちはそれに対して何ができるのか

記事をシェアする

2025年3月17日

AIのジェンダー・バイアスとインクルーシブ・テクノロジーの創造についてジンニャ・デル・ヴィラール氏に聞く

2025年2月5日付

人工知能(AI)は私たちの世界を変えつつありますが、それが既存の偏見を反映する場合、女性と少女に対する差別を強化する可能性があります。雇用の決定から医療の診断に至るまで、AIシステムが偏ったデータに基づいて訓練されると、ジェンダーの不平等を増幅させる可能性があるからです。では、どうすればAIを倫理的で包括的なものにできるのでしょうか?「責任あるAI」(レスポンシブルAI)の第一人者であるジンニャ・デル・ヴィラールさんが、UN Womenとの最近の対談で、課題と解決策についての洞察を語っています。

AI技術におけるジェンダー・バイアスと人種バイアス 写真 UN Women/アナ・ノーマン・ベルムデス

AIのジェンダー・バイアスとは何か? なぜそれが問題なのか?

「固定観念に満ちたデータから学習するAIシステムは、ジェンダー・バイアスを反映し、それを強化することが多い。こうしたバイアスは、特に意思決定、雇用、ローン承認、法的判断といった分野において、機会や多様性を制限する可能性があります」とジンニャ・デル・ヴィラールさんは言います。

AIの核心はデータです。それは、コンピュータが人間よりも速く複雑なタスクをこなすことを可能にする一連の技術です。機械学習モデルなどのAIシステムは、訓練の基となっているデータからこれらのタスクの実行を学習します。こうしたモデルが偏ったアルゴリズムに依存している場合、既存の不平等を強化し、AIにおけるジェンダー差別に拍車をかける可能性があります。

想像してみてください。機械に過去の事例を見せることで、採用の意思決定をさせるトレーニングをすることを。仮にその事例のほとんどが意識的あるいは無意識的なバイアスを含んでいる場合(例えば、男性は科学者、女性は看護師など)、AIは男性と女性が特定の役割に適していると解釈し、応募者を選別する際に偏った判断を下す可能性があります。

これがAIのジェンダー・バイアスと呼ばれるもので、AIがジェンダー・バイアスによって人を差別的に扱うのは、それが偏ったデータから学んだことだからなのです。

AIアプリケーションにおけるジェンダー・バイアスの影響とは?

AIにおけるジェンダー・バイアスは、実生活に深い影響を及ぼします。

「ヘルスケアのような重要な分野では、AIは男性の症状により多く注目してしまい、それが女性の誤診や不適切な治療につながる可能性があります。また、女性の声がデフォルトの音声アシスタントは、女性はサービス業に向いているという固定観念を強めるし、GPTやBERTのような言語モデルは、「看護師 」は女性に、「科学者 」は男性に結びつけます」と、デル・ヴィラ―ルさんは言います。

デル・ヴィラールさんは、よく知られているAIのジェンダー・バイアスの例をいくつか挙げました。2018年、アマゾンは男性の履歴書を優遇するAI採用ツールを廃止しました企業の画像認識システムは、女性、特に有色人種の女性を正確に識別するのに苦労しており、間違った識別につながり、法の執行や公共の安全において深刻な結果をもたらす可能性があります。

アルバニアにおける女性ドライバーに対するジェンダーの固定観念を取り上げたプロジェクトで、「エンパワーメント」チームがGender Datathonで1位を獲得した 写真 UN Women
 

AIシステムにおけるジェンダー・バイアスを減らすには?

人工知能は、ジェンダー、年齢、人種、その他多くの要因に基づいて私たちの社会に存在する偏見を反映しています。

「AIにおけるジェンダー・バイアスを減らすには、AIシステムの学習に使用するデータが多様で、あらゆるジェンダー、人種、コミュニティを代表するものであることが極めて重要です」とデル・ヴィラールさんは強調します。「これは、異なる社会的背景、文化、役割を反映するデータを積極的に選択すべきであることを意味し、同時に、特定の仕事や特徴を特定のジェンダーに関連付けるような歴史的バイアスを取り除くべきであることを意味します。」

「さらに、AIシステムは、ジェンダー、人種、文化的背景の異なる人々で構成される多様な開発チームによって作られるべきです。そうすることで、そのプロセスに異なる視点を持ち込むことができ、偏ったAIシステムにつながる盲点を減らすことができます。」

一般市民の意識向上と教育がこの戦略には不可欠だとデル・ヴィラールさんは付け加えます。人々がAIの仕組みと偏りの可能性を理解することで、偏ったシステムを認識し、防止する力を人々に与え、意思決定プロセスに対する人間の監視を維持することができます。

AIはどのようにしてジェンダー・バイアスを特定し、より良い意思決定を促すことができるのか?

AIが生成するデータにはジェンダー・バイアスのリスクがありますが、セクターを超えてジェンダー不平等を特定し、対処することができる大きな可能性も秘めています。例えば、ジェンダーによる給与の違いを明らかにするGlassdoorのようなツールなど、AIは大量のデータを分析して、労働力におけるジェンダーによる賃金格差を見つけるのに役立っています。

金融分野では、機械学習を使ってより公平な信用評価を行うZest AIのような企業に見られるように、AIは信用スコアリングにおける長年のジェンダー・バイアスの克服に役立っています。AIはまた、特に十分なサービスを受けていない地域の女性起業家が融資や金融サービスを利用できるよう、マイクロファイナンス・サービスへのアクセスを改善しています

AIは、CourseraやedXのようなプラットフォームにおける男女間の入学率の格差を明らかにし、教科書の偏見を明らかにし、教育者がより学習教材をより包括的なものへと改訂するのに役立っています。

AIは、指導的役割におけるジェンダー比を追跡し不平等に対処するためのジェンダー・クオータ制の使用を奨励しています。AIはまた、ジェンダー差別のパターンを特定し、改革を提案することで、ジェンダーに配慮した法律の分析と起草を支援することもできます。将来的には、AIは、政府が、提案されている法律の潜在的なジェンダーへの影響を評価し、ジェンダー差別や不平等を防止するのに役立つ可能性があります」と、デル・ヴィラールさんは語りました。

アルバニア初のGender Datathonで、ジェンダー・データ分析と「責任あるAI」に関するセッションを行ったジンニャ・デル・ヴィラールさん 写真:UN Women UN Women
 

AIはどのように女性の安全を向上させ、デジタル上の虐待を阻止できるのか?

オンライン・オフラインを問わず、テクノロジーによって助長される女性や少女に対する暴力が懸念されている一方で、デジタルの虐待に対処し、サバイバーを保護するための革新的な解決策を提供するAIには、多くの有望な進歩が見られます。

例えば、bSafeのようなモバイルアプリは、女性を守るために安全に関する警告を提供し、カナダを拠点とするBotler.aiは、被害者が経験したセクハラ事件が米国の刑法やカナダの法律に違反するかどうかを理解する手助けをしますSpring ACTの 「Sophia 」AI for Goodの 「rAInbow 」のようなチャットボットは、匿名のサポートを提供し、サバイバーを法的サービスやその他のリソースへとつなげています。

「AIを搭載したアルゴリズムは、有害で差別的なコンテンツを検出して削除したり、同意のない親密な画像の拡散を阻止したりすることで、デジタル空間を誰にとっても安全なものにする目的で使うことができます」とヴィラールさんは付け加えます。

より包括的なAIシステムへの5つのステップ

人工知能の利用で、私たちの社会における偏見や不平等を減少させることも、永続させることもできます。ここでは、AIをより包括的で優れたものにするためにヴィラールさんが推奨する5つのステップを紹介します。

  1. AIシステムの訓練に、多様で代表的なデータセットを使用する
  2. AIシステムにおけるアルゴリズムの透明性の向上
  3. 盲点を避けるため、AIの開発・研究チームを多様で包括的なものにする
  4. AIシステムに強固な倫理的枠組みを採用する
  5. AIシステム開発にジェンダーに対応した方針を取り込む

ジンニャ・デル・ヴィラール氏について

ジンニャ・デル・ヴィラールはData-Pop Allianceのデータ、テクノロジー、イノベーション担当ディレクターを務めている。科学・技術・工学・数学(STEM)における女性と少女、および人工知能(AI)システムにおける倫理的かつ包括的なデータ活用を提唱している。UN Womenとは、ウクライナの戦争がジェンダーに与える影響の調査や、Making Every Woman and Girl Countプログラムを含む同地域におけるジェンダー・データ・リテラシーの向上に協力している。AI倫理における輝く女性100人-2024に選出。

(原文)
How AI reinforces gender bias—and what we can do about it | UN Women – Headquarters

カテゴリ: ニュース , 国連ウィメン日本協会

寄付する