人工知能とジェンダー平等
2024年7月4日
2024 年 5 月 22 日
世界にはジェンダー平等の問題があり、人工知能(AI)は社会のジェンダー・バイアスを反映しています。
世界的に見ればインターネットにアクセスする女性は年々増加していますが、低所得国ではわずか20%の女性しかアクセスがありません。こうした男女間のデジタル・デバイド(インターネットやパソコン等を利用できる人と利用できない人との間に生じる情報格差)がAIにおけるジェンダー・バイアスに反映されています。
誰がAIを作り、どのようなバイアスがAIデータに組み込まれているか(あるいは組み込まれていないか)によって、デジタル面でのジェンダー平等格差は続いたり、拡大したり、縮小したりします。
Berkeley Haas Center for Equity, Gender and Leadershipの調査によると、様々な業界の133のAIシステムを分析したところ、約44%にジェンダー・バイアスが見られ、25%にはジェンダー・バイアスと人種バイアスの両方が見られたといいます。
AIジェンダー・バイアスとは?
トルコのアンカラ出身のアーティスト、Beyza Doğuçさんは、小説のためのリサーチをしていたときに、生成AIにおけるジェンダー・バイアスに遭遇し、医師と看護師の物語を書かせてみました。生成AIは、多くの場合、ユーザーからの質問やプロンプトに応じて、AIに学習させた類似のコンテンツやデータにインスパイアされた新しいコンテンツ(テキスト、画像、動画など)を作成します。
AIは医師を男性に、看護師を女性に設定しました。Doğuç さんがさらにプロンプトを与え続けたところ、AIは常に登場人物にジェンダー・ステレオタイプの役割を選び、特定の資質やスキルを男性または女性の登場人物に関連づけました。彼女がAIにジェンダー・バイアスについて質問すると、AIはそれが訓練されたデータのせいであり、特に「単語の埋め込み(word embedding)」のせいだと説明しました。これは、機械学習において特定の単語がその意味や他の単語との関連性を反映するようにエンコードされる方法を意味していて、それは、機械が人間の言葉をどのように学習し、扱うかということを意味します。AIが、女性と男性を異なる特定のスキルや興味に結び付けたデータで訓練された場合、そのバイアスを反映したコンテンツを生成することになります。
「人工知能は、私たちの社会に存在し、AIの訓練データに現れる偏見を映し出します」と、DoğuçさんはUN Womenとの最近のインタビューで語りました。
誰がAIを開発し、どのようなデータに基づいてAIを訓練するかは、AIを活用したソリューションにジェンダー的な影響を与えます。
タフツ大学の量子コンピュータ研究者であるSola Mahfouzさんは、AIに期待を寄せていますが、同時に懸念も抱いています。「AIは公平でしょうか?私たちの社会の家父長制的な構造や、男性中心のクリエイターが持つ固有のバイアスをどれだけ反映しているのでしょうか」と彼女は考えを巡らせました。
Mahfouzさんはアフガニスタンで生まれ、タリバンが彼女の家にやってきて家族を脅したため、学校を辞めることを余儀なくされました。彼女は最終的にアフガニスタンを脱出し、大学に通うために2016年にアメリカに移住しました。
企業はAIシステムに供給するため、より多くのデータを求めて躍起になっていますが、エポック社の研究者によれば、2026年までにテック企業はAIが使用する高品質データを使い果たす可能性があるといいます。
Natacha Sangwaさんはルワンダの学生で、昨年African Girls Can Code Initiativeの下で開催された最初のコーディング・キャンプに参加しました。「AIはほとんどが男性によって開発され、主に男性に基づいたデータセットで訓練されていることに気づきました」と、そのことが女性のテクノロジー体験にどのような影響を与えるかを目の当たりにしたSangwaさんは語りました。「女性がAIを搭載したシステムを使って病気を診断すると、しばしば不正確な答えが返ってくるのです。というのも、AIは、女性では異なる症状を示す可能性があることを知らないからです。」
現在の傾向が続けば、AIを搭載した技術やサービスには多様な性別や人種の視点が欠如し続け、そのギャップがサービスの質の低下や、仕事、信用、医療などに関する偏った判断をもたらすことになるでしょう。
AIにおけるジェンダー・バイアスを避けるには?
AIにおけるジェンダー・バイアスをなくすことは、AIシステムが概念化され、構築される際に、ジェンダー平等を優先目標とすることから始まります。これには、誤った表現がないかデータを評価すること、多様な性別や人種の経験を代表するデータを提供すること、AIを開発するチームを、より多様で包括的なものに作り変えることなどが含まれます。
2023年のグローバル・ジェンダー・ギャップ・レポートによると、現在AIの分野で働いている女性はわずか30%にとどまっています。
「テクノロジーがひとつの視点だけで開発されるのは、世界を片目で見ているようなものです」とMahfouzさんは言います。彼女は現在、アフガニスタンの女性同士をつなぐAI搭載のプラットフォームを作るプロジェクトに取り組んでいます。
「この分野には、もっと多くの女性研究者が必要です。女性独自の生活体験は、テクノロジーの理論的基礎を深く形作ることができます。また、テクノロジーの新たな応用を切り開くこともできます」と彼女は付け加えました。
「AIにおけるジェンダー・バイアスを防ぐには、まず私たちの社会におけるジェンダー・バイアスに対処しなければなりません」とトルコの Doğuçさんは語りました。
機械学習システムが私たちにより良いサービスを提供し、より平等で持続可能な世界を目指す動きを支援できるようにするためには、ジェンダーの専門知識を含め、AIを開発する際に多様な分野の専門知識を活用することが極めて重要です。
急速に進歩するAI業界において、ジェンダーに基づく視点やデータ、意思決定を欠くことは、今後何年にもわたって深刻な不平等を永続させてしまう可能性があります。
AI分野にはより多くの女性が必要であり、そのためには、STEM(科学、技術、工学、数学)やICT教育、そしてキャリアにおいて、少女や女性のデジタル・アクセスを可能にし、リーダーシップを高める必要があります。
世界経済フォーラムは2023年に、科学、技術、工学、数学(STEM)従事者全体に占める女性の割合はわずか29%であると報告しています。今日、かつてないほど多くの女性が学位を取得し、STEM職に就いていますが、彼女たちは初級職に集中しており、指導的立場に就く可能性は低い傾向にあります。
AIガバナンスは、ジェンダー平等への前進をどのように加速できるのか?
デジタル技術に関する国際協力は、技術的・インフラ的な問題やデジタル経済に焦点を当ててきましたが、テクノロジー開発が社会にどのような影響を及ぼし、あらゆる階層で混乱をもたらしているのか、特に最も弱い立場にあり、歴史的に排除されてきた人々にとってどうなのかということはしばしば置き去りにされてきました。AIの課題とリスクに対処し、誰一人取り残さないためにその可能性を活用するには、グローバル・ガバナンスの欠如の問題があります。
「今のところ、開発者がAIシステムを安全な準備が整う前にリリースすることを抑制する仕組みはありません。AIシステムがジェンダーや人種に偏見を示したり、有害なステレオタイプを強化したり、プライバシーやセキュリティの基準を満たしていない場合に、それを防止し是正するグローバルなマルチステークホルダー・ガバナンス・モデルが必要です」と、UN Womenのデジタル男女平等協力アドバイザーであるHelen Molinierさんは、Devexとの最近のインタビューで述べています。
現在のAIアーキテクチャでは、利益とリスクは公平に分配されておらず、人材、データ、コンピュータ資源を支配する少数の企業、国家、個人に権力が集中しています。また、AIが生み出す新たな形の社会的脆弱性、産業や労働市場の混乱、新興テクノロジーが抑圧の道具として使われる傾向、AIのサプライチェーンの持続可能性、AIが将来の世代に与える影響など、より広範な検討を行う仕組みもありません。
2024年、グローバル・デジタル・コンパクト(GDC)の交渉は、政治的な機運を高め、デジタル技術に対するジェンダーの視点を新たなデジタル・ガバナンスの枠組みの中核に据えるまたとない機会を提供しています。それがなければ、私たちは、既存のジェンダー格差にAIを重ね合わせ、ジェンダーに基づく差別や被害をそのままにし、さらにはAIシステムによって増幅させ、永続化させる危険性に直面します。
GDCに関するUN Womenのポジションペーパーは、あらゆる多様性を持つ女性と少女のエンパワーメントのために、デジタルトランスフォーメーションのスピード、規模、範囲を活用し、すべての人にとって公平なデジタルの未来への道を各国が歩むような変革を引き起こすための具体的な提言をしています。
カテゴリ: ニュース , 国連ウィメン日本協会