AIと差別の顔――FaceAppの性別転換と人種的プロファイリング

文=Lisbon22
【この記事のキーワード】

AIによる差別と外部化されたコスト

 日本でも数年前に「シンギュラリティ」という言葉が流行語になったように、AIを巡る言説はしばしば「AIは人間の脳の機能を超えるか」とか「AIは人間の仕事を奪うか」といった将来の危機を煽る(なお後者については、白井聡が『武器としての「資本論」』(東洋経済新報社, 2020年)で書いたように、労働時間短縮のために導入されたはずのAIはむしろ労働時間を伸ばすことに終わるのが資本主義のお決まりのパターンだと思われる)。

 けれどAIの真の問題はこうした「いつか起こるかもしれない危機」ではなく、AIが経済・法・社会の水準での不平等を拡大させているという、現在すでに起きている危機なのだ、とMicrosoft Researchのケイト・クロウフォードは書く。

 もちろん、統計に基づいた蓋然性(probability)をアルゴリズムの基本とするAIは「意図的」に差別をするわけではない。けれど、エンジニアによって選ばれたにしろ、AIが自ら集めたにしろ、元となるデータ(統計)それ自体がバイアスをもっているとき、AIのアルゴリズムはそうしたバイアスを妥当なものとして「学習」していくことになる。そしてAIが購入履歴に基づく商品のサジェストや犯罪の監視・捜査のターゲット決定といったかたちで社会にますます深く入り込むなかで、バイアスやステレオタイプは私たちの生のあらゆる次元で日々再生産される。

 こうした例は枚挙にいとまがない。

 写真に自動的にラベルを付けるGoogleの写真アプリが黒人をゴリラにカテゴライズしたという2015年の事件を覚えている人は多いだろう。Nikonのカメラソフトがアジア人を瞬きしていると判断するという出来事もあった。2016年に発表されたマイクロソフトのAIチャットボットTayは人種差別発言によって一日で提供停止になった。同年にはAmazon Primeの当日配達サービスが黒人住民の多いZIPコード(郵便番号)を対象外としていることも明らかになった。

 ジェンダーの文脈では、カーネギーメロン大学の研究が、求人の自動広告が女性ユーザーに対して男性ユーザーより有意に給料の安い職を提示していると解き明かしたのはよく知られている。ジェンダー・バイアスは機械翻訳でも大きな問題だ――例えば、Google Translateを使って「<三人称単数代名詞>はエンジニアだ」という文をジェンダーのない言語(例えばハンガリー語)からジェンダーのある言語(例えば英語)に翻訳すると、代名詞が男性に翻訳されやすく、エンジニアを看護師に変えると女性に翻訳されやすい、というように。

 先ほど紹介したクロウフォードの記事はもう4年も前のもので、こうしたAIのバイアスは私たちのような素人にとってさえもはや常識だと言えるかもしれない。現在、多くの研究機関はAIの公正性を担保する手法・指針を模索し続けている。

(公正性をいかに定義するか、情報処理のどの段階でバイアスを検知し介入するべきか、開発者・研究者の人種・性的割合は人口を公正に代表しているか、政策はどのように介入すべきかなど、論点は多岐にわたる。この意味で、自らの人種差別発言をAIによる「過学習」の結果だと述べたどこかの研究者の言葉はなんら言い訳になっていない)

 けれどすべての企業や団体がこうしたバイアスの撤去という必要な金銭・時間的負担を積極的に引き受けるわけではない。むしろ多くの企業はこうしたコストを喜んで社会に外部化するだろう。そしてそれを不平等の拡大や不公正な表象・代表(representation)という形で支払わせられるのは、いつだって社会的に不利な立場にいる人々だ。

顔認識が行うジェンダーの(再)自然化

 さて、長い寄り道を経て、ようやく私たちはAIによる顔写真の性別転換に戻ってきた。

 自分や有名人の顔を性別転換させる一見無邪気で愉快なアプリの問題は、つまるところ「男性の見た目はこういうもの」「女性とはこういうもの」という私たちの社会自体が持つジェンダー・ステレオタイプを妥当で蓋然性が高いものとして学習したAIによって、社会的に構築されたジェンダーが「自然」なものとして再生産されることだ。

 セレブを性別転換させた写真を集めたウェブページを眺めてみれば、そこにある写真がいかに伝統的な意味での「男らしさ」や「女らしさ」を強調しているかよくわかるだろう。「女性化」された写真は一律に髪が長く、眉を整えられ、肌を中心にメイクが整えられ、輪郭が丸くなる。対照的に、「男性化」された写真は短髪で(しばしばスキンヘッドで)、ひげを生やし、頬骨が浮き上がり、ほとんどの場合ノーメイクだ。

 繰り返すと、こうしたジェンダー・バイアスは根本的にはデータの問題だ。私たちの社会自体が行う、ステレオタイプ的な「男らしさ」「女らしさ」に当てはまらない存在――例えばトランスジェンダー男性・女性やノンバイナリーの人――の排除をデータとして学習したAIは、こうした表象・代表のレベルでのバイアスを妥当なものとして再生産する。そして性別転換された写真を見て「ああ、確かに男らしく/女らしくなってる」と楽しむとき、私たちもまたこうした表象のバイアスを「自然」なものとして学習させられる。

 Faceappが「女性」として学習した顔の中に、いったいどれだけのトランスジェンダー女性が含まれていたのか私には疑問に思われる。この意味で、数年前に開発されていたこのアプリが、今年6月、「月経がある人のことをなんていうんだっけ? ウンベン?」と当てこする形で事実上「トランス女性は女性ではない」とJ. K. ローリングが述べたわずか2週間後に大きく話題になったのは極めて象徴的だ、とも。

 歴史的・社会的に構築されてきた人種やジェンダーが、文化や制度の中で「自然」なものとして再生産され、今ある排除や暴力の構造が正当化されるという例のプロセスに、AIは新しい顔をつける。AIが私たちの顔をどう見るか、という問題に賭けられているのは、AIがどのような権力の顔なのか見極めることなのだ。

1 2

あなたにオススメ

「AIと差別の顔――FaceAppの性別転換と人種的プロファイリング」のページです。などの最新ニュースは現代を思案するWezzy(ウェジー)で。