AIと差別の顔――FaceAppの性別転換と人種的プロファイリング

文=Lisbon22
【この記事のキーワード】
AIと差別の顔――FaceAppの性別転換と人種的プロファイリングの画像1

GettyImagesより

 今年6月、人の性別を転換できる機能を持つ写真アプリFaceAppが日本で話題になった頃、ハリスバーグ大学の研究者たちは「顔認識システムによってある人がどれだけ犯罪を起こしやすいか予測できる」ソフトを開発したと発表し、強い批判を招いた

 この研究を発表しないよう求める公開状に1700人もの研究者が署名を寄せたのは、これが現代版の人相学、つまり人工知能(AI)に場所を移した「科学的人種主義」に他ならないと考えられたからだ(人相学とは人の相貌によって内面的性質や能力等をはかろうとする疑似科学で、19世紀には人種的優越性・劣等性を「科学的に証明」するものとして人気を博した)。

 今、Black Lives Matter運動の最大の焦点である警察改革の要請によって、顔認識システムの人種・性的バイアスと権力の関係はこれまで以上に問い質されている。6月、IBM、Amazon、そしてMicrosoftは適切な法整備がなされるまで自社の顔認識システムを警察に販売することを停止・休止すると相次いで発表した

 これら一連の動きは、2010年代から繰り返し問題になってきたAIの人種的・性的バイアスという課題が今なお未解決であることの証だ。この問題の厄介なところは、私たちの社会が持つステレオタイプやバイアスの結果として差別を学習してしまったAIが、市場や公共政策を通じて私たちの生活に深く入り込むことで、こうしたバイアスを「自然」なものに見せ、再生産してしまう点にある。

 今回の記事では、写真アプリによる性別転換の真の問題は、人種的プロファイリングと同様、こうしたAIによるバイアスの再生産にある、ということを確認したい。流れとしては、まず人種的プロファイリングと統計の関係に潜む問題を確認し、次いで近年のいくつかの事例をもとにAIと人種・性的バイアスを巡る議論を概観する。最後にそれらを踏まえたうえで、件の写真アプリによる性別転換について考えていきたい。

数字には色がある

 「これは差別じゃなく区別だ」と差別主義者たちはよく口にする。彼らが人種や性に沿ってひく線は恣意的なものではなく、「客観的」で「中立」なデータ、無色透明な数字に基づいたものなのだ、と。

 けれど、数字(統計)には色(人種)がある。

 一見「客観的」な統計がいかに人種的バイアスに基づき、そしてこのバイアスを自然なものに見せてしまうかを、批判的人種理論(Critical Race Theory)は繰り返し論じてきた。

 例えば教育学の分野では、白人の教師の黒人生徒に対する期待の低さが、黒人の生徒を教室内で「出来の悪いグループ」に割り振り、その結果カリキュラムの質を低くすることがしばしば指摘されている。そしてこうした相対的な教育の質の低さの結果として、黒人の生徒が高い学業的パフォーマンスをみせることは実際に難しくなり、彼らへの期待の低さは事後的に「正当化」される。

 統計が持つ、こうした予言の自己成就的なシナリオの最も顕著な例は人種的プロファイリングだろう。 “Driving While Black” “Flying While Muslim” などと呼ばれる、黒人や他の人種的マイノリティをターゲットに絞った捜査・職務質問は、しばしば人種ごとの犯罪率の差を引き合いに出す。けれど数多くの研究者が指摘するように、こうした犯罪者=逮捕者の数の差は、そもそも捜査・職務質問を受ける数に圧倒的な差があることを反映したものだ。言い換えると、人種的プロファイリングを正当化する根拠として挙げられる統計は、そもそも人種的プロファイリングの結果に他ならない。

 アメリカに住む若い黒人男性の3人に1人が生涯で一度は投獄され、全人口のわずか6.5%に過ぎない黒人男性が全受刑者の実に40.2%を占める。

 こうした衝撃的な数字は、奴隷制・隷属状態を禁止しつつ犯罪の刑罰を例外として規定した憲法修正13条、受刑者の労働に依存する企業や牢獄への食料・電話など各種サービスを提供する企業などによって監獄と産業が密接に連関しあう監産複合体、そして黒人や他の人種的マイノリティらを標的にした、大規模で長期間の投獄を可能にする数々の法制度によって支えられた、人種化された警察権力によって生み出されたものであり、決して警察権力を正当化するものではない(これについては、Black Trans Lives Matter特集の記事でも紹介された、現在Youtubeで無料公開中のNetflixドキュメンタリー『13th -憲法修正第13条』に詳しい)。

 冒頭で紹介したハリスバーグ大の犯罪予測システムに対する強い批判を――ひいてはBlack Lives Matter運動が要請する警察改革を――理解するためには、以上のような文脈を踏まえなければいけない。これは一言でいえば、警察・監獄権力が制度的人種差別の温床になっていることへの異議申し立てと、AIがそうした制度的人種差別を正当化するものとして用いられることへの不安に根差している。

 残念ながら、こうした不安は現実的なものだ。LAPDなど多くの警察署が導入する、AIによってどこで・誰が犯罪を起こすかを予想する予測ポリシング(predictive policing)は、しばしば事実上の「人種的プロファイリング2.0」だと批判が寄せられている。またピューリッツァー賞の最終選考にも残った2016年の研究では、刑事司法制度で用いられるAIによる累犯アセスメントが、黒人の被告を誤って再犯の可能性が高いと判断する確率が白人の被告の場合よりも約2倍高いことが明らかにされている

AIによる差別と外部化されたコスト

 日本でも数年前に「シンギュラリティ」という言葉が流行語になったように、AIを巡る言説はしばしば「AIは人間の脳の機能を超えるか」とか「AIは人間の仕事を奪うか」といった将来の危機を煽る(なお後者については、白井聡が『武器としての「資本論」』(東洋経済新報社, 2020年)で書いたように、労働時間短縮のために導入されたはずのAIはむしろ労働時間を伸ばすことに終わるのが資本主義のお決まりのパターンだと思われる)。

 けれどAIの真の問題はこうした「いつか起こるかもしれない危機」ではなく、AIが経済・法・社会の水準での不平等を拡大させているという、現在すでに起きている危機なのだ、とMicrosoft Researchのケイト・クロウフォードは書く。

 もちろん、統計に基づいた蓋然性(probability)をアルゴリズムの基本とするAIは「意図的」に差別をするわけではない。けれど、エンジニアによって選ばれたにしろ、AIが自ら集めたにしろ、元となるデータ(統計)それ自体がバイアスをもっているとき、AIのアルゴリズムはそうしたバイアスを妥当なものとして「学習」していくことになる。そしてAIが購入履歴に基づく商品のサジェストや犯罪の監視・捜査のターゲット決定といったかたちで社会にますます深く入り込むなかで、バイアスやステレオタイプは私たちの生のあらゆる次元で日々再生産される。

 こうした例は枚挙にいとまがない。

 写真に自動的にラベルを付けるGoogleの写真アプリが黒人をゴリラにカテゴライズしたという2015年の事件を覚えている人は多いだろう。Nikonのカメラソフトがアジア人を瞬きしていると判断するという出来事もあった。2016年に発表されたマイクロソフトのAIチャットボットTayは人種差別発言によって一日で提供停止になった。同年にはAmazon Primeの当日配達サービスが黒人住民の多いZIPコード(郵便番号)を対象外としていることも明らかになった。

 ジェンダーの文脈では、カーネギーメロン大学の研究が、求人の自動広告が女性ユーザーに対して男性ユーザーより有意に給料の安い職を提示していると解き明かしたのはよく知られている。ジェンダー・バイアスは機械翻訳でも大きな問題だ――例えば、Google Translateを使って「<三人称単数代名詞>はエンジニアだ」という文をジェンダーのない言語(例えばハンガリー語)からジェンダーのある言語(例えば英語)に翻訳すると、代名詞が男性に翻訳されやすく、エンジニアを看護師に変えると女性に翻訳されやすい、というように。

 先ほど紹介したクロウフォードの記事はもう4年も前のもので、こうしたAIのバイアスは私たちのような素人にとってさえもはや常識だと言えるかもしれない。現在、多くの研究機関はAIの公正性を担保する手法・指針を模索し続けている。

(公正性をいかに定義するか、情報処理のどの段階でバイアスを検知し介入するべきか、開発者・研究者の人種・性的割合は人口を公正に代表しているか、政策はどのように介入すべきかなど、論点は多岐にわたる。この意味で、自らの人種差別発言をAIによる「過学習」の結果だと述べたどこかの研究者の言葉はなんら言い訳になっていない)

 けれどすべての企業や団体がこうしたバイアスの撤去という必要な金銭・時間的負担を積極的に引き受けるわけではない。むしろ多くの企業はこうしたコストを喜んで社会に外部化するだろう。そしてそれを不平等の拡大や不公正な表象・代表(representation)という形で支払わせられるのは、いつだって社会的に不利な立場にいる人々だ。

顔認識が行うジェンダーの(再)自然化

 さて、長い寄り道を経て、ようやく私たちはAIによる顔写真の性別転換に戻ってきた。

 自分や有名人の顔を性別転換させる一見無邪気で愉快なアプリの問題は、つまるところ「男性の見た目はこういうもの」「女性とはこういうもの」という私たちの社会自体が持つジェンダー・ステレオタイプを妥当で蓋然性が高いものとして学習したAIによって、社会的に構築されたジェンダーが「自然」なものとして再生産されることだ。

 セレブを性別転換させた写真を集めたウェブページを眺めてみれば、そこにある写真がいかに伝統的な意味での「男らしさ」や「女らしさ」を強調しているかよくわかるだろう。「女性化」された写真は一律に髪が長く、眉を整えられ、肌を中心にメイクが整えられ、輪郭が丸くなる。対照的に、「男性化」された写真は短髪で(しばしばスキンヘッドで)、ひげを生やし、頬骨が浮き上がり、ほとんどの場合ノーメイクだ。

 繰り返すと、こうしたジェンダー・バイアスは根本的にはデータの問題だ。私たちの社会自体が行う、ステレオタイプ的な「男らしさ」「女らしさ」に当てはまらない存在――例えばトランスジェンダー男性・女性やノンバイナリーの人――の排除をデータとして学習したAIは、こうした表象・代表のレベルでのバイアスを妥当なものとして再生産する。そして性別転換された写真を見て「ああ、確かに男らしく/女らしくなってる」と楽しむとき、私たちもまたこうした表象のバイアスを「自然」なものとして学習させられる。

 Faceappが「女性」として学習した顔の中に、いったいどれだけのトランスジェンダー女性が含まれていたのか私には疑問に思われる。この意味で、数年前に開発されていたこのアプリが、今年6月、「月経がある人のことをなんていうんだっけ? ウンベン?」と当てこする形で事実上「トランス女性は女性ではない」とJ. K. ローリングが述べたわずか2週間後に大きく話題になったのは極めて象徴的だ、とも。

 歴史的・社会的に構築されてきた人種やジェンダーが、文化や制度の中で「自然」なものとして再生産され、今ある排除や暴力の構造が正当化されるという例のプロセスに、AIは新しい顔をつける。AIが私たちの顔をどう見るか、という問題に賭けられているのは、AIがどのような権力の顔なのか見極めることなのだ。

「AIと差別の顔――FaceAppの性別転換と人種的プロファイリング」のページです。などの最新ニュースは現代を思案するWezzy(ウェジー)で。