
GettyImagesより
今年6月、人の性別を転換できる機能を持つ写真アプリFaceAppが日本で話題になった頃、ハリスバーグ大学の研究者たちは「顔認識システムによってある人がどれだけ犯罪を起こしやすいか予測できる」ソフトを開発したと発表し、強い批判を招いた。
この研究を発表しないよう求める公開状に1700人もの研究者が署名を寄せたのは、これが現代版の人相学、つまり人工知能(AI)に場所を移した「科学的人種主義」に他ならないと考えられたからだ(人相学とは人の相貌によって内面的性質や能力等をはかろうとする疑似科学で、19世紀には人種的優越性・劣等性を「科学的に証明」するものとして人気を博した)。
今、Black Lives Matter運動の最大の焦点である警察改革の要請によって、顔認識システムの人種・性的バイアスと権力の関係はこれまで以上に問い質されている。6月、IBM、Amazon、そしてMicrosoftは適切な法整備がなされるまで自社の顔認識システムを警察に販売することを停止・休止すると相次いで発表した。
これら一連の動きは、2010年代から繰り返し問題になってきたAIの人種的・性的バイアスという課題が今なお未解決であることの証だ。この問題の厄介なところは、私たちの社会が持つステレオタイプやバイアスの結果として差別を学習してしまったAIが、市場や公共政策を通じて私たちの生活に深く入り込むことで、こうしたバイアスを「自然」なものに見せ、再生産してしまう点にある。
今回の記事では、写真アプリによる性別転換の真の問題は、人種的プロファイリングと同様、こうしたAIによるバイアスの再生産にある、ということを確認したい。流れとしては、まず人種的プロファイリングと統計の関係に潜む問題を確認し、次いで近年のいくつかの事例をもとにAIと人種・性的バイアスを巡る議論を概観する。最後にそれらを踏まえたうえで、件の写真アプリによる性別転換について考えていきたい。
数字には色がある
「これは差別じゃなく区別だ」と差別主義者たちはよく口にする。彼らが人種や性に沿ってひく線は恣意的なものではなく、「客観的」で「中立」なデータ、無色透明な数字に基づいたものなのだ、と。
けれど、数字(統計)には色(人種)がある。
一見「客観的」な統計がいかに人種的バイアスに基づき、そしてこのバイアスを自然なものに見せてしまうかを、批判的人種理論(Critical Race Theory)は繰り返し論じてきた。
例えば教育学の分野では、白人の教師の黒人生徒に対する期待の低さが、黒人の生徒を教室内で「出来の悪いグループ」に割り振り、その結果カリキュラムの質を低くすることがしばしば指摘されている。そしてこうした相対的な教育の質の低さの結果として、黒人の生徒が高い学業的パフォーマンスをみせることは実際に難しくなり、彼らへの期待の低さは事後的に「正当化」される。
統計が持つ、こうした予言の自己成就的なシナリオの最も顕著な例は人種的プロファイリングだろう。 “Driving While Black” “Flying While Muslim” などと呼ばれる、黒人や他の人種的マイノリティをターゲットに絞った捜査・職務質問は、しばしば人種ごとの犯罪率の差を引き合いに出す。けれど数多くの研究者が指摘するように、こうした犯罪者=逮捕者の数の差は、そもそも捜査・職務質問を受ける数に圧倒的な差があることを反映したものだ。言い換えると、人種的プロファイリングを正当化する根拠として挙げられる統計は、そもそも人種的プロファイリングの結果に他ならない。
アメリカに住む若い黒人男性の3人に1人が生涯で一度は投獄され、全人口のわずか6.5%に過ぎない黒人男性が全受刑者の実に40.2%を占める。
こうした衝撃的な数字は、奴隷制・隷属状態を禁止しつつ犯罪の刑罰を例外として規定した憲法修正13条、受刑者の労働に依存する企業や牢獄への食料・電話など各種サービスを提供する企業などによって監獄と産業が密接に連関しあう監産複合体、そして黒人や他の人種的マイノリティらを標的にした、大規模で長期間の投獄を可能にする数々の法制度によって支えられた、人種化された警察権力によって生み出されたものであり、決して警察権力を正当化するものではない(これについては、Black Trans Lives Matter特集の記事でも紹介された、現在Youtubeで無料公開中のNetflixドキュメンタリー『13th -憲法修正第13条』に詳しい)。
冒頭で紹介したハリスバーグ大の犯罪予測システムに対する強い批判を――ひいてはBlack Lives Matter運動が要請する警察改革を――理解するためには、以上のような文脈を踏まえなければいけない。これは一言でいえば、警察・監獄権力が制度的人種差別の温床になっていることへの異議申し立てと、AIがそうした制度的人種差別を正当化するものとして用いられることへの不安に根差している。
残念ながら、こうした不安は現実的なものだ。LAPDなど多くの警察署が導入する、AIによってどこで・誰が犯罪を起こすかを予想する予測ポリシング(predictive policing)は、しばしば事実上の「人種的プロファイリング2.0」だと批判が寄せられている。またピューリッツァー賞の最終選考にも残った2016年の研究では、刑事司法制度で用いられるAIによる累犯アセスメントが、黒人の被告を誤って再犯の可能性が高いと判断する確率が白人の被告の場合よりも約2倍高いことが明らかにされている。
1 2