數字技術加劇美國的種族歧視
2年前

  互聯網、大數據以及人工智能等數字技術在爲人類增加福祉的同時,也可能帶來人權的負面影響,尤其可能對在種族、性別、年齡等方面處於弱勢地位的特定群體造成不成比例的人權損害。美國擁有全球最先進的數字技術,卻不僅沒能爲其解決種族問題帶來契機,反而進一步復制、強化甚至加劇了其系統性和結構性的種族歧視。

  以種族爲坐標的數字鴻溝和技術障礙

  美國雖然在全球數字經濟中佔據主導地位,但少數族裔從新興數字技術中獲益的機會卻低得令人難以置信。根據美國聯邦通信委員會的數據,2016年,約41%居住在部落的土著美國人無法獲得視頻會議等活動的互聯網服務。皮尤研究中心2019年的一項調查顯示,在美國,非洲裔和西班牙裔擁有電腦或擁有高速互聯網的比例仍然較低。大約有82%的白人表示擁有台式電腦或筆記本電腦,但擁有電腦的非洲裔和西班牙裔只有58%和57%。在寬帶使用方面也存在巨大的族裔差異,白人家裏有寬帶連接的比例比非洲裔和西班牙裔高出13%到18%。

  被廣泛應用的面部識別技術本身也隱含了種族歧視的因素,許多能夠成功識別白人面孔的算法卻無法正確識別有色人種。2019年,美國國家標准與技術研究院發布了一份報告,顯示了全球99名开發人員提交的189種人臉識別算法在識別來自不同人口統計數據中的面孔時的表現。測試顯示,與白人相比,無法准確識別非洲裔或亞裔人臉照片的可能性高出10至100倍。在搜索數據庫以查找給定的面孔時,非洲裔女性顯示錯誤的比例明顯高於其他人口。

  社交媒體傳播仇恨言論和種族主義

  新興數字技術爲快速和大規模傳播種族主義、仇恨言論與煽動歧視暴力的言論提供了渠道,而社交媒體平台在其中發揮着關鍵作用。自2014年以來,美國的仇恨團體數量增加了30%,僅2018年就增加了7%。根據美國南方貧困法律中心2019年的統計,在美國查明有1020個仇恨團體。據美國反誹謗聯盟的監測報告,美國2018年的白人至上主義宣傳事件數量爲1187起,比2017年的421起增加了182%。仇恨團體在世界各地以“種族純潔”和種族優越感爲名對少數族裔實施恐怖襲擊和殺戮,包括2018年在美國匹茲堡發生的反猶太主義襲擊。2018年,新納粹和其他白人至上極端主義團體在加拿大和美國造成至少40人死亡。這些種族仇恨團體經常利用社交媒體平台尋找志同道合的個人,相互支持,並傳播他們的極端思想。此外,仇恨團體也越來越多地滲透到了“遊戲”世界。電子遊戲和與遊戲有關的論壇、聊天室和直播流媒體網站已成爲最主流的新納粹招募場所。

  算法系統重復並強化種族偏見

  首先,算法系統可能在工作權方面加劇種族歧視。聯合國特別報告員在2020年的報告中指出,在美國一些用於招聘的算法因其具有歧視性而受到批評。此類算法系統根據現有“成功”員工的數據庫來確定候選人,而數據庫包括性別、族裔或宗教信息。因此,算法系統作出的決策即反映出就業中現有的不平等現象,重復並強化了基於種族、性別等的偏見。

  其次,新興數字技術也對少數族裔的健康權產生了歧視性的影響。一篇發表在《科學》雜志上的研究發現,美國醫療保健系統使用商業算法來指導超過2億人的醫療服務健康決策,對非洲裔患者實施了系統性的歧視。由於輸入數據中沒有“種族”選項,开發者認爲該算法是“不分種族”的,但對於與白人患病程度相當的非洲裔患者,該算法始終給予其較低的風險分數,未能識別出將近一半與白人患者同樣有可能產生復雜醫療需求的非洲裔患者,導致他們無法參與改善健康的幹預項目。

  最後,定向廣告中的種族歧視侵犯少數族裔的住房權。控制着美國22%數字廣告市場份額的社交媒體網站臉書,過去允許廣告商在其廣告定位工具的“人口統計”類別下排除具有某些“族裔親緣關系”的用戶來“縮小受衆範圍”。這種定向廣告可以用來阻止非裔、亞裔或西班牙裔觀看特定的住房廣告。這種“只限白人”的廣告,不禁讓人聯想到在種族隔離合法化的吉姆·克勞時代,那時報紙爲廣告商提供只向白人讀者投放廣告的選項。

  預測性警務技術導致嚴重的種族歧視

  2016年8月31日,由17個組織組成的聯盟發表了關於美國執法部門使用預測性警務工具的聲明,指出該技術缺乏透明度,帶有種族偏見以及其他導致不公正的深刻缺陷。預測性警務是指通過評估有關人員的數據,例如他們的年齡、性別、婚姻狀況、藥物濫用史和犯罪記錄,預測其參與犯罪活動的可能性。

  洛杉磯警察局率先使用預測性警務技術公司开發的算法工具,紐約和芝加哥警察局隨後創建了一個“熱名單”,其中包含根據人口統計數據犯有槍支犯罪的“战略主體”逮捕歷史和社交媒體細節。預測性警務工具的工作方式缺乏透明度,警察局普遍不愿意透露算法的工作原理。這使得這些算法成爲“黑匣子”,無法被任何外部人士審計或評估。到2019年,該系統已爲超過40萬人分配了“高風險”評分,並被視爲預防暴力犯罪的主要手段。預測性警務工具會產生嚴重的歧視性犯罪預測錯誤,據美國司法部2020年的數據,非洲裔被警察在沒有正當理由的情況下攔住的可能性是白人的5倍,被捕的可能性是其兩倍。美國的預測性警務工具使用種族作爲預測因子,通過將警察派往他們以前監管過的地方來復制和加劇警務中的偏見,增加了對非白人社區的過度監管。既有數據集反映着現有的種族偏見,因此盡管這些技術被假定具有“客觀性”,甚至被認爲有可能減輕其所取代的人類行爲體的偏見,但其運作反而加劇了種族歧視。警察部門在少數族裔居民爲主的貧困社區往往會更多使用預測性技術。預測性警務創造了“巨大的結構性偏見”,通過包含種族歧視的算法,個別警官的偏見已被數據驅動的結構性偏見所取代。

  數字技術增加刑事司法系統中的種族歧視

  新興數字技術延續和復制了刑事司法中的種族歧視性結構。從預測性警務到預測累犯,執法機構和法院都在依賴算法工具,使長期存在的種族歧視更加固化,整體上削弱了少數族裔的人權,並強化了他們在社會中遭受的結構性壓迫。美國有幾個州在刑事司法程序的每一步都使用人工智能風險評估工具。开發人員希望這些系統能夠提供客觀的、基於數據的司法結果,但是這些算法通常依賴的是存在缺陷、種族偏見甚至非法政策時期產生的數據。由於這些算法影響判決,它們侵犯了少數族裔獲得公平審判的權利以及免受任意逮捕和拘留的權利。這種風險評估權衡的因素通常包括先前的逮捕和定罪記錄、父母的犯罪記錄、郵政編碼和所謂的“社區混亂”。這些因素反映的是在有色人種社區的過度監管和執法行爲以及種族制度導致的更廣泛的社會經濟劣勢模式,而不是目標人群的行爲。換言之,數據更能預示被告所在社區的種族劣勢和警力分布,而不是其個人的行爲。非洲裔被告被確定爲未來暴力犯罪風險較高者的概率比白人高出77%,預測未來可能犯下任何類型犯罪的可能性高出45%。

  預測累犯的工具也是同樣。在美國的系統中,嫌疑人被捕後通常會得到一個分數,目的是預測他們未來犯罪的可能性。最常用的系統COMPAS提供的風險評估評分被用在刑事司法程序的每個階段。一項調查顯示,該系統存在明顯的種族偏見,它錯誤地將非洲裔被告標記爲未來的罪犯,這一比例幾乎是白人被告的兩倍。與此同時,白人被告則常被誤認爲風險較低。由於這些評分標准固有的偏見,犯罪嫌疑人即使無辜也會認罪的現象並不罕見。

  紐約城市大學教授傑西·丹尼斯一針見血地指出,數字技術的語言是美式英語,網絡技術中充滿了美國式的規範,賦予美國科技行業不成比例的經濟和政治權力,並在各種類型的全球跨國公司中產生巨大影響力,通常反映了美國的帝國主義和白人至上主義的意識形態。普林斯頓大學教授魯哈·本傑明在《技術背後的種族:新吉姆守則的廢奴主義工具》中指出,算法黑箱將所謂的種族中立技術與法律和政策相聯系,成爲白人至上主義的有力工具。美國應正視自身種族歧視的系統性和結構性缺陷,積極應對數字技術帶來的治理挑战,採取迅速有效行動,防止和減少在新興數字技術使用和設計中產生種族歧視風險,加強算法問責。

  (作者:唐穎俠,系南开大學人權研究中心副主任)

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:數字技術加劇美國的種族歧視

地址:https://www.breakthing.com/post/8781.html