編者按:本文來自微信公眾號 新周刊(ID:new-weekly),作者:郭草莓,編輯:晏非,創(chuàng)業(yè)邦經(jīng)授權轉載。
早在23年前,導演史蒂文·斯皮爾伯格憑借名為《少數(shù)派報告》的科幻電影,“神預言”了我們今天的世界,以及人工智能時代的倫理困境。
影片中,人類憑借三個“先知”機器人預知未來的能力,建立了一套犯罪預防系統(tǒng)。但作為執(zhí)法者的約翰·安德頓,卻被系統(tǒng)預判為“即將行兇的殺人犯”而被迫逃亡。直到他發(fā)現(xiàn)所謂“系統(tǒng)”的致命漏洞——三個“先知”看到的未來并非每次都相同,當出現(xiàn)分歧時,就會按少數(shù)服從多數(shù)原則定案,同時秘密保存一份“少數(shù)派報告”。
斯皮爾伯格借電影提出了超脫于時代的拷問:系統(tǒng)雖以“公正”之名運行,但其預測結果是否等同于事實?少數(shù)派的抗爭是否天然錯誤,而主流判斷是否必然意味著真理?這些問題,在今天顯得越發(fā)尖銳。
(圖/《少數(shù)派報告》)
如今,人類社會越來越依賴于用“系統(tǒng)”進行決策。
在大洋彼岸的美國,AI算法決定哪些街區(qū)會被安排更多巡邏的警察,哪些無家可歸的人會更快獲得政府的公共房屋,哪些社會群體可以優(yōu)先注射疫苗……《少數(shù)派報告》中的預防犯罪系統(tǒng)也已不再只是科幻設定。AI廣泛應用于預測性警務,分析犯罪熱點、評估嫌疑人的再犯風險,甚至在某些情況下給出是否應提前干預的警示。
可當越來越多的算法決策取代人工判斷時,人們卻發(fā)現(xiàn)與《少數(shù)派報告》高度相似的另一層現(xiàn)實——“先知”并非總是正確,人工智能也不會永遠保持客觀和公平。
美國法院借助“再犯風險評分系統(tǒng)”量刑,對黑人被告的誤判率是白人的2倍;號稱5秒匹配求職者的AI招聘系統(tǒng),卻會自動拒絕55歲以上女性和60歲以上男性的求職申請;谷歌圖像識別系統(tǒng)曾將黑人程序員標注為“大猩猩”,算法歷經(jīng)8年迭代,仍無法消除種族識別偏差……
(圖/《我,機器人》)
甚至,一次源于偏見的算法失誤,足以引發(fā)災難級事故——數(shù)年前,荷蘭稅務系統(tǒng)使用算法識別可能涉及福利欺詐的對象時,錯誤地將少數(shù)族裔低收入群體標記為“高風險”,導致數(shù)千人收到錯誤罰單,部分受害者因此破產(chǎn)甚至自殺。
這一切都源于AI的偏見。當AI開始決定誰該被監(jiān)視、誰配獲得資源、誰應接受懲罰,普通人該如何直面這個“數(shù)字利維坦”?
01 AI的傲慢與偏見
2016年,英國某智能系統(tǒng)接受測試,當面對“男性是程序員,女性是×××”的句子時,系統(tǒng)暴露出算法偏見的冰山一角,填空答案上赫然顯示“家庭主婦”。
八年過去,類似問題并未消退,反而在技術迭代下構筑出更為龐大的系統(tǒng)性偏見。2024年,加州大學伯克利分校哈斯商學院的一項研究結果令人心驚:在被分析的133個行業(yè)AI系統(tǒng)中,存在性別刻板印象的占44%,兼具性別與種族雙重偏見的占25%。
“人類決策尚有四人對辯的可能,(但)AI不具備(基于)情境(進行)判斷的彈性,一旦習得偏見,就會在所有場景中機械化執(zhí)行,系統(tǒng)性地放大歧視?!鼻迦A大學新聞與傳播學院教授陳昌鳳向《新周刊》闡釋道。
AI偏見對人類社會的侵襲,并不難發(fā)現(xiàn)。當你要求AI生成“醫(yī)生與護士”的故事時,算法往往默認醫(yī)生為男性;讓AI繪制“家長做家務”的場景時,畫面上大概率會呈現(xiàn)女性形象。如果認為這只是偶然,就恰恰低估了機器偏見對現(xiàn)實生活的影響。
(圖/《銀翼殺手2049》)
它們潛藏在你所能接觸到的任何角落,同時破壞了社會公平性——亞馬遜研發(fā)的AI招聘工具在篩選簡歷時,將應聘者的“女子學院”經(jīng)歷視為負面指標,以至于曾在女校工作的男性申請者也被誤判;國外的一些保險公司或銀行用AI去做理賠或者貸款評估時,判斷過審與否的標準僅僅是“姓氏”“種族”本身……
追根溯源,AI偏見之所以會產(chǎn)生,還是因為真實世界里的數(shù)據(jù)“原罪”。
“你喂給AI什么數(shù)據(jù),它就產(chǎn)出什么,其認知邊界取決于被投喂數(shù)據(jù)的廣度、精度與深度?!敝锌坡劯瓒麻L王磊向《新周刊》舉例稱,當語料庫中的中文數(shù)據(jù)不足,模型會產(chǎn)生語種偏見;當投向大模型的特定國家人文社科內(nèi)容匱乏,文化偏見則滋生。數(shù)據(jù)局限迫使AI將局部“現(xiàn)實”固化為普世標準,從而導致了機器認知的缺陷。
(圖/《我,機器人》)
更深層的AI偏見還源于人類自身。
復旦大學計算機科學技術學院教授張軍平在接受《新周刊》采訪時表示:“從數(shù)據(jù)采集的片面性到算法設計者的潛意識傾向,每個環(huán)節(jié)都有可能為AI注入偏見基因?!盕acebook前工程師就曾承認,其自由派立場導致算法會對保守派信息進行系統(tǒng)性壓制?!爸灰帉懰惴ǔ绦虻氖侨?,就會存在風格偏好,哪怕只是一點點的投入都會導致算法出現(xiàn)偏差。”張軍平說道。
如今,AI技術倫理問題,正在制造一個個算法繭房。正如美國機會與正義法律咨詢公司主任韋弗所擔心的,人們可能會陷入一個惡性循環(huán):人類自身偏見影響AI,而AI又反過來強化這些偏見。
02算法偏見是人類社會的投射
人工智能的偏見可以被徹底消除嗎?
當前,行業(yè)內(nèi)外正通過數(shù)據(jù)平衡與清洗等手段應對這個問題。歐盟《人工智能法案》強制要求高風險系統(tǒng)植入倫理審查模塊;OpenAI通過安全護欄對自殺傾向等敏感話題實施正向引導、動態(tài)數(shù)據(jù)清洗;密歇根大學的研究人員開發(fā)了一種算法來糾正醫(yī)療數(shù)據(jù)中的種族偏見……
“應對AI偏見的路徑主要集中在三大方向:盡可能全面地覆蓋數(shù)據(jù);借助指令模板和人類反饋,實現(xiàn)AI和人類價值觀的對齊;采用AI對抗AI策略,通過攻擊性提問主動暴露系統(tǒng)漏洞?!蓖趵谥赋?,目前修正AI偏見最好的方式,仍是從數(shù)據(jù)源頭上入手。
然而,數(shù)據(jù)清洗和多樣覆蓋并不能根治算法偏見問題。張軍平向《新周刊》解釋:“當前大模型的TB級訓練數(shù)據(jù)如同信息海洋,徹底清除偏見猶如大海撈針。絕對的‘數(shù)據(jù)均衡’也只是理論理想,實踐中只能追求動態(tài)平衡——消除AI偏見(最有效)的方式既粗暴又低效,(那就是)看見一例消除一例?!?/p>
(圖/《銀翼殺手2049》)
但這種“頭痛醫(yī)頭”的修正方式,難以撼動系統(tǒng)深層的認知偏差。人工智能系統(tǒng)常被比作“黑箱”,其決策機制因算法的復雜性而難以溯源——可能就連設計者自己都很難解釋,AI究竟如何通過對多種數(shù)據(jù)的計算,得出最終決策結果。
專家們坦言:“算法黑箱的不可解讀性,正是攻克AI偏見的最大技術瓶頸?!鼻迦A大學調(diào)研團隊曾在采訪夸克AI算法工程師時提到這個問題,對方發(fā)出靈魂反問:“難道你要我們憑空創(chuàng)造完美世界?一個不存在人類缺陷的烏托邦?”
“如何完全消除AI偏見,無異于在問我們?nèi)绾蝿?chuàng)造一個絕對真空的世界。” 陳昌鳳以物理學類比,“人工智能猶如人類社會的鏡子,其偏見是價值觀的數(shù)字化投射——世界是怎樣的,算法反映出來就是怎樣的,它幾乎無可避免地沾染和承載了人類的歷史、仇恨、歧視?!?
(圖/《我,機器人》)
還記得2016年微軟聊天機器人Tay的失控事件嗎?這個最初滿屏“人類真酷”的“數(shù)字嬰兒”,在推特用戶的集體教唆下,僅16小時便淪為充滿性別歧視、散布納粹言論的“數(shù)字暴徒”,最終被迫緊急下架。
當數(shù)萬名用戶用惡意數(shù)據(jù)重塑Tay的神經(jīng)網(wǎng)絡時,那些充滿偏見的數(shù)據(jù)集恰似“照妖鏡”,讓人類靈魂深處的幽暗纖毫畢現(xiàn)。
“人工智能既可以鏡像(呈現(xiàn))人類的善意,也可能將惡意幾何級放大?!标惒P指出。從現(xiàn)實語料到工程師的認知局限,AI始終如實映射著真實社會,在現(xiàn)有技術框架下,人工智能的偏見注定如影隨形。
03誰該為AI偏見買單?
2020年,一場由AI圖像修復工具引發(fā)的推特論戰(zhàn),揭開了技術界長久以來的隱痛,也將“AI偏見”議題推至風口浪尖。該事件的導火索是杜克大學的研究團隊研發(fā)的PULSE算法——這款能將模糊照片高清化的工具,竟將奧巴馬的像素化照片“修復”成白人面容。
Facebook首席AI科學家楊立昆將問題歸咎于訓練數(shù)據(jù)中白人樣本占比過高,提出“若使用非洲數(shù)據(jù)集訓練,結果會不同”。時為Google AI倫理研究員的蒂姆尼特·格布魯則犀利反駁:“數(shù)據(jù)偏見只是表象,系統(tǒng)設計者的責任同樣不可推卸?!?/p>
這場持續(xù)27小時的辯論最終以楊立昆注銷賬號落幕,卻為科技界留下了哲學詰問:當人工智能的偏見成為必然,將責任簡單歸因于“數(shù)據(jù)”而非“系統(tǒng)”本身,是否構成對設計者責任的逃避?如果僅有數(shù)據(jù)存在偏見,是否只需追究數(shù)據(jù)采集者的責任?
陳昌鳳指出,當前AI法律責任框架仍陷于互聯(lián)網(wǎng)時代的治理邏輯——當人被菜刀所傷,追責對象應是持刀者而非刀具商。但AI系統(tǒng)的責任判定須從雙重維度出發(fā):既要明確“誰在使用”,更要追溯“誰在控制”。
以醫(yī)療AI為例。當患者按照AI開具的致害處方服藥,法律不會要求患者自擔風險;若醫(yī)院采用認證AI輔助診療,責任主體將轉移至應用端機構;當個人擅自使用AI未認證的藥物,則適用“風險自擔”原則。這恰恰也說明了AI倫理安全的治理來自全鏈條——最終如果機器做了壞事,任何一個人都難逃其責。
面對AI偏見,普通公民并非無能為力。細微處的發(fā)聲與行動尤為重要:分享父親輔導作業(yè)的家庭影像、上傳女機械師的車間工作記錄,甚至點贊社區(qū)阿姨維修無人機的視頻……“投喂”打破刻板印象的真實數(shù)據(jù)樣本,就是在為算法世界校準坐標,這終將重塑AI認知。
另一方面,保留作為人的深度思考能力同樣重要?!癆I并非教條,而是能與人互動的對象?!标惒P說,學會辨別、驗證信息將會是 AI原住民的基本能力。業(yè)內(nèi)也認識到思考能力的重要性,包括Deepseek、夸克AI在內(nèi)的大模型,正掀起一波“推理熱”——“不會深度思考的 AI搜索已經(jīng)不合格了”。
當黑人面容被算法“漂白”,當女性形象被AI固化,我們面對的不僅是技術漏洞,更是文明進程中的身份焦慮與權力重構。唯有將對歷史的反思編入代碼,讓多元的聲音參與設計,才能阻止算法淪為“偏見放大器”。
正如普林斯頓大學教授、社會學家魯哈·本杰明在深度學習大會ICLR 2020上說的那句警世恒言——“缺乏社會歷史縱深的‘深度學習’終將淪為‘淺薄學習’?!币哉鎸嵤澜鐬殓R,公平的AI不會從“完美數(shù)據(jù)”中自動誕生。
(《新周刊》記者羅隱對本文亦有貢獻)
原標題:《比胡說八道更危險,算法正在放大社會偏見》
本文為專欄作者授權創(chuàng)業(yè)邦發(fā)表,版權歸原作者所有。文章系作者個人觀點,不代表創(chuàng)業(yè)邦立場,轉載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。