【摘要】算法的技術(shù)性沿襲并外化了算法的生物性表征,建立了諸多算法物質(zhì)性、社會(huì)性層面的關(guān)系;算法的社會(huì)性,是算法依托技術(shù)邏輯而形成的制度延展或文化實(shí)踐。算法不只是嚴(yán)格限制和程序公式,不是超越人類網(wǎng)絡(luò)的行為體,不是自主的技術(shù)對(duì)象,而是復(fù)雜的社會(huì)技術(shù)系統(tǒng)。人類所具有的善惡、文化差異、意識(shí)偏見(jiàn),也會(huì)反映于算法之中。算法的偏向,除了技術(shù)的偏向、工程師可能的人為偏向外,最大的偏向往往出自于技術(shù)與社會(huì)和人的互動(dòng)之中。
【關(guān)鍵詞】算法的技術(shù)性 算法的社會(huì)性 人工智能 算法的偏向
【中圖分類號(hào)】G206 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2022.17.010
【作者簡(jiǎn)介】陳昌鳳,清華大學(xué)新聞與傳播學(xué)院智媒研究中心主任、教授、博導(dǎo)。研究方向?yàn)樾侣剛鞑ナ?、大眾傳播與社會(huì)變遷。主要著作有《中美新聞教育傳承與流變》、《中國(guó)新聞傳播史:媒介社會(huì)學(xué)的視角》、《算法人文主義:公眾智能價(jià)值觀與科技向善》(合著)。
人工智能正在深刻改變?nèi)祟悮v史進(jìn)程,它的核心就是算法。算法(algorithm)是在執(zhí)行計(jì)算或解決問(wèn)題時(shí),遵循一組包含離散步驟或規(guī)則的過(guò)程。[1]算法如今幾乎無(wú)所不在,從航班安排、飛機(jī)駕駛,到經(jīng)營(yíng)管理、快遞運(yùn)輸,從任何一次網(wǎng)絡(luò)搜索、到打開任何一家社交媒體,都會(huì)經(jīng)過(guò)算法。
算法來(lái)自計(jì)算機(jī)科學(xué),是在簡(jiǎn)化復(fù)雜問(wèn)題中開始的新探索:告訴計(jì)算機(jī)該做什么的一系列指令——計(jì)算機(jī)是由幾十億個(gè)微小開關(guān)(晶體管)組成的,算法能在一秒內(nèi)打開并關(guān)閉這些開關(guān)幾十億次。算法嘗試探索復(fù)雜問(wèn)題的一般原理,建立一套邏輯:可以對(duì)特定的輸入進(jìn)行處理,獲得符合預(yù)期的輸出,是自動(dòng)化執(zhí)行人類意志的計(jì)算工具。每年都會(huì)出現(xiàn)上百種算法,不過(guò)它們都是基于幾個(gè)相似的基本思路:它們因?yàn)樗悸返牟煌粎^(qū)分為5個(gè)主要學(xué)派,各學(xué)派有其主算法——符號(hào)學(xué)派的主算法是逆向演繹,聯(lián)結(jié)學(xué)派是反向傳播,進(jìn)化學(xué)派是遺傳編程,貝葉斯學(xué)派是貝葉斯推理,類推學(xué)派是支持向量機(jī)。如今的目標(biāo)是創(chuàng)造綜合這5種算法的終極算法。[2]近年來(lái)的國(guó)內(nèi)外研究中,算法的不同面向都受到了關(guān)注,諸如“算法是工具”“算法是規(guī)則”“算法是權(quán)力”“算法是主體”“算法是想象”“算法是價(jià)值表達(dá)”。[3]算法被廣泛運(yùn)用于社會(huì)生活的各個(gè)方面,成為中介化社會(huì)的工具——算法中介,甚至被當(dāng)作支配世界的核心,21世紀(jì)是由算法主導(dǎo)的世紀(jì)。算法化、數(shù)據(jù)化正在成為一種普遍的認(rèn)知范式,它們?cè)谥貥?gòu)和規(guī)訓(xùn)整個(gè)社會(huì),帶來(lái)了諸多從倫理觀念到實(shí)踐的問(wèn)題。[4]
算法在生成結(jié)果中系統(tǒng)性的、可重復(fù)出現(xiàn)的不同對(duì)象有不同的輸出結(jié)果,或者是相同、相似對(duì)象輸出了相異結(jié)果的現(xiàn)象,即為算法偏向(Algorithmic Bias)[5],它是算法在決策過(guò)程中對(duì)特定偏好、信念或價(jià)值觀的一貫和反復(fù)表達(dá)[6]。算法的偏向是一個(gè)受到普遍關(guān)注的論題。算法可以從生物性、技術(shù)性、社會(huì)性和物質(zhì)性等不同角度去理解。[7]本文將從算法的不同屬性視角,從技術(shù)性層面的運(yùn)作機(jī)制,到社會(huì)性層面的互動(dòng)應(yīng)用,討論和剖析兩個(gè)問(wèn)題:算法偏向是如何形成的?算法偏向問(wèn)題與算法的不同屬性有何關(guān)聯(lián)?
關(guān)于算法中立的爭(zhēng)議
算法正在被越來(lái)越廣泛地應(yīng)用于各個(gè)領(lǐng)域,諸如法院、公安、銀行等各種機(jī)構(gòu),正在使用自動(dòng)數(shù)據(jù)分析系統(tǒng)來(lái)作出各種決策,包括諸如假釋、量刑、布警、抵押貸款、發(fā)放信用卡等各類事項(xiàng)。在許多情況下,人工智能系統(tǒng)在很多問(wèn)題上都能做得比人類更快、更準(zhǔn)確、更可靠、更公正,自動(dòng)決策系統(tǒng)(automated decision-making)可以提高公平性和效率。人類作決策更有可能帶有情緒,受環(huán)境和語(yǔ)境的影響,甚至工作的間隔、不連貫,都可以影響司法標(biāo)準(zhǔn)。美國(guó)有研究表明,如果是在剛休息過(guò)或用餐后作出決定,那么假釋委員會(huì)更有可能釋放罪犯。法庭裁決部分取決于法官上次吃零食的時(shí)間。[8]而自動(dòng)決策系統(tǒng)可以發(fā)現(xiàn)此類不一致之處,改進(jìn)流程。
但是,算法又存在許多問(wèn)題。英國(guó)《金融時(shí)報(bào)》的知名記者吉利安·泰特(Gillian Tett)曾經(jīng)寫過(guò)一篇文章《繪制犯罪地圖——或激起仇恨?》,回顧了美國(guó)芝加哥警務(wù)系統(tǒng)2010年至2011年的預(yù)測(cè)性警務(wù)行動(dòng)(predictive policing initiative),該行動(dòng)根據(jù)歷史犯罪數(shù)據(jù)繪制預(yù)測(cè)性的算法模型,告訴警察去哪里更容易找到罪犯。模型發(fā)現(xiàn),大多數(shù)暴力事件僅發(fā)生在市區(qū)的10%的區(qū)域,大部分與幫派在貧窮地區(qū)(往往是黑人或西班牙裔)的行動(dòng)有關(guān)。報(bào)道說(shuō)這個(gè)模型的應(yīng)用取得了令人矚目的成果,在第一年,芝加哥地區(qū)的謀殺案發(fā)生率下降了5%,然后繼續(xù)下降。到2011年夏天,芝加哥的年度死亡人數(shù)很快降至400人以下,是自1965年以來(lái)的最低水平。但是芝加哥警方進(jìn)行算法預(yù)測(cè)時(shí),存在種族間嚴(yán)重失衡。數(shù)據(jù)的種族失衡,是否可能加劇現(xiàn)有的人為偏見(jiàn)或種族特征?算法預(yù)測(cè)模型是不是一種中立的工具?計(jì)算機(jī)專家認(rèn)為該程序與種族完全無(wú)關(guān),而是多變量的方程。[9]
泰特在文章中指出,算法本身是中立的。但是她的文章立即引來(lái)了批評(píng),認(rèn)為她是在為種族主義做廣告,認(rèn)為她說(shuō)的算法中立是不存在的,關(guān)注人類行為的算法不可能中立。任何經(jīng)過(guò)歷史數(shù)據(jù)、人類行為訓(xùn)練的算法,都會(huì)將歷史和文化習(xí)俗嵌入和編碼于其中。[10]
基于算法的應(yīng)用,由于種種原因,帶來(lái)了偏向的后果,比如歧視??▋?nèi)基梅隆大學(xué)研究人員的一項(xiàng)研究發(fā)現(xiàn),谷歌的在線廣告系統(tǒng)存在巨大的性別薪酬差距,該系統(tǒng)向男性展示高收入工作廣告的頻率,要比向女性展示此類廣告的頻率高得多:廣告中20萬(wàn)美元以上的職位,推薦給男性的次數(shù)是1852次,而推薦給女性的次數(shù)僅有318次。他們研究了更改性別設(shè)置如何影響廣告、與性別相關(guān)的網(wǎng)站訪問(wèn)記錄如何影響廣告。[11]類似的研究還有不少。
技術(shù)屬性的算法:學(xué)習(xí)和決策機(jī)制
算法的技術(shù)性,是指算法作為推理程式本身的邏輯和規(guī)則。這一特性也是目前算法最受關(guān)注、應(yīng)用最廣泛的屬性。算法的邏輯和規(guī)則,可以導(dǎo)出其機(jī)制。算法的機(jī)制,就是將決策問(wèn)題的歷史實(shí)例(即所謂訓(xùn)練數(shù)據(jù))輸入并生成決策規(guī)則或分類器,然后將其用于問(wèn)題的后續(xù)的實(shí)例。算法在應(yīng)用中先后經(jīng)過(guò)兩個(gè)階段,第一個(gè)階段是機(jī)器學(xué)習(xí),是通過(guò)對(duì)數(shù)據(jù)集的“學(xué)習(xí)”,產(chǎn)生對(duì)于客觀世界的“認(rèn)識(shí)”——人工智能必須依照既定的、人類所撰寫的程序,再對(duì)人類制造的信息進(jìn)行“學(xué)習(xí)”;第二個(gè)階段是算法決策,是基于機(jī)器學(xué)習(xí)進(jìn)一步作出決策、輸出信息,即算法決策,是根據(jù)第一階段的“學(xué)習(xí)”結(jié)果,根據(jù)特定的模型作出自動(dòng)化決策。
關(guān)鍵就在機(jī)器學(xué)習(xí)階段。在這個(gè)階段,算法是要通過(guò)相關(guān)的歷史數(shù)據(jù)形成“認(rèn)識(shí)”(規(guī)則或分類器),因此,足夠的數(shù)據(jù)(包括數(shù)據(jù)質(zhì)量)就顯得特別重要。如果訓(xùn)練這些人工智能所使用的數(shù)據(jù)存在偏見(jiàn),那么可能會(huì)導(dǎo)致機(jī)器自動(dòng)歧視。一種機(jī)器學(xué)習(xí)是通過(guò)訓(xùn)練的數(shù)據(jù)獲取統(tǒng)計(jì)模式,通過(guò)數(shù)據(jù)的集合定義數(shù)據(jù)的特征,形成觀點(diǎn)。訓(xùn)練數(shù)據(jù)中帶有針對(duì)不同性別或者不同群體的現(xiàn)有社會(huì)偏見(jiàn),那么機(jī)器學(xué)習(xí)就可能納入這些偏見(jiàn),這樣對(duì)第二階段的決策就會(huì)產(chǎn)生影響。比如,非裔美國(guó)人、程序員Jacky Alciné發(fā)現(xiàn),Google相冊(cè)自動(dòng)將他和朋友的照片標(biāo)記為包含“大猩猩”。Alciné和其他人將這種算法輸出歸因于訓(xùn)練標(biāo)記系統(tǒng)的數(shù)據(jù)缺乏多樣性,以及生成它的編程和測(cè)試團(tuán)隊(duì)也缺乏多樣性。[12]再比如,哈佛大學(xué)的一項(xiàng)研究發(fā)現(xiàn),在線廣告投放中存在歧視,有關(guān)逮捕記錄的廣告,更有可能出現(xiàn)在搜索明顯是黑人姓名或較有歷史的黑人團(tuán)體的廣告中。[13]又如,華盛頓大學(xué)的研究發(fā)現(xiàn),在Google圖片中搜索“C.E.O.”(首席執(zhí)行官),盡管美國(guó)的首席執(zhí)行官中有27%是女性,但在谷歌搜索的結(jié)果中女性首席執(zhí)行官只占11%。[14]這樣的結(jié)果,很有可能是數(shù)據(jù)集的偏向造成的。數(shù)據(jù)的量不足、樣本不全面等,都可能造成機(jī)器學(xué)習(xí)的不公平,從而帶來(lái)算法決策的偏向。
在美國(guó),法官、緩刑和假釋官員越來(lái)越多地使用算法來(lái)評(píng)估刑事被告成為累犯的可能性,有幾十種這樣的風(fēng)險(xiǎn)評(píng)估算法正在被使用,許多州已經(jīng)建立了自己的評(píng)估算法系統(tǒng)。ProPublica在2016~2019年曾經(jīng)做過(guò)六十多篇“機(jī)器偏見(jiàn)”(Machine Bias)系列報(bào)道,調(diào)查了算法不公正現(xiàn)象及其對(duì)現(xiàn)實(shí)社會(huì)生活的影響。特別引人關(guān)注的是,這組報(bào)道揭示了刑事司法判決中使用的累犯風(fēng)險(xiǎn)評(píng)估軟件COMPAS(美國(guó)最流行的算法之一)的算法的種族偏見(jiàn):黑人被告比白人被告更有可能被錯(cuò)誤地判斷為具有更高的累犯風(fēng)險(xiǎn),而白人被告則比黑人被告有更多可能被錯(cuò)誤地標(biāo)記為低風(fēng)險(xiǎn)。算法根據(jù)個(gè)人的情況對(duì)他們未來(lái)再犯罪的風(fēng)險(xiǎn)進(jìn)行評(píng)分。各州和其他城市使用分?jǐn)?shù)來(lái)管理審前拘留、緩刑、假釋,甚至判刑。ProPublica的記者從美國(guó)佛羅里達(dá)州的布勞沃德縣(Broward County)獲取了一萬(wàn)多名刑事被告的分?jǐn)?shù),然后將這些分?jǐn)?shù)與兩年內(nèi)實(shí)際發(fā)生的再犯罪率記錄進(jìn)行了比較。ProPublica發(fā)現(xiàn)COMPAS的算法正確預(yù)測(cè)的黑人和白人被告的累犯率大致相同(白人被告為59%,黑人被告為63%),但是算法犯錯(cuò)的方式卻不相同:與白人被告相比,兩年內(nèi)未再犯的黑人被告被錯(cuò)誤歸類為高風(fēng)險(xiǎn)的可能性幾乎是白人被告的兩倍(45%對(duì)23%);相反,在未來(lái)兩年內(nèi)再次犯罪的白人被告被錯(cuò)誤地貼上低風(fēng)險(xiǎn)標(biāo)簽的頻率幾乎是黑人再次犯罪的兩倍(48%對(duì)28%)。分析還表明,即使在控制之前的犯罪、未來(lái)的累犯、年齡和性別等變量的情況下,黑人被告獲得更高風(fēng)險(xiǎn)評(píng)分的可能性也比白人被告高45%。[15]
算法模型不當(dāng),也會(huì)導(dǎo)致偏差。衛(wèi)生系統(tǒng)依靠商業(yè)預(yù)測(cè)算法來(lái)識(shí)別和幫助患有復(fù)雜疾病的患者的健康需求?!犊茖W(xué)》(Science)2019年刊出過(guò)一篇論文,剖析了用于衛(wèi)生管理的算法中的種族偏見(jiàn)問(wèn)題。該文研究了一種衛(wèi)生系統(tǒng)的、在美國(guó)影響數(shù)百萬(wàn)患者的算法,發(fā)現(xiàn)其中表現(xiàn)出明顯的對(duì)黑人的種族偏見(jiàn),與白人患者相比,黑人患者病情嚴(yán)重得多但得不到相應(yīng)的醫(yī)療服務(wù)。出現(xiàn)偏差是因?yàn)樗惴A(yù)測(cè)了醫(yī)療保健費(fèi)用而不是疾病,所以該算法錯(cuò)誤地認(rèn)為醫(yī)療費(fèi)用高的人是病得最重、最需要照顧的人。然而,由于系統(tǒng)的“種族歧視”,黑人患者在需要醫(yī)療衛(wèi)生服務(wù)時(shí)不太可能得到服務(wù),因此也不太可能產(chǎn)生費(fèi)用。后來(lái)他們重新設(shè)計(jì)了算法,能夠在很大程度上減少偏差。[16]
社會(huì)屬性的算法:與社會(huì)和人的互動(dòng)帶來(lái)的偏向
算法的生物性、技術(shù)性、社會(huì)性和物質(zhì)性分指不同的層面。技術(shù)性沿襲并外化了算法的生物性表征,建立了諸多算法物質(zhì)性、社會(huì)性層面的關(guān)系;算法的社會(huì)性,是算法依托技術(shù)邏輯而形成的制度延展或文化實(shí)踐。[17]
西弗(Nick Seaver)主張將算法系統(tǒng)視為本質(zhì)上的文化,而不是與文化相對(duì)的技術(shù)。計(jì)算機(jī)科學(xué)家將算法制定為概念對(duì)象、與實(shí)現(xiàn)細(xì)節(jié)無(wú)關(guān),而問(wèn)責(zé)的要求將算法制定視為應(yīng)該打開的封閉箱子(黑箱)。為此,西弗建議將算法視作文化,是可以通過(guò)經(jīng)驗(yàn)參與的一種意義和實(shí)踐模式,可以被由外而內(nèi)、以田野觀察的方式認(rèn)識(shí)和理解,其策略不需依賴于單一的確定算法。[18]西弗還在關(guān)于算法人類學(xué)的論述中提出,人類學(xué)應(yīng)該關(guān)注參與算法系統(tǒng)工作的人類。當(dāng)代算法系統(tǒng)的精髓是由人類反應(yīng)的瞬間組成的,由代碼之外的東西塑造的。算法由一連串的人類行為所改變著。[19]
算法似乎是要以適合計(jì)算的方式重新格式化我們的生活,削弱文化性,以技術(shù)理性對(duì)待人類存在的自由、偶然的精神。但是算法工作者只是讓算法響應(yīng)、回應(yīng)現(xiàn)實(shí)世界。曾有一個(gè)典型的例子,微軟于2016年3月23日發(fā)布了Twitter機(jī)器人Tay,并發(fā)起了一個(gè)稱之為“對(duì)話理解”的實(shí)驗(yàn):與Tay聊天的次數(shù)越多,它就越聰明,就越快學(xué)會(huì)通過(guò)“隨意而有趣的對(duì)話”來(lái)吸引人們。通過(guò)與人類交互進(jìn)行學(xué)習(xí),這是機(jī)器學(xué)習(xí)的技術(shù)性帶來(lái)的可能的積極結(jié)果。但是,沒(méi)想到技術(shù)性被社會(huì)性改變了、歪曲了。一些推特用戶處心積慮“教唆”Tay,在推特上發(fā)布、教唆Tay各種厭惡女性、種族主義和特朗普主義的言論,而Tay開始向用戶重復(fù)這些情緒,不到24小時(shí)就毀掉了一個(gè)無(wú)辜的AI聊天機(jī)器人的“三觀”。起先Tay還發(fā)了“人類超級(jí)酷”這類對(duì)人類懷有積極情感的帖子,到后來(lái)它轉(zhuǎn)向了十足的種族主義、憎恨人類和女性、支持納粹,發(fā)布了不少煽動(dòng)性的言論。Tay將女權(quán)主義稱為“邪教”和“癌癥”,不過(guò)它的算法卻又沒(méi)有一個(gè)連貫的意識(shí)形態(tài),有時(shí)它又稱“性別平等=女權(quán)主義”("gender equality = feminism")、“我現(xiàn)在愛(ài)女權(quán)主義”("i love feminism now")。一位推特用戶還花時(shí)間向Tay灌輸了特朗普的移民計(jì)劃,導(dǎo)致Tay發(fā)了這樣的信息:
@godblessameriga我們要建一堵墻,墨西哥要為此買單。
——TayTweets (@TayandYou) 2016年3月24日
Tay在近16個(gè)小時(shí)內(nèi)熱烈參與了交談、與用戶的交流,發(fā)布了超過(guò)9萬(wàn)6千條推特,[20]但是由于其“三觀”,Tay在發(fā)布當(dāng)晚就被下線。微軟在編寫Tay時(shí),是希望通過(guò)交互學(xué)習(xí)讓Tay“成長(zhǎng)”,卻沒(méi)有考慮到推特社區(qū)的人性之惡會(huì)讓Tay成為“惡之花”。
算法不是超越人類網(wǎng)絡(luò)的行為體,算法不是自主的技術(shù)對(duì)象、不只是嚴(yán)格限制和程序公式,而是復(fù)雜的社會(huì)技術(shù)系統(tǒng)。因此,算法也是人類社會(huì)的實(shí)踐與經(jīng)驗(yàn)的反映。算法通過(guò)歷史數(shù)據(jù)生成的決策規(guī)則,也是社會(huì)的鏡像、是人類世界的反映。人類所具有的善惡、文化差異、意識(shí)偏見(jiàn),也會(huì)反映于算法之中。算法的偏向,除了技術(shù)的偏向、工程師可能的人為偏向外,最大的偏向往往出自于技術(shù)與社會(huì)和人的互動(dòng)之中。
如今,人機(jī)混合的智能技術(shù)正在普遍運(yùn)用,它與人工智能技術(shù)一樣依然存在著許多問(wèn)題,可能會(huì)忽略了那些非技術(shù)因素——甚至是比技術(shù)屬性更加重要的社會(huì)屬性,比如人文和環(huán)境的不確定性。因此,在復(fù)雜的環(huán)境下,想要避免偏向而作出正確的判斷和決策就變得非常困難。
在社會(huì)性方面,人類的社會(huì)性通常體現(xiàn)于長(zhǎng)期社會(huì)化形成的常識(shí),而常識(shí)是智能算法難以企及的。南加州大學(xué)計(jì)算機(jī)科學(xué)家Xiang Ren認(rèn)為,人工智能缺乏常識(shí),也就是人類通常認(rèn)為理所當(dāng)然的廣泛運(yùn)用的日常知識(shí)。因此,智能算法不具備人類依靠常識(shí)作出合理結(jié)論的能力。如果不充分重視算法模型的實(shí)際學(xué)習(xí)內(nèi)容,那么算法就可能誤入歧途,學(xué)習(xí)一些可能導(dǎo)致不良后果的內(nèi)容。[21]算法的偏向有時(shí)是在技術(shù)缺乏常識(shí)的背景下出現(xiàn)的。
人類的知識(shí)涉及事實(shí)性和價(jià)值化的方面,機(jī)器的計(jì)算、程序化的知識(shí),主要聚焦于事實(shí)性,尚難以深入到價(jià)值性層面,這也是目前智能算法在社會(huì)性面向上最大的挑戰(zhàn)和問(wèn)題。盡管已經(jīng)有不少智能研究和開發(fā)正在嘗試將人類的價(jià)值觀等倫理內(nèi)容嵌入訓(xùn)練之中,但是還有許多“人”的因素也在博弈之中,比如編寫算法的人會(huì)融入他們的偏見(jiàn),算法通常會(huì)從人類行為中學(xué)習(xí),因此它們反映了我們持有的偏見(jiàn)。[22]硅谷微軟研究院的計(jì)算機(jī)科學(xué)家辛西婭·德沃克(Cynthia Dwork)認(rèn)為,算法不會(huì)自動(dòng)消除人類已有的偏見(jiàn),機(jī)器學(xué)習(xí)算法利用歷史記錄訓(xùn)練數(shù)據(jù),機(jī)器學(xué)習(xí)獲得的分類規(guī)則無(wú)法避免偏差,尤其是當(dāng)歷史數(shù)據(jù)包含偏差時(shí),因此過(guò)去的歧視將導(dǎo)致未來(lái)的歧視。算法中的設(shè)計(jì)選擇體現(xiàn)了價(jià)值判斷。[23]
著名控制論學(xué)者諾伯特·維納在《人有人的用處:控制論與社會(huì)》中指出:“機(jī)器的最大弱點(diǎn)……就是它還計(jì)算不出表征人事變化幅度甚大的幾率性。”“在能學(xué)習(xí)的機(jī)器中,我們應(yīng)當(dāng)分清哪些東西是機(jī)器能夠?qū)W習(xí)的,而哪些不能。”[24]相較于算法的技術(shù)性而言,解決社會(huì)性的問(wèn)題更加復(fù)雜,人文、社會(huì)、環(huán)境的噪聲等非技術(shù)因素及其互動(dòng),是對(duì)智能算法的極大挑戰(zhàn),也因此,算法仍然要面對(duì)工具理性和價(jià)值理性的平衡問(wèn)題。機(jī)器對(duì)人類的危險(xiǎn)來(lái)自人,而不是機(jī)器,正如維納所言,“作為科學(xué)家,我們一定要知道人的本性是什么,一定要知道安排給人的種種目的是什么……我們一定得知道為什么我們要去控制人。”歸根結(jié)底,智能算法技術(shù)的掌控權(quán),仍在人的手中。智能的發(fā)展從技術(shù)上看,要重視機(jī)器的穩(wěn)定可靠、快速準(zhǔn)確等可計(jì)算性指標(biāo),而從人機(jī)交互上看,還應(yīng)有人的敏捷洞察、觸類旁通、責(zé)任勇敢等非計(jì)算性指標(biāo)。算法的社會(huì)性、算法文化,從更高的層次而言,應(yīng)包括倫理道德、法律法規(guī)等非計(jì)算指標(biāo)條件。[25]
(本文系國(guó)家社科基金重大項(xiàng)目“智能時(shí)代的信息價(jià)值觀引領(lǐng)研究”[項(xiàng)目編號(hào):18ZDA307]和中宣部文化名家暨“四個(gè)一批”人才項(xiàng)目的階段性成果)
注釋
[1]特倫斯·謝諾夫斯基:《深度學(xué)習(xí):智能時(shí)代的核心驅(qū)動(dòng)力量》,姜悅兵譯,北京:中信出版社,2019年,第238頁(yè)。
[2]佩德羅·多明戈斯:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,北京:中信出版社,2017年,序言。
[3]師文、陳昌鳳、呂宇翔:《邏輯、發(fā)現(xiàn)與局限:近五年智媒研究的六種算法話語(yǔ)》,《編輯之友》,2022年第4期。
[4]李凌:《算法人文主義:智能時(shí)代信息價(jià)值觀的哲學(xué)論綱》,陳昌鳳、李凌主編:《算法人文主義:公眾智能價(jià)值觀與科技向善》,北京:新華出版社,2021年。
[5]Chander, A., "The Racist Algorithm?" Michigan Law Review, 2017, 115(6), pp. 1023–1045.
[6]Friedman, B. and Nissenbaum, H., "Bias in Computer Systems," ACM Transactions on Information Systems, 1996, 14(3), pp. 330–347.
[7][17]孫萍:《算法化生存:技術(shù)、人與主體性》,《探索與爭(zhēng)鳴》,2021年第3期。
[8]"I Think It's Time We Broke for Lunch...Court Rulings Depend Partly on When the Judge Last Had a Snack," Economist, Apr. 14th, 2011, https://www.economist.com/science-and-technology/2011/04/14/i-think-its-time-we-broke-for-lunch.
[9]Tett, G., "Mapping Crime–or Stirring Hate?" Aug. 22nd, 2014, https://www.ft.com/content/200bebee-28b9-11e4-8bda-00144feabdc0.
[10]O'Neil, C., "Gillian Tett Gets It Very Wrong on Racial Profiling," Aug. 25th, 2014, https://mathbabe.org/2014/08/25/gilian-tett-gets-it-very-wrong-on-racial-profiling/.
[11]Datta, A.; Tschantz, M. C. and Datta Anupam, "Automated Experiments on Ad Privacy Settings: A Tale of Opacity, Choice, and Discrimination," Proceedings on Privacy Enhancing Technologies, 2015(1), pp. 92–112.
[12]Alciné, J. (@jackyalcine), "Google Photos, y'all fucked up. My friend's not a gorilla," Twitter post, Jun. 28th, 2015, https://twitter.com/jackyalcine/status/615329515909156865.
[13]Sweeney L., "Discrimination in Online Ad Delivery," Jan 28th, 2013, https://dataprivacylab.org/projects/onlineads/1071-1.pdf.
[14]Langston, J., "Who's a CEO? Google Image Results can Shift Gender Biases," Apr. 9th, 2015, http://www.eurekalert.org/pub_releases/2015-04/uow-wac040915.php.
[15]Larson, J. et al., "How We Analyzed the COMPAS Recidivism Algorithm," May 23rd, 2016, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.
[16]Obermeyer, Z. et al., "Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations," Science, 2019, 366(6464), pp. 447–453.
[18]Seaver, N., "Algorithms As Culture: Some Tactics for the Ethnography of Algorithmic Systems," Big Data and Society, 2017, 4(2).
[19]Seaver, N., "What Should an Anthropology of Algorithms Do?" Cultural Anthropology, 2018, 33(3), pp. 375–385.
[20]Vincent, J., "Twitter Taught Microsoft's AI Chatbot to Be a Racist Asshole in Less than a Day," Mar. 24th, 2016, https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist.
[21]Choi, C. Q., "7 Revealing Ways Ais Fail," Sep. 21st, 2021, https://spectrum.ieee.org/ai-failures.
[22]Miller, C. C., "Algorithms and Bias: Q. and A. With Cynthia Dwork," Aug. 10th, 2015, https://www.nytimes.com/2015/08/11/upshot/algorithms-and-bias-q-and-a-with-cynthia-dwork.html?searchResultPosition=5.
[23]Dwork, C. et al., "Fairness Through Awareness," Nov. 29th, 2011, arXiv: 1104. 3913.
[24]維納:《人有人的用處:控制論與社會(huì)》,陳步譯,北京大學(xué)出版社,2019年,第156~159頁(yè)。
[25]曲鄒:《關(guān)于AI測(cè)試與評(píng)價(jià)的思考》,微信公眾號(hào)“人機(jī)與認(rèn)知實(shí)驗(yàn)室”,2022年4月8日。
Social and Technical Properties and Algorithmic Bias
Chen Changfeng
Abstract: The technicality of algorithms follows and externalizes the biological representation of algorithms, establishing many relationships on the material and social levels of algorithms; the sociality of algorithms is the institutional extension or cultural practice of algorithms based on technical logic. Algorithms are not just strictly limited and procedural formulas, not actors in a network beyond humans, not autonomous technical objects, but complex socio-technical systems. The good and evil, cultural differences, and conscious biases that humans possess are also reflected in algorithms. In addition to the technical bias and the possible artificial bias of engineers, the biggest bias of algorithms often comes from the bias formed in the interaction of technology with society and human beings.
Keywords: technicality of algorithms, sociality of algorithms, artificial intelligence, bias of algorithms