摘 要:智能技術(shù)接入媒體,促進(jìn)用戶、信息、服務(wù)與場景的連接,提升內(nèi)容產(chǎn)制與傳播的效率,但技術(shù)風(fēng)險在媒介傳播實(shí)踐中可能轉(zhuǎn)換生成算法的倫理、法律、文化與意識形態(tài)風(fēng)險。倫理倡導(dǎo)和法律規(guī)制是算法治理“在地化”的有效路徑。智能傳播的算法治理,需要平衡價值觀與創(chuàng)新觀、技術(shù)崇拜與內(nèi)容供給、技術(shù)迭代與法律規(guī)制之間的關(guān)系,實(shí)現(xiàn)倫理、法律、文化等維度的協(xié)同治理。
關(guān)鍵詞:智能傳播 算法 風(fēng)險治理 意識形態(tài) 協(xié)同治理
【中圖分類號】G206 【文獻(xiàn)標(biāo)識碼】A
全球范圍內(nèi)興起的“人工智能熱”,推動了我國一系列國家戰(zhàn)略和政策的出臺,如2017年7月8日,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》;12月13日,工業(yè)和信息化部又發(fā)布了《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)》等。信息產(chǎn)業(yè)的發(fā)展趨勢、媒介變革的行業(yè)需求,推動著智能傳播形態(tài)、業(yè)態(tài)與生態(tài)的變革。智能媒體不斷嵌入公眾的社會生活與個人的日常生活。智能技術(shù)基于信息、服務(wù)、商品、場景的連接,使人、物與地點(diǎn)的信息匹配變得愈發(fā)便捷,但也引發(fā)了倫理、法律和文化等領(lǐng)域的諸多風(fēng)險。
智能算法在傳播中的應(yīng)用及其影響
塔勒頓·吉萊斯皮(2014)認(rèn)為,算法的理解有狹義和廣義之分:狹義的理解將其視為特殊的決策技術(shù);廣義的理解將其視為建構(gòu)社會秩序的理性模型。智能算法在媒體行業(yè)的接入和可持續(xù)性應(yīng)用,產(chǎn)生了重要的社會影響。
機(jī)器算法在傳播中的應(yīng)用
伴隨著智能媒體化和媒體智能化的雙向進(jìn)程,智能媒體逐漸成為傳媒領(lǐng)域的新主體。作為一種高度匹配信息與用戶需求的媒介形態(tài),智能媒體引導(dǎo)傳播實(shí)踐向存儲云端化、內(nèi)容垂直化、需求場景化及行業(yè)智能化邁進(jìn)[1]。算法在傳媒業(yè)主要應(yīng)用于內(nèi)容產(chǎn)品生成、分發(fā)兩個環(huán)節(jié)。
內(nèi)容的自動化生產(chǎn)創(chuàng)造了新的媒體形態(tài)。機(jī)器人新聞(robot journalism)、傳感器新聞、AI主播和AI配音等,便是大數(shù)據(jù)、機(jī)器學(xué)習(xí)等技術(shù)運(yùn)用的結(jié)晶。例如,新華社的“快筆小新”在自動采集體育、財經(jīng)或氣象等信息后,2—3秒鐘便可生成相應(yīng)稿件;今日頭條的“張小明(xiaomingbot)”會根據(jù)體育賽事實(shí)況調(diào)整新聞表達(dá)并自動配圖;英國《衛(wèi)報》推出的“#Open001”和《精讀》(The Long Good Read)等產(chǎn)品,用算法編輯報紙以迎合讀者喜好。智能算法有望幫助傳媒從業(yè)者從機(jī)械式勞作中解脫出來。例如,騰訊的寫稿機(jī)器人“Dreamwriter”不僅全時段無休、年均發(fā)稿50萬篇,還能智能審核、反饋、糾錯;“AI合成主播”依托音視頻合成、機(jī)器學(xué)習(xí)等技術(shù),能在特殊情境下取代傳統(tǒng)主播的工作。
此外,信息判斷的價值取向從經(jīng)驗主義向計算主義偏轉(zhuǎn),信息分發(fā)模式從大眾傳播走向個性化推薦。“連接”是互聯(lián)網(wǎng)的要義[2],而平臺、用戶與信息的算法“再連接”(rewiring/reconnecting)是智能傳播的核心。
在平臺連接中,智能媒體平臺通過協(xié)同過濾、社交推薦和流量池推薦等多種算法機(jī)制,提供人與信息的連接服務(wù)。當(dāng)前的服務(wù)類型主要有以谷歌為代表的搜索引擎類、以Facebook為代表的社交媒體類和以“今日頭條”為代表的信息聚合類三種。算法推薦信息的標(biāo)準(zhǔn)被稱為“算法價值”,因平臺性質(zhì)不同,具體信息推送標(biāo)準(zhǔn)與優(yōu)先級會存在差異。在用戶連接中,算法主要依賴虛擬空間的用戶畫像,包括用戶的個體信息(如年齡、性別等人口學(xué)特征)、行為信息(如點(diǎn)贊、收藏和轉(zhuǎn)發(fā)等記錄)以及場景信息等。而在移動傳播的場景連接中,“場景”成為信息匹配的重要依據(jù),它涉及大數(shù)據(jù)、移動設(shè)備、社交媒體、傳感器、定位系統(tǒng)五項要素(羅伯特·斯考伯等,2014)。算法的個性化推薦高度依賴信息、平臺、用戶和場景的連接。
機(jī)器算法對傳播的影響
智能技術(shù)在宏觀上重塑傳媒生態(tài),在中觀層面形塑傳媒業(yè)態(tài),在微觀層面改變傳媒形態(tài)。首先,智能技術(shù)嵌入國家、社會、媒介與個人的復(fù)雜互動,從根本上改變了傳媒的生態(tài)?;诖髷?shù)據(jù)、物聯(lián)網(wǎng)與機(jī)器學(xué)習(xí)的智能傳播,重構(gòu)了現(xiàn)有的媒介版圖、營銷邏輯與規(guī)制模式。其次,技術(shù)與媒介的聯(lián)結(jié),催生了平臺媒體、計算廣告、智能語音等產(chǎn)業(yè)。最后,智能技術(shù)再造新聞生產(chǎn)流程與分發(fā)模式,不僅提高了信息生產(chǎn)效率與分發(fā)精準(zhǔn)度,還發(fā)展出機(jī)器人新聞、AI主播和AI配音、傳感器新聞、智能推薦等業(yè)態(tài)。
智能技術(shù)的“算法轉(zhuǎn)向”,用技術(shù)創(chuàng)新改變著傳媒形態(tài)、業(yè)態(tài)與生態(tài),也在傳播思維、文化觀念與意識形態(tài)等層面啟發(fā)著關(guān)于媒介技術(shù)與現(xiàn)代性的思考。然而,新技術(shù)總是陷入“解決老問題—引發(fā)新問題”的循環(huán)之中。個人意識形態(tài)陷阱、算法倫理、算法侵權(quán)、文化及意識形態(tài)等風(fēng)險,凸顯出算法治理的迫切性,亟需引起廣泛關(guān)注。
智能傳播的算法風(fēng)險
技術(shù)的不確定性不斷向制度、心理和文化滲透,帶來技術(shù)風(fēng)險。智能技術(shù)的風(fēng)險既涉及客觀事實(shí)層面,也包括主觀意識層面,還可能轉(zhuǎn)化為經(jīng)濟(jì)、政治或文化等領(lǐng)域的現(xiàn)實(shí)危機(jī)。而當(dāng)算法被建構(gòu)為新聞客觀主義、技術(shù)樂觀主義的載體時,無議價能力的機(jī)器勞動、個性化推薦以及算法的商業(yè)秘密身份在一定程度上遮蔽了技術(shù)的風(fēng)險。
算法的倫理風(fēng)險
個人意識形態(tài)陷阱。智能技術(shù)充當(dāng)了傳媒業(yè)和用戶的中介,借助用戶畫像實(shí)現(xiàn)內(nèi)容的個性化推薦。而算法借代理用戶進(jìn)行信息篩選的契機(jī),控制了注意力市場和媒體信息系統(tǒng),但這卻可能導(dǎo)致用戶“失去意外發(fā)現(xiàn)好文章的機(jī)會”(尼爾·瑟曼,2011)。算法的內(nèi)容審查排斥了強(qiáng)化公民意識、社會責(zé)任的嚴(yán)肅新聞,將用戶禁錮在個人意識形態(tài)之中(伊萊·帕理澤,2013)。用戶使用算法推薦,也是不自覺地接受平臺及其資本邏輯反向規(guī)訓(xùn)的過程。在計算思維的主導(dǎo)下,算法平臺難以提供造就“公共性”所必需的反思意識(芬威克·麥凱維,2014)。也就是說,算法內(nèi)容分發(fā)的千人千面在一定程度上對構(gòu)建公共對話的基礎(chǔ)提出了挑戰(zhàn)。
算法偏見及歧視。智能傳播過程中,用戶信息可能被濫用,引發(fā)算法偏見及歧視等倫理風(fēng)險??频?middot;戴維斯(2016)認(rèn)為,倫理影響是高度依賴語境的,忽視了倫理影響的“在場”就等于主動向創(chuàng)新利益與風(fēng)險損失間的失衡招手。機(jī)器算法也包含價值嵌入,它模糊了人的決策過程,容易讓信息被誤用并形成偏見。現(xiàn)有的機(jī)器無法分辨數(shù)據(jù)中隱藏的價值偏向,會歸納、同構(gòu)并放大人類的偏見與歧視(彭蘭,2018)。社會偏見融入算法的技術(shù)設(shè)計和運(yùn)行過程,又在用戶的日常使用中形成偏見循環(huán)。
算法的侵權(quán)風(fēng)險
“以隱私讓渡換取個性化推薦”是算法推薦的交易法則。算法的技術(shù)復(fù)雜性、不透明性和商業(yè)保密性將用戶的知情權(quán)擱置,形成智能傳播的“黑箱效應(yīng)”。算法不透明的張力潛隱于智能傳播的算法邏輯中。
代碼的權(quán)力隱含于算法之中。大數(shù)據(jù)時代的遺忘是特例,記憶是常態(tài)。在這個意義上,大數(shù)據(jù)社會也是一個“監(jiān)控社會”(surveillance society)?;ヂ?lián)網(wǎng)平臺的隱私條款往往是單方面且難以追責(zé)的。用戶的知情權(quán)、隱私權(quán)和被遺忘權(quán)等個人權(quán)利,面臨著在不知不覺中被侵犯的風(fēng)險。語音、指紋、面部特征等伴隨終生的生物信息,一旦被授權(quán)使用,將會帶來多方面且長期性的風(fēng)險。用戶的行為、心理等隱私信息若被泄露或非法使用,也會對用戶的肖像權(quán)、人身和財產(chǎn)安全造成威脅。
算法的文化風(fēng)險
算法推薦強(qiáng)調(diào)的是依據(jù)程序指令完成“實(shí)然”面向,卻忽視了人文價值判斷、公眾責(zé)任意識等“應(yīng)然”面向。
智能平臺的整體設(shè)計為負(fù)面文化蔓延提供了溫床。美國社交網(wǎng)站Reddit的“玩家門事件”和“名人照片泄露事件”凸顯出一種“有毒的技術(shù)文化”——平臺的治理策略和算法邏輯縱容了種族主義與“反女性主義”的活動(阿德里安·馬薩納里,2017)。
智能算法的文化風(fēng)險不僅關(guān)涉平臺媒體的信息內(nèi)容及其傳播過程,還關(guān)乎平臺與社會的互構(gòu)關(guān)系。例如,“你關(guān)心的,才是頭條”“記錄美好生活”“記錄世界,記錄你”等“平民修辭”“趨勢排行”和“頁面排名”的“真實(shí)”鏡像,在一定程度上體現(xiàn)了強(qiáng)烈的私有性、排他性、利益相關(guān)性。因此,泰德·斯特瑞佛斯(2015)認(rèn)為,算法是維持而非打破既有結(jié)構(gòu)的文化使徒,算法文化是一種精英文化的變體,背棄了文化的公共性原則。
算法的公共輿論風(fēng)險
智能傳播時代,社交媒體升級為輿論博弈的主要場域,社交機(jī)器人則成為輿論動員的工具。研究發(fā)現(xiàn),Twitter上存在大量攻擊、對抗中國政府的虛假信息和機(jī)器人賬戶(吉莉安·博爾索弗、菲利普·霍華德,2019)。而社交媒體上的算法操縱、信息聚合平臺的價值觀紊亂,必然導(dǎo)致公眾輿論風(fēng)險。具體體現(xiàn)在:智能算法與新型傳播機(jī)制,打破了主流媒體的渠道壟斷,影響了主流價值觀的形塑;缺乏價值觀引導(dǎo)的技術(shù)迭代以及資本逐利的本性,將引發(fā)意識形態(tài)的新社會風(fēng)險;智能技術(shù)的工具理性躍升價值理性之上,導(dǎo)致算法神話的誕生;一些非理性、煽動性的信息以個性化、互動化和場景化的形式向活躍的青年用戶群體傳播,解構(gòu)著社會共識。
智能傳播的算法治理路徑
算法在提高社會運(yùn)行效率的同時,也帶來“不可解釋隱憂”“自我強(qiáng)化困境”“主體性難題”等新社會風(fēng)險[3]。算法治理是在數(shù)據(jù)公正、算法透明和算法問責(zé)的基礎(chǔ)上追求算法正義的過程[4]。算法的風(fēng)險治理呈現(xiàn)出跨學(xué)科、協(xié)同治理的路徑依賴特征。
數(shù)據(jù)倫理的倡導(dǎo)
好的技術(shù)須是可被專業(yè)人員理解、具有高可塑性與低依賴性的[5],其發(fā)展應(yīng)當(dāng)提升“人的價值”并導(dǎo)向人類的“理想生活”(good life)。美國的“阿西洛馬人工智能原則”(Asilomar AI Principles)強(qiáng)調(diào)人工智能應(yīng)符合一般的“人的價值”(尊嚴(yán)、權(quán)利、自由和文化等),并列出了安全性、透明性、與人類價值觀保持一致、隱私保護(hù)、分享利益、共同繁榮、人類控制、非顛覆以及禁止智能裝備競賽等倫理原則。
“智能技術(shù)并非價值中立,其媒介應(yīng)用需要倫理導(dǎo)向”已成為一種社會共識。如《人工智能時代:確立以人為本的歐盟人工智能戰(zhàn)略》《通用數(shù)據(jù)保護(hù)條例》和《人工智能道德準(zhǔn)則》,皆采取重視智能技術(shù)的倫理問題,強(qiáng)調(diào)以價值觀引導(dǎo)智能技術(shù),造福個人和社會的一貫立場。這些研究和舉措可以為我國智能傳播的倫理規(guī)制提供借鑒。
智能算法的法律規(guī)制
算法治理應(yīng)當(dāng)從技術(shù)、經(jīng)濟(jì)、倫理和政治等多維度,平衡技術(shù)創(chuàng)新與風(fēng)險規(guī)避。但是,有效的算法治理并非易事。算法問責(zé)、算法透明與公開、言論自由與版權(quán)保護(hù)等,成為智能傳播法律規(guī)制的關(guān)鍵議題。
近年來,針對算法透明及可理解性,算法與言論自由保護(hù)范圍的爭議,階層固化、認(rèn)知偏差和社會歧視的復(fù)制、延續(xù)和再生產(chǎn),種族與性別歧視“自我循環(huán)”,算法主體性風(fēng)險,算法內(nèi)容版權(quán)等問題,各國都在尋求法律規(guī)制的可行性路徑。
如果說歐盟側(cè)重于從源頭進(jìn)行規(guī)制,美國注重以案例提供法律參照,那么中國則傾向于針對不同領(lǐng)域進(jìn)行分散式立法[6]。與片面主張算法透明與公開不同,有研究者認(rèn)為,更有效的治理方式是“從算法被影響者的角度觀察、考量算法的應(yīng)用結(jié)果”[7]。例如,在針對智能技術(shù)立法時,網(wǎng)絡(luò)用戶的知情權(quán)和參與權(quán)也應(yīng)當(dāng)被納入進(jìn)來。當(dāng)然,因智能技術(shù)處于動態(tài)發(fā)展之中,技術(shù)迭代和法律規(guī)制的兼容問題仍需進(jìn)一步探索。
多元協(xié)同的治理
算法實(shí)踐及其影響的復(fù)雜性需要進(jìn)一步結(jié)合“在地化”過程來理解,算法治理模式的探索也應(yīng)如此。智能傳播的算法治理,不僅需要新聞從業(yè)者、編程者、規(guī)制者等多元主體的共同參與,也需要傳統(tǒng)媒體、智能算法平臺及政府部門等多部門的支持。
一是主流媒體的價值引領(lǐng)。我國對智能媒體的算法規(guī)制由主流媒體與政府部門共同主導(dǎo)[8],且往往是主流媒體發(fā)聲監(jiān)督在前,政府部門規(guī)制在后。智能算法導(dǎo)致傳播權(quán)力流動,使傳統(tǒng)的主流價值觀及相關(guān)話語塑造體系面臨挑戰(zhàn)。主流媒體的價值引領(lǐng),主要有話語建構(gòu)和技術(shù)采納兩種途徑。2017年,《人民日報》、人民網(wǎng)多次質(zhì)疑算法的倫理問題;2018年上半年,國家網(wǎng)信辦針對內(nèi)容“三俗”問題約談多個短視頻平臺并要求整改;2018年下半年,人民日報社牽頭打造有價值觀的“黨媒算法”和新型主流平臺。主流媒體的系列舉措,既是對社會化媒體的監(jiān)督,也是一種把握傳播話語權(quán)、規(guī)避意識形態(tài)風(fēng)險、參與協(xié)同治理的策略。
二是監(jiān)管部門的制度完善?;诨ヂ?lián)網(wǎng)治理的經(jīng)驗,智能傳播的算法風(fēng)險被納入政府監(jiān)管當(dāng)中。國家網(wǎng)信辦出臺了一系列規(guī)定,將算法治理的理念具象化為相關(guān)的條文條例,如《互聯(lián)網(wǎng)新聞信息服務(wù)管理規(guī)定》(2017年)《網(wǎng)絡(luò)安全威脅信息發(fā)布管理辦法(征求意見稿)》(2019年)等。此外,歸網(wǎng)信辦管轄的違法和不良信息舉報中心,在借助群眾力量共同進(jìn)行算法治理,并通過專項整治和集中約談等方式在互聯(lián)網(wǎng)清理規(guī)范方面發(fā)揮了重要作用。
三是算法平臺的技術(shù)治理。智能平臺的技術(shù)干預(yù),是以“技術(shù)之力”治理技術(shù)風(fēng)險。憑借大數(shù)據(jù)和智能算法,阿里巴巴集團(tuán)推出的“AI謠言粉碎機(jī)”,能夠通過信源判斷、內(nèi)容特征對比及用戶態(tài)度計算等方法進(jìn)行智能辟謠。今日頭條的“反謠言技術(shù)路線圖”披露了謠言從被審核、被識別到被沉淀至謠言庫的整個生命周期。智能語言處理、語音及圖像識別等人工智能技術(shù),也在推動著自動化事實(shí)核查(automated fact-checking)的發(fā)展。算法平臺的技術(shù)治理,體現(xiàn)了從提升信息生產(chǎn)效率到追求信息準(zhǔn)確性的取向轉(zhuǎn)變。
算法治理中的觀念平衡
面對技術(shù)和倫理上的雙重困境,各國的本土化發(fā)展戰(zhàn)略展示出不同治理邏輯。歐美算法治理理念的差異,在數(shù)據(jù)利用和隱私保護(hù)構(gòu)成的矛盾關(guān)系方面尤為明顯。針對智能算法帶來的技術(shù)風(fēng)險,歐盟主張信息行為主體對其網(wǎng)絡(luò)信息的有效控制,充分尊重刪除權(quán)、被遺忘權(quán)等權(quán)益,將“個人隱私保護(hù)”視為一種人格尊嚴(yán)和基本權(quán)利,通過對“人工智能價值觀”的重視來彰顯其獨(dú)特優(yōu)勢。人工智能技術(shù)領(lǐng)先的美國,則偏向維護(hù)技術(shù)發(fā)展的創(chuàng)新觀,傾向于將隱私視為一種“基本價值”,側(cè)重“保護(hù)言論自由”(Steven C. Bennett,2012)。而實(shí)現(xiàn)人工智能的價值觀與創(chuàng)新觀、技術(shù)崇拜與內(nèi)容供給間的平衡[9],是我國在智能傳播時代進(jìn)行算法治理的必然選擇。
從倫理、法律、文化等多維度進(jìn)行多元協(xié)同治理,有助于規(guī)避智能傳播的算法風(fēng)險,營造風(fēng)清氣正的網(wǎng)絡(luò)空間。
【本文作者為華中科技大學(xué)新聞與信息傳播學(xué)院教授;本文系中央高?;究蒲袠I(yè)務(wù)經(jīng)費(fèi)資助文科重大及交叉項目“‘可見性’視角下的社交媒體信息安全研究”(項目編號:2015AD007)、文科前沿探索項目“大數(shù)據(jù)時代社交媒體中的信息風(fēng)險及其治理研究”(項目編號:2015AB016)階段性成果;華中科技大學(xué)新聞與信息傳播學(xué)院碩士研究生郭瑞陽對本文亦有貢獻(xiàn)】
注釋
[1]胡正榮:《智能化:未來媒體的發(fā)展方向》,《現(xiàn)代傳播》,2017年第11期,第1-4頁。
[2]彭蘭:《連接的演進(jìn)——互聯(lián)網(wǎng)進(jìn)化的基本邏輯》,《國際新聞界》,2013年第12期,第7頁。
[3]賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期,第19-20頁。
[4]郭小平、秦藝軒:《解構(gòu)智能傳播的數(shù)據(jù)神話:算法偏見的成因與風(fēng)險治理路徑》,《現(xiàn)代傳播》,2019 年第9期,第22-24頁。
[5][美]蘭登·溫納:《自主性技術(shù):作為政治思想主題的失控技術(shù)》,楊海燕譯,北京:北京大學(xué)出版社,2014年,第280頁。
[6]汪慶華:《人工智能的法律規(guī)制路徑:一個框架性討論》,《現(xiàn)代法學(xué)》,2019年第2期,第54-63頁。
[7]賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期,第21頁。
[8]張志安:《算法推薦及其應(yīng)用實(shí)踐的中國“在地性”思考》,《新聞界》,2019年第7期,第14頁。
[9]郭小平、汪亞純:《智能媒體:傳媒業(yè)態(tài)、形態(tài)與生態(tài)的重構(gòu)及其反思》,《新華文摘》,2019年第18期,第128-130頁。
責(zé)編:羅 婷 / 王茂磊
聲明:本文為《國家治理》周刊原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)國家治理周刊微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。