久久天天躁综合夜夜黑人鲁色,超91在线,久久夜视频,91av免费在线观看,在线视频二区,亚洲欧美日韩专区一,在线播放国产一区二区三区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

算法治理:網(wǎng)絡(luò)空間治理的新挑戰(zhàn)

【摘要】加強網(wǎng)絡(luò)空間治理是維護國家與社會安全,發(fā)展新媒體產(chǎn)業(yè)與數(shù)字經(jīng)濟,促進新聞輿論工作良性運轉(zhuǎn)的重要保障。隨著媒介智能化發(fā)展的加速,算法治理已成為網(wǎng)絡(luò)空間治理的新挑戰(zhàn),算法環(huán)境導(dǎo)致了虛假信息快速繁殖、價值偏見隱蔽滲透、引導(dǎo)與迎合的矛盾尖銳、個人隱私與過度監(jiān)控、輿論斗爭與計算宣傳等問題。未來,應(yīng)以算法治理為中心加強網(wǎng)絡(luò)空間治理,發(fā)揮算法在網(wǎng)絡(luò)與社會治理中的積極作用,明確算法行為的責(zé)任主體,提升公眾媒介素養(yǎng),構(gòu)建多元主體共同參與的綜合治理體系。

【關(guān)鍵詞】算法 網(wǎng)絡(luò)空間 智能傳播 媒介素養(yǎng) 【中圖分類號】G206 【文獻標(biāo)識碼】A

習(xí)近平總書記指出:“從全球范圍看,媒體智能化進入快速發(fā)展階段。我們要增強緊迫感和使命感,推動關(guān)鍵核心技術(shù)自主創(chuàng)新不斷實現(xiàn)突破,探索將人工智能運用在新聞采集、生產(chǎn)、分發(fā)、接收、反饋中,用主流價值導(dǎo)向駕馭‘算法’,全面提高輿論引導(dǎo)能力。”當(dāng)前,算法的發(fā)展推動著媒介形態(tài)與傳播模式的變化,不僅深刻改變了形成于傳統(tǒng)媒體及大眾傳播時代的新聞傳播規(guī)律,其塑造的智能傳播環(huán)境亦有別于新媒體傳播早期的網(wǎng)絡(luò)空間。在信息生產(chǎn)端,基于算法的文本生成、圖像處理、語音合成愈發(fā)普及,重組了信息生產(chǎn)的主體結(jié)構(gòu)與職業(yè)陣容;在信息傳播過程中,智能算法推薦取代了傳統(tǒng)的“把關(guān)人”,內(nèi)容生產(chǎn)由引導(dǎo)受眾轉(zhuǎn)向迎合受眾,信息繭房的高墻越筑越高,社交機器人成為網(wǎng)絡(luò)輿論的助推手。在信息接收端,用戶在算法邏輯下被制造成“數(shù)字畫像”,個體的豐富性被可量化的群體標(biāo)簽取代,個人信息泄露風(fēng)險陡增。如同人類歷史上諸多科學(xué)技術(shù)產(chǎn)物一樣,算法是一把“雙刃劍”,一方面其提升了信息生產(chǎn)及分發(fā)的效率,解決了海量信息與網(wǎng)絡(luò)用戶間的適配問題,豐富了媒介產(chǎn)品形態(tài),滿足了用戶的個性化需求,甚至在一定情境與程度下克服了人性的固有缺陷,有助于傳播的公平正義。但另一方面其也引發(fā)了諸多風(fēng)險與問題,危及著現(xiàn)代人類社會的政治外交、新聞輿論、思想文化、公共交往、倫理道德,對網(wǎng)絡(luò)與社會治理發(fā)起了全新的挑戰(zhàn)。在中國式現(xiàn)代化視域下,營造健康清朗的網(wǎng)絡(luò)環(huán)境,推進國家治理體系和治理能力現(xiàn)代化,必須深刻認(rèn)識與把握算法及其相關(guān)技術(shù)應(yīng)用對新媒體以及社會的影響,構(gòu)建以算法治理為核心的網(wǎng)絡(luò)空間治理體系。

算法對網(wǎng)絡(luò)傳播生態(tài)的影響

算法環(huán)境構(gòu)筑了智能監(jiān)控社會。社會監(jiān)控并非網(wǎng)絡(luò)與算法傳播時代的全新事物,但基于算法的智能監(jiān)控在程度上遠甚人類歷史中的任何時段,監(jiān)控的程度被充分發(fā)揮,甚至使社會公眾的一言一行、一舉一動都呈現(xiàn)“透明化”。具體來說,算法傳播得以運作離不開作為基礎(chǔ)養(yǎng)料的大數(shù)據(jù),這些數(shù)據(jù)源于網(wǎng)絡(luò)用戶的個人信息,包括相對固定的個人身份信息以及源源不斷生產(chǎn)的網(wǎng)絡(luò)行為信息,瀏覽、收藏、點贊、評論等一切使用互聯(lián)網(wǎng)所留下的痕跡,都正在被各類應(yīng)用程序收集與處理,形成用戶畫像以供內(nèi)容推薦與廣告分發(fā)。此外,算法因其代碼書寫的專業(yè)壁壘與商業(yè)競爭等因素,一直存在透明性問題,常被喻為“黑箱”,或不可解釋的隱憂①。社會公眾往往只能被動得到算法處理的結(jié)果,并不知悉算法的具體邏輯與機制。其實,在眾多變量與算法疊加的復(fù)雜系統(tǒng)內(nèi),即便是算法工程師也難以從整體上理解系統(tǒng)的價值與偏向。許多學(xué)者認(rèn)為,算法不僅僅是計算機代碼與程序,在政治與社會學(xué)的意義上算法即權(quán)力。但是,以算法為中心架構(gòu)起的智能監(jiān)控社會并非是一種平等的結(jié)構(gòu),算法在通過技術(shù)權(quán)力制約傳統(tǒng)社會權(quán)力時,其背后也隱藏著資本的權(quán)力②,技術(shù)及其所有者可以憑借算法成功隱蔽于公眾視野之外,而一般公眾則在交出了全部個人隱私之后,成為被技術(shù)、商業(yè)、資本所控制的對象。

算法新聞導(dǎo)致傳統(tǒng)“把關(guān)人”的主體與流程失效,機器由媒介逐漸成為傳播者。在大眾傳播時代,新聞生產(chǎn)及分發(fā)尤為注重“把關(guān)人”的作用,無論是編輯、記者的個體把關(guān),還是新聞編輯部的組織把關(guān),把關(guān)責(zé)任主要掌握在職業(yè)傳播者及其機構(gòu)手中,把關(guān)流程因流水線一般的新聞生產(chǎn)常規(guī)也具有相對穩(wěn)定性。隨著互聯(lián)網(wǎng)的發(fā)展,對新聞傳播的把關(guān)更強調(diào)多元主體參與的作用,但這時技術(shù)之于把關(guān)活動更多還只是工具,并不具有自主性。而在算法環(huán)境下,機器與人的關(guān)系開始發(fā)生變化,傳統(tǒng)“把關(guān)人”的主體及流程開始失效,雖然人工生產(chǎn)與審核信息的工作仍舊存在,但其已不具有壟斷性與支配性,甚至逐漸走向輔助性工作。面對社會信息系統(tǒng)中人機關(guān)系的變化,一種人機共生的網(wǎng)絡(luò)傳播生態(tài)正在形成,并隨著人工智能技術(shù)的發(fā)展而日益深化。在智能媒介平臺的新聞生產(chǎn)中,傳統(tǒng)的“人主體”正在消融,人與智能技術(shù)共同構(gòu)成了新聞生產(chǎn)的全新媒介網(wǎng)絡(luò)③。技術(shù)與人之間也形成了雙向的“馴化”過程,算法在發(fā)掘用戶特征與喜好、滿足用戶個性化需求的同時,內(nèi)容生產(chǎn)者也在不斷尋找與適應(yīng)算法的邏輯思維,以此被算法“青睞”而獲得更多的流量。甚至在部分場合及更遠的未來中,機器或許比我們認(rèn)為的更具創(chuàng)造性,而人類可能比我們想象的更具機械性,機器人和人類共同成為一個二元體系使得他們成為彼此的衡量尺度④??傊^去的新聞傳播工作更多是將技術(shù)視為連接或承載內(nèi)容的媒介,關(guān)注的重心是傳播中的信息文本,而如今技術(shù)既是媒介也是傳播者,算法使技術(shù)的地位提高到了前所未有的程度,“人機共生”成為算法環(huán)境下網(wǎng)絡(luò)傳播生態(tài)的基本特征。

算法以大數(shù)據(jù)思維及用戶需求為中心,使網(wǎng)絡(luò)社會成員被標(biāo)簽化、圈層化與繭房化。新聞是一種現(xiàn)實的社會建構(gòu),其很難達到對客觀實在的完美復(fù)刻,只能通過塑造擬態(tài)環(huán)境以幫助人們把握現(xiàn)實世界。盡管專業(yè)新聞生產(chǎn)一直致力于描繪出更加契合真實世界的擬態(tài)環(huán)境,然而這一愿景卻屢遭挫折,尤其在算法時代面臨著更大挑戰(zhàn)。以個性化算法推薦應(yīng)用為例,其基本的技術(shù)邏輯是對信息與用戶數(shù)據(jù)進行標(biāo)簽化,進而通過數(shù)學(xué)模型尋找變量間的相關(guān)性,以實現(xiàn)所謂的精準(zhǔn)分發(fā)。標(biāo)簽是一種對復(fù)雜事物的簡化歸類方法,必然會制造出類屬與圈層。由此,個性化推薦的信息分發(fā)機制導(dǎo)致了擬態(tài)環(huán)境的分化,不同圈層的人眼中的世界差異將越來越大,并且在信息繭房的作用下,對擬態(tài)環(huán)境的“執(zhí)念”可能愈發(fā)堅定,致使不同圈層之間的對話可能進一步減少,網(wǎng)絡(luò)空間中的共識愈發(fā)難以達成,輿論爭辯的聲音更多是基于“三觀”的不同而形成的不可調(diào)和性沖突,而非理性的觀點討論或意見磋商。信息繭房及其相關(guān)概念(過濾氣泡、選擇性接觸、回音室效應(yīng)等)雖然并非是算法傳播時代的獨有現(xiàn)象,但無疑算法的傳播加劇了這些效應(yīng)。盡管不同平臺的算法模型存在細節(jié)差異,但基本且通用的規(guī)律都是迎合用戶的喜好。也就是說,用戶能夠看到的內(nèi)容大多由其過去的網(wǎng)絡(luò)行為決定,但“以過去決定現(xiàn)在,以現(xiàn)在決定未來”的標(biāo)準(zhǔn)忽略了人類思維與行動的復(fù)雜多變性。在這一過程中,信息繭房的高墻越筑越高,用戶能夠接收到的信息逐漸窄化,與之相應(yīng)的擬態(tài)環(huán)境也就更為分化且偏頗,并在網(wǎng)絡(luò)空間與現(xiàn)實空間的融合進程中,擬態(tài)環(huán)境的“環(huán)境化”會進一步加劇,影響人們的現(xiàn)實生存⑤。

算法環(huán)境下網(wǎng)絡(luò)空間治理的新挑戰(zhàn)

其一,網(wǎng)絡(luò)謠言與虛假信息的快速繁殖。基于算法的自動化內(nèi)容生產(chǎn)在近十余年間不斷成熟,但受限于自然語言處理模型的局限性與使用者不同的動機及目的,算法的內(nèi)容生成一直因虛假信息與謠言的滋生而被詬病。并且,相比傳統(tǒng)媒體時代與互聯(lián)網(wǎng)發(fā)展的早期,算法環(huán)境讓虛假新聞得以更加隱蔽且快速地被制造與傳播。在傳播過程中,算法助推網(wǎng)絡(luò)謠言與“后真相”時代群體心理的結(jié)合,在實踐中具體表現(xiàn)為個性化算法推薦與人工智能內(nèi)容生產(chǎn)兩類應(yīng)用。一方面,算法推薦技術(shù)加劇了虛假信息的擴散速率,甚至形成病毒式傳播,以事后核查為主的網(wǎng)絡(luò)內(nèi)容治理工作往往要受到傳播速度的制約,這也加大了對謠言與虛假信息治理的難度。另一方面,虛假信息的生產(chǎn)與傳播主體在人機共存的智能媒介網(wǎng)絡(luò)中變得更為復(fù)雜且隱蔽,社交機器人通過充當(dāng)擬人化的傳播主體,可以用于對網(wǎng)絡(luò)輿論的蓄意影響;基于生成式人工智能技術(shù)(AIGC)的相關(guān)應(yīng)用也可被用于虛假信息的生產(chǎn)與傳播??梢哉f,無論是深度偽造技術(shù)下的合成圖像或語音,還是ChatGPT等語言模型生成的文本,虛假信息的可辨識性會隨著技術(shù)升級而越來越模糊,相關(guān)審查及執(zhí)法工作的難度逐漸加大。

其二,更加隱蔽的偏見與價值觀滲透。偏見與價值觀多被視為人性的特質(zhì),算法在本體層面上雖不具有和人類一樣的心智,但在行為結(jié)果層面卻可以將人類的價值觀與偏見進行反映或呈現(xiàn),這種效果還可能在宏觀上產(chǎn)生更大的影響力。計算機學(xué)習(xí)需要基于對海量數(shù)據(jù)的收集與處理,但現(xiàn)有的大數(shù)據(jù)集仍然無法達到理想中的“全數(shù)據(jù)集”⑥,這其中既有技術(shù)等客觀條件的制約,也存在人為的主觀因素,致使算法傳播始終無法實現(xiàn)客觀與全面,偏見或特定價值觀往往會伴隨算法的信息識別、分析、生產(chǎn)及分發(fā)。例如,谷歌曾出現(xiàn)過將黑色人種圖片識別為大猩猩的丑聞,由此產(chǎn)生尖銳的種族歧視問題,直接原因就在于其支持算法運作的數(shù)據(jù)庫中的黑色人種相關(guān)數(shù)據(jù)較少。如果算法依托的數(shù)據(jù)庫不能達到理想中的全數(shù)據(jù),關(guān)于不同對象群體的數(shù)據(jù)資源則會存在差異,甚至是“數(shù)據(jù)孤島”,導(dǎo)致算法在處理不同信息時的準(zhǔn)確度與結(jié)果并不相同。從人性的角度出發(fā)演繹,機器或許可以在部分情境或事項中做得比人更加客觀、公平,但從更大范圍與更為本質(zhì)的層面看,經(jīng)由人類創(chuàng)造與使用的機器仍舊不能擺脫人的價值觀與偏見,并且還可能基于算法所處理數(shù)據(jù)規(guī)模的增大,將固有偏見與價值觀的影響進一步擴大化。

其三,引導(dǎo)受眾與迎合用戶的矛盾尖銳化。新聞媒體具有引導(dǎo)、教育受眾的功能和使命,盡管這種功能的表現(xiàn)形態(tài)存在不同語境下的差異,但始終對于政治與社會而言具有極為重要的意義。然而,算法推薦的機制卻對新聞媒體的引導(dǎo)功能構(gòu)成了挑戰(zhàn)?;趥€性化推薦的基本邏輯,只有用戶喜歡看的東西才能夠被看到,偏離用戶興趣的媒體主動議程設(shè)置愈發(fā)困難。而引導(dǎo)受眾的前提是信息的可到達,如若信息不能到達用戶,一切議程設(shè)置都難以成立,由此新聞生產(chǎn)就必須順應(yīng)算法的邏輯。當(dāng)前,算法環(huán)境下多元主體參與的新聞傳播活動在“引導(dǎo)—迎合”的辯證關(guān)系中明顯以后者為矛盾的主要方面,其中不乏有一些主流的、官方的媒體也對這一對矛盾關(guān)系存在錯誤理解。引導(dǎo)和迎合作為新聞媒體工作的不同層面,本身具備內(nèi)部的統(tǒng)一性,即完全脫離迎合的引導(dǎo)或完全脫離引導(dǎo)的迎合都是難以存在的。在實踐中,新聞工作多以迎合受眾為手段,以引導(dǎo)受眾為目的,但算法環(huán)境正在使這種“手段—目的”的關(guān)系發(fā)生異化,迎合受眾成為了目的,而媒體的部分功能與規(guī)范正在被淡化。

其四,網(wǎng)絡(luò)用戶的隱私保障與過度監(jiān)控?,F(xiàn)代法律中的隱私權(quán)一般被視為人格權(quán),任何個人都享有私人生活安寧不受他人非法侵?jǐn)_,私人秘密不受他人非法收集、刺探和公開的權(quán)利,只有認(rèn)可對個人私生活秘密和私生活安寧的法律保護,人才能自由和有尊嚴(yán)地生存和生活⑦。然而,在大數(shù)據(jù)與算法環(huán)境下,個人信息隱私的被動讓渡與主動收集愈發(fā)嚴(yán)重。隨著《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》《中華人民共和國民法典》等相關(guān)法律法規(guī)的出臺,我國網(wǎng)絡(luò)用戶的個人信息保護已有法可依,但在實際中仍然存在一些問題,如超級平臺的市場壟斷效應(yīng)、信息收集往往超出“最小原則”與“必要原則”、鼓勵社交與分享的新媒體商業(yè)文化等。此外,威脅個人隱私的網(wǎng)絡(luò)空間將加重“監(jiān)控”的程度,而過度、持久、全面的“監(jiān)控”容易致使公眾陷入對技術(shù)的躲避與抗拒,面對數(shù)字化記憶不可控的預(yù)期損耗和風(fēng)險形成公共表達的“寒蟬效應(yīng)”⑧。

其五,國際關(guān)系中的輿論斗爭與計算宣傳。算法將影響到國際傳播、公共外交與全球互聯(lián)網(wǎng)輿論斗爭。比如,社交機器人、深度偽造等技術(shù)被廣泛用于烏克蘭危機中,生產(chǎn)與轉(zhuǎn)發(fā)了大量虛假信息,在網(wǎng)絡(luò)輿論的演化中被蓄意充當(dāng)助推手并產(chǎn)生了一定影響。此前已有實證研究發(fā)現(xiàn),在社交媒體推特(Twitter)上,有超過五分之一與中國相關(guān)的推文疑似由機器人發(fā)布⑨。傳播者試圖運用智能算法操縱輿論、開展對外宣傳或反宣傳,這種通過大數(shù)據(jù)與算法手段的新宣傳方式也被稱為計算宣傳,計算宣傳所生產(chǎn)的虛假信息相比傳統(tǒng)網(wǎng)絡(luò)虛假信息而言更具誤導(dǎo)性、操縱性、攻擊性、政治性、虛假性。當(dāng)下,算法已成為影響國際傳播效果的重要變量之一,必須重視對算法的防范及利用。

算法治理的進路與展望

2022年1月12日,國務(wù)院印發(fā)《“十四五”數(shù)字經(jīng)濟發(fā)展規(guī)劃》明確指出,“推進云網(wǎng)協(xié)同和算網(wǎng)融合發(fā)展。加快構(gòu)建算力、算法、數(shù)據(jù)、應(yīng)用資源協(xié)同的全國一體化大數(shù)據(jù)中心體系”。算法是數(shù)字社會、數(shù)字經(jīng)濟的重要基礎(chǔ),不僅涉及到市場治理,還涉及到社會治理與國家總體安全。為此,應(yīng)加大算法技術(shù)本身的研究以及技術(shù)攻關(guān)突破的力度,集聚產(chǎn)業(yè)、用戶、平臺、算法研究方共同協(xié)作,構(gòu)建一個良性的可持續(xù)發(fā)展的生態(tài)。

發(fā)揮算法在網(wǎng)絡(luò)與社會治理中的積極作用,促進“算法向善”。盡管算法的應(yīng)用總是存在一定的局限性,并給新聞傳播實踐帶來了許多風(fēng)險,但若因此產(chǎn)生對一切算法傳播的排斥或抵抗,無異于“因噎廢食”。從宏觀上看,大數(shù)據(jù)、人工智能等新興科技是推動新媒體產(chǎn)業(yè)與數(shù)字經(jīng)濟發(fā)展必不可少的技術(shù)支持,其未來富有相當(dāng)廣闊的前景,智能傳播作為新媒體發(fā)展的新階段已是可以預(yù)見的趨勢。因此,如何在有效控制的基礎(chǔ)上利用好算法的優(yōu)勢,真正做到“算法向善”,是智能傳播時代下需要持續(xù)思考的問題與提升的能力。例如,算法可以作為國家行政部門開展網(wǎng)絡(luò)安全治理的技術(shù)手段,更為智能化的算法模型可以提升網(wǎng)絡(luò)輿情治理水平?;谛旅襟w輿情發(fā)展的生命周期理論,輿情處理的基本原則是“處置越早,成本越低,效果越好”⑩,把握輿論發(fā)展態(tài)勢需要依托網(wǎng)絡(luò)輿情監(jiān)測系統(tǒng)。大數(shù)據(jù)與算法的應(yīng)用可以有效提升輿情監(jiān)測系統(tǒng)的智能程度,從而更好地在輿情發(fā)展的早期階段予以處置。在個性化算法推送的場景下,除了一味追求流量與廣告的商業(yè)媒體外,官方媒體與主流媒體也可以采用不同的算法推送模型,在尊重個性化定制的基礎(chǔ)上,降低或過濾低俗、娛樂化的信息,增加符合社會主義核心價值觀的內(nèi)容比重,促進黨和國家的新聞宣傳、思想教育工作的精準(zhǔn)傳播。在我國參與的國際傳播場景下,還可以利用算法技術(shù)實現(xiàn)內(nèi)容的智能化生產(chǎn),助力國際傳播渠道的即時化、場景化、精準(zhǔn)化分發(fā),滿足國際傳播受眾的個性化推送和多元化需求???偠灾?,技術(shù)本體并無善惡之分,算法應(yīng)用的結(jié)果能否向善還要取決于“人主體”的動機與目的,需以算法規(guī)制算法,收編技術(shù)衍生的權(quán)力,使之為公共利益服務(wù)。

明確算法行為的責(zé)任主體,完善預(yù)防機制與追責(zé)制度。針對過渡收集及濫用個人信息,以及利用算法從事自然語言生成與傳播、音視頻深度合成(偽造),對知識產(chǎn)權(quán)、肖像權(quán)、隱私權(quán)等法定權(quán)利造成侵害的問題,必須明確算法行為的責(zé)任主體,進而在事前預(yù)防與事后追責(zé)兩個方面加大治理力度。隨著算法相關(guān)應(yīng)用在近年來的快速發(fā)展與普及,現(xiàn)階段圍繞算法傳播相關(guān)的責(zé)任歸屬仍存模糊與爭議。例如,由AI生成的內(nèi)容是否享有著作權(quán),其權(quán)利與義務(wù)的主體又是誰,是算法模型的研發(fā)企業(yè),還是引入技術(shù)的第三方應(yīng)用平臺,抑或是作為最終使用者的用戶,參與智能傳播的不同主體之間的權(quán)利與義務(wù)的權(quán)重如何規(guī)范,這些問題尚未得到清晰的界定。從法律與倫理的層面看,盡管各種智能傳播現(xiàn)象不斷凸顯機器在新聞生產(chǎn)與信息流動網(wǎng)絡(luò)中的地位,“人主體”“機器主體”以及“人—機主體”的說法均有之,但算法及其實體化的智能體終究不具有自然人的屬性,無法獨立承擔(dān)責(zé)任和義務(wù),如若不能將新聞活動的終極責(zé)任落實于具體的人或組織,所謂的“機器主體”與“人—機主體”很可能在實踐中成為規(guī)避義務(wù)的擋箭牌。由此可知,面對直接或間接使用算法技術(shù)參與新聞活動的多元主體,需要進一步區(qū)分不同主體、場景、目的下的責(zé)任歸屬及權(quán)重,法律的制定及修訂需要更為迅速地對新傳播現(xiàn)象作出響應(yīng),最大限度減少歸責(zé)盲區(qū)。同時,除了對相關(guān)責(zé)任的劃定及追究外,還需加強預(yù)防機制建設(shè),例如優(yōu)化改善算法模型以增強社會效益,提升算法透明度并納入行政控制,確定個性化推送、深度合成、機器寫作等算法應(yīng)用的場合及限度等。

構(gòu)建多元主體共同參與的綜合治理體系,提升公眾的智能媒介素養(yǎng)。從長遠來看,以算法治理為中心的網(wǎng)絡(luò)空間治理必須依托多元主體的力量,包括但不局限于政府、新聞媒體、互聯(lián)網(wǎng)平臺、技術(shù)公司、自媒體、普通用戶等,未來尤其要重視對公眾參與治理積極性、廣泛性的調(diào)動。但受限于多種結(jié)構(gòu)性因素,目前我國公眾的人文科學(xué)素養(yǎng)與科技反思意識仍有較大提升空間,公眾的媒介素養(yǎng)水平參差不齊,整體上尚不足以同日益發(fā)展的智能傳播環(huán)境相適配,尤其是使用算法技術(shù)的智能媒介素養(yǎng)亟待提升。媒介素養(yǎng)主要指人們使用媒介的綜合能力,包括理解媒介信息、促進個人與社會發(fā)展、作出反思與批判等不同維度,一個良好的公眾參與治理的網(wǎng)絡(luò)環(huán)境必須建立在較高的媒介素養(yǎng)基礎(chǔ)上,但也正因為提升社會公眾的媒介素養(yǎng)并非是立竿見影的事情,故此也往往在實踐中被忽略或輕視。當(dāng)前,由于算法技術(shù)及其傳播過程的隱蔽性、便利性與不透明性,公眾對于自身參與算法傳播的感知、態(tài)度及反思程度尚且薄弱,例如當(dāng)網(wǎng)絡(luò)用戶并不了解算法的運行機制時,可能沉迷于算法推送的個性化信息服務(wù),進而陷入算法的負(fù)面效應(yīng)?。未來,應(yīng)當(dāng)進一步提升用戶對算法推送的感知,如對個人隱私的關(guān)注,對接收信息的識別與反思,對制作及發(fā)布內(nèi)容時知識產(chǎn)權(quán)的關(guān)注,對網(wǎng)絡(luò)安全相關(guān)法律法規(guī)的普及等。

(作者為中國人民大學(xué)新聞學(xué)院教授、博導(dǎo);中國人民大學(xué)新聞學(xué)院博士研究生姜澤瑋對本文亦有重要貢獻)

【注釋】

①賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期。

②陳鵬:《算法的權(quán)力:應(yīng)用與規(guī)制》,《浙江社會科學(xué)》,2019年第4期。

③吳璟薇、郝潔:《智能新聞生產(chǎn):媒介網(wǎng)絡(luò)、雙重的人及關(guān)系主體的重建》,《國際新聞界》,2021年第2期。

④[美]N.凱瑟琳·海勒著、黃斐譯:《計算人類》,《全球傳媒學(xué)刊》,2019年第1期。

⑤彭蘭:《新媒體時代擬態(tài)環(huán)境建構(gòu)的變化及其影響》,《中國編輯》,2022年第12期。

⑥匡文波、黃琦翔:《大數(shù)據(jù)熱的冷思考》,《國際新聞界》,2016年第8期。

⑦張新寶:《從隱私到個人信息:利益再衡量的理論與制度安排》,《中國法學(xué)》,2015年第3期。

⑧匡文波:《對個性化算法推薦技術(shù)的倫理反思》,《上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》,2021年第5期。

⑨師文、陳昌鳳:《分布與互動模式:社交機器人操縱Twitter上的中國議題研究》,《國際新聞界》,2020年第5期。

⑩匡文波:《新媒體輿論》,北京:中國人民大學(xué)出版社,2022年,第281頁。

?匡文波、秦瀚杰:《算法:我國國際傳播的助力器》,《對外傳播》,2022年第10期。

?匡文波、鄧穎:《短視頻監(jiān)管與多重把關(guān)主體的范式轉(zhuǎn)型:把關(guān)理論的研究視角》,《中國編輯》,2021年第4期。

責(zé)編/孫渴 美編/陳媛媛

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:周小梨]