久久天天躁综合夜夜黑人鲁色,超91在线,久久夜视频,91av免费在线观看,在线视频二区,亚洲欧美日韩专区一,在线播放国产一区二区三区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

生成式人工智能治理的態(tài)勢、挑戰(zhàn)與展望

核心提示: 作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產(chǎn)方式,重塑了人類與技術(shù)的交互模式,對教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當利用等安全風險也引起各國廣泛關(guān)注。生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。

【摘要】作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產(chǎn)方式,重塑了人類與技術(shù)的交互模式,對教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當利用等安全風險也引起各國廣泛關(guān)注。生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。為有效應對生成式人工智能對信息內(nèi)容治理的新挑戰(zhàn),應當平衡安全和發(fā)展的關(guān)系、技術(shù)創(chuàng)新和技術(shù)治理的關(guān)系、企業(yè)合規(guī)義務(wù)和企業(yè)負擔能力的關(guān)系。

【關(guān)鍵詞】生成式人工智能 治理模式 立法 內(nèi)外部挑戰(zhàn) 多維平衡 【中圖分類號】D92 【文獻標識碼】A

生成式人工智能(Generative AI)是人工智能發(fā)展過程中出現(xiàn)的新型技術(shù),可使用統(tǒng)計方法根據(jù)概率生成新內(nèi)容,如視頻、音頻、文本甚至軟件代碼。通過使用Transformer(一種基于自注意力機制的神經(jīng)網(wǎng)絡(luò)模型),生成式人工智能可深入分析現(xiàn)有數(shù)據(jù)集,識別其中的位置連接和關(guān)聯(lián)關(guān)系,再借助人類反饋強化學習算法(Reinforcement Learning from Human Feedback)不斷優(yōu)化訓練形成大語言模型,最終能夠為新內(nèi)容的生成作出決策或預測。①除了文本生成和內(nèi)容創(chuàng)作之外,生成式人工智能還擁有廣泛的應用場景,如客戶服務(wù)、投資管理、藝術(shù)創(chuàng)作、學術(shù)研究、代碼編程、虛擬協(xié)助等。概言之,自我生成、自我學習并快速迭代是生成式人工智能區(qū)別于傳統(tǒng)人工智能的基本特點。

國家網(wǎng)信辦等七部門正式發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)自2023年8月15日起施行,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益。作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產(chǎn)方式,重塑了人類與技術(shù)的交互模式,對教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當利用等安全風險也引起各國廣泛關(guān)注??梢钥隙ǖ刂v,生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。

國外人工智能主要監(jiān)管模式評析

人工智能是一把“雙刃劍”,在促進社會進步的同時,也帶來了風險與挑戰(zhàn)。國際社會致力于持續(xù)推動人工智能向善發(fā)展。例如,聯(lián)合國教科文組織通過了首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》,明確了相稱性和不損害、安全和安保、公平和非歧視等十項原則。歐盟自2018年以來持續(xù)推進人工智能的設(shè)計、開發(fā)和部署,同時努力規(guī)范人工智能及機器人的使用和管理。2024年初生效的歐盟《人工智能法案》助推此項工作達到高潮,甚至成為人工智能治理史上的里程碑。美國更注重人工智能發(fā)展,以《人工智能權(quán)利法案藍圖》(以下簡稱《權(quán)利法案藍圖》)為主要舉措對人工智能發(fā)展進行規(guī)制。鑒于歐盟和美國的人工智能治理措施相對成熟且具有代表性,下文以二者為例探討不同監(jiān)管模式的優(yōu)劣,希冀為我國人工智能的健康發(fā)展和有效治理提供借鑒。

歐盟人工智能立法:安全優(yōu)先,兼顧公平。從立法歷程上看,2021年4月,歐盟委員會發(fā)布了立法提案《歐洲議會和理事會關(guān)于制定人工智能統(tǒng)一規(guī)則(人工智能法) 和修訂某些歐盟立法的條例》(以下簡稱《人工智能法案》),開啟了人工智能治理的“硬法”道路。2022年12月形成了《人工智能法案》折衷草案的最終版。2023年6月,歐洲議會通過了《人工智能法案》的談判授權(quán)草案,并修訂了原始提案。2023年12月8日,歐洲議會、歐洲理事會和歐盟委員會三方就《人工智能法案》達成協(xié)議,法案規(guī)定了對人工智能領(lǐng)域的全面監(jiān)管。從總體上看,《人工智能法案》在歐盟建立起人工智能開發(fā)、使用的道德和法律框架,并輔以《人工智能責任指令》確保落地執(zhí)行?!度斯ぶ悄芊ò浮返亩噍営懻撝饕獓@以下內(nèi)容:

一是人工智能的定義與法案適用范圍?!度斯ぶ悄芊ò浮返?條將人工智能定義為一種或多種技術(shù)和方法開發(fā)的軟件,其能夠影響交互環(huán)境的輸出(如內(nèi)容、預測、建議或決策),實現(xiàn)人為指定的特定目標。該定義范圍較為廣泛,可能涵蓋大量傳統(tǒng)上不被視為人工智能的軟件,不利于人工智能的發(fā)展和治理。因而,當前版本將人工智能定義限縮為“基于機器學習或邏輯和知識的系統(tǒng)”,旨在以不同的自主性水平運行,并且為了明確或隱含的目標,可以影響物理或虛擬環(huán)境的預測、建議或決策等輸出。同時,刪除了附件一和歐盟委員會修改人工智能定義的授權(quán)?!度斯ぶ悄芊ò浮冯m未涉及生成式人工智能,但ChatGPT的出現(xiàn),使得立法者在修正案中增加了通用人工智能和基礎(chǔ)模型相關(guān)定義,并要求生成式人工智能遵守額外的透明度要求,如披露內(nèi)容來源、設(shè)計模型禁止非法生成?!度斯ぶ悄芊ò浮肪哂杏蛲庑Я?,適用于所有人工智能系統(tǒng)的提供商和部署者(無論是在歐盟還是在第三國建立的)以及所有分銷商和進口商、提供商的授權(quán)代表、在歐盟建立或位于歐盟的某些產(chǎn)品的制造商,以及健康、安全或基本權(quán)利因使用人工智能系統(tǒng)而受到重大影響的歐盟數(shù)據(jù)主體。

二是人工智能的監(jiān)管模式?!度斯ぶ悄芊ò浮凡捎昧嘶陲L險的分級監(jiān)管方法(risk-based approach),根據(jù)對健康、安全和自然人基本權(quán)利的潛在風險對其進行分類并設(shè)置不同義務(wù):第一是不可接受的風險,禁止任何企業(yè)或個人部署;第二是高風險,允許相關(guān)主體在履行事前評估等義務(wù)后投放市場或使用,同時要求事中、事后持續(xù)監(jiān)測;第三是有限風險,無須取得特殊牌照、認證或履行報告、記錄等義務(wù),但應遵循透明度原則,允許適當可追溯性和可解釋性;第四是低風險或最低風險,相應主體可依據(jù)自由意志部署和使用。具體到生成式人工智能而言,由于其沒有特定目的并且可應用于不同場景,故不能基于一般方式或操作模式對其進行風險分級,而應當按照開發(fā)或使用生成式人工智能的預期目的和具體應用領(lǐng)域。②

三是人工智能的一般原則。具體包括:人類代理和監(jiān)督:人工智能系統(tǒng)的開發(fā)和使用必須作為服務(wù)于人類的工具,尊重人類尊嚴、個人自主性和功能,并由人類適當控制和監(jiān)督;技術(shù)穩(wěn)健性和安全性:人工智能的開發(fā)和部署應最大限度地減少意外和意外的損害,確保在出現(xiàn)意外問題時的穩(wěn)健性,以及在惡意第三方試圖改變?nèi)斯ぶ悄芟到y(tǒng)性能而非法使用時的彈性;隱私和數(shù)據(jù)保護:人工智能系統(tǒng)必須按照現(xiàn)有的隱私和數(shù)據(jù)保護規(guī)則開發(fā)和使用,同時處理在質(zhì)量和完整性方面符合高標準的數(shù)據(jù);透明度:人工智能系統(tǒng)的開發(fā)和使用方式必須允許適當?shù)目勺匪菪院涂山忉屝?,讓人類意識到他們與人工智能系統(tǒng)進行通信或互動,并適當?shù)馗嬷脩羧斯ぶ悄艿哪芰途窒扌?,以及受影響之人享有的?quán)利;非歧視和公平:人工智能系統(tǒng)的開發(fā)和使用必須包括不同參與者,促進平等使用、性別平等和文化多樣性,同時避免歐盟或國家法律禁止的歧視性影響和不公平偏見;社會和環(huán)境福祉:人工智能系統(tǒng)應以可持續(xù)和環(huán)保的方式開發(fā)和使用,讓所有人受益,同時監(jiān)測和評估對個人、社會和民主的長期影響。

歐盟意圖通過《人工智能法案》建立人工智能監(jiān)管全球標準,進而使歐洲在國際智能競爭中取得優(yōu)勢地位?!度斯ぶ悄芊ò浮窞樘幚砣斯ぶ悄芟到y(tǒng)制定了相對合理的規(guī)則,在一定程度上可以避免歧視、監(jiān)視和其他潛在危害,特別是在與基本權(quán)利相關(guān)的領(lǐng)域。例如,《人工智能法案》列出了禁止人工智能的某些用途,公共場所的面部識別便是其一。此外,其將確定減輕風險的控制措施整合到可能出現(xiàn)風險的業(yè)務(wù)部門中,能夠幫助各組織了解人工智能系統(tǒng)的成本效益,開展合規(guī)(自我)審查明確責任和義務(wù),最終自信地采用人工智能。但同時,《人工智能法案》在風險分級、監(jiān)管力度、權(quán)利保護與責任機制等方面亦有缺陷,如其采用的是橫向立法,試圖把所有人工智能都納入監(jiān)管范圍,而未深入考量人工智能之間的不同特性,可能會導致相關(guān)風險防范措施面臨無法執(zhí)行的問題。③

美國人工智能立法:強調(diào)自我監(jiān)管,支持技術(shù)創(chuàng)新。在人工智能法律和政策制定的全球背景下,美國逐漸形成以自愿原則為基礎(chǔ)的監(jiān)管框架。美國較為全面的監(jiān)管舉措是白宮科技政策辦公室(OSTP)于2022年10月發(fā)布的《權(quán)利法案藍圖》,其旨在支持自動化系統(tǒng)設(shè)計、部署和治理過程中,保護公民權(quán)利。在《權(quán)利法案藍圖》指導下,聯(lián)邦各部門開始各司其職,著手制定具體政策,如美國勞工部制定了《公正的人工智能行動手冊》,旨在避免人工智能對求職者與員工產(chǎn)生基于種族、年齡、性別等特征的偏見?!稒?quán)利法案藍圖》的核心內(nèi)容是五項原則:安全有效的系統(tǒng):公眾受到保護,免受不安全或無效的系統(tǒng)的影響;算法歧視保護:公眾不應面臨算法和系統(tǒng)的歧視,自動化系統(tǒng)應當以公平的方式使用和設(shè)計;數(shù)據(jù)隱私:自動化系統(tǒng)應該有內(nèi)置的保護措施保障公眾的數(shù)據(jù)不被濫用,并且確保公眾享有使用數(shù)據(jù)的主導權(quán);知悉和解釋:公眾有權(quán)知道其正在使用自動化系統(tǒng),并且理解它是什么以及如何產(chǎn)生對公眾有影響的結(jié)果;可替代性原則:在適當?shù)那闆r下,公眾應該能夠選擇不使用自動化系統(tǒng),并使用人工替代方案或其他可選方案。④由于以上原則不受監(jiān)管而缺少約束力,故《權(quán)利法案藍圖》并非一份具有立法保護的可執(zhí)行的“權(quán)利法案”,更多的是立足未來設(shè)想的前瞻性治理藍圖。

目前美國國會對人工智能的監(jiān)管采取了相對不干涉的方法,盡管民主黨領(lǐng)導層已經(jīng)表示打算引入一項監(jiān)管人工智能的聯(lián)邦法。美國參議院多數(shù)黨領(lǐng)袖查克·舒默(Chuck Schumer)提出了指導未來人工智能立法和監(jiān)管的新框架,具體包括“何人”“何處”“如何”與“保護”四道護欄,要求科技公司在發(fā)布人工智能系統(tǒng)之前進行審查和測試,并向用戶提供結(jié)果。但在美國兩黨互相制衡的情況下,該法律通過國會的可能性較低,即使有機會通過,也需經(jīng)過多輪修改。與之相對,面對歐盟《人工智能法案》帶來的戰(zhàn)略競爭壓力以及以ChatGPT為代表的生成式人工智能的多領(lǐng)域安全風險,美國聯(lián)邦機構(gòu)采取了積極介入的態(tài)度,在管轄權(quán)限內(nèi)進行監(jiān)管。例如,美國聯(lián)邦貿(mào)易委員會(FTC)通過執(zhí)行《公平信貸報告法》《聯(lián)邦貿(mào)易委員會法》等法規(guī),積極監(jiān)管與人工智能有關(guān)的欺騙性和不公平行為,OpenAI面臨的第一起調(diào)查正是FTC進行的;2023年1月,美國國家標準與技術(shù)研究院(NIST)制定了《人工智能風險管理框架》,對人工智能存在的風險進行了詳盡的分級分類;2023年4月,美國商務(wù)部就人工智能問責措施公開征求意見,包括人工智能模型在發(fā)布前是否應經(jīng)過認證程序。

從美國地方層面上看,加州通過了《2018加州消費者隱私法案》(CCPA),作為對歐盟《通用數(shù)據(jù)保護條例》的積極回應。2023年,在議員鮑爾·卡漢(Bauer Kahan)的推動下,加州提出AB331(Automated decision tools)法案,要求部署者和自動化決策工具的開發(fā)者在2025年1月1日或之前,以及此后每年,對其使用的任何自動化決策工具進行影響評估,其中包括自動化決策工具的目的及其預期收益、用途和部署環(huán)境的聲明。紐約市頒布了《自動化就業(yè)決策工具法》(《AEDT Law》),要求在招聘和晉升決策中使用“自動化就業(yè)決策工具”的雇主和職業(yè)平臺,對人工智能系統(tǒng)進行全新的、徹底的審查以及更全面的風險測試,評估其是否落入《AEDT Law》的適用范圍。此外,得克薩斯州、佛蒙特州和華盛頓州的立法機構(gòu)均引入相關(guān)立法,要求州機構(gòu)對正在開發(fā)、使用的人工智能系統(tǒng)進行審查,有效披露人工智能的使用情況??梢?,美國地方政府對人工智能治理還是持積極態(tài)度。地方面臨的主要挑戰(zhàn)是,如何在最小妨礙的基礎(chǔ)上監(jiān)管硅谷的人工智能創(chuàng)新。以加州為例,為了克服這一挑戰(zhàn),其所提出的法案作了兩方面的規(guī)定:一是將人工智能治理的重心放在了算法決策對公民的權(quán)利、機會和獲得關(guān)鍵服務(wù)的風險,而不是具體技術(shù)的細節(jié)上,能夠允許人工智能的創(chuàng)新發(fā)展;二是確立了人工智能透明度,要求開發(fā)人員和用戶向加州民權(quán)部提交能夠詳細說明所涉及的自動化工具類型的年度影響評估,供公眾訪問。開發(fā)人員還需制定一個治理框架,詳細說明該技術(shù)的使用方式和可能的影響。此外,加州法案還提到私人訴訟權(quán)的問題,通過允許個人在權(quán)利受到侵犯時提起訴訟,為權(quán)利保障提供了救濟途徑。⑤

目前美國人工智能監(jiān)管重點仍是將現(xiàn)有法律適用于人工智能,而不是制定專門性人工智能法律。例如,F(xiàn)TC多次表示《聯(lián)邦貿(mào)易委員會法》第5條“禁止不公平或欺詐行為”完全可適用于人工智能和機器學習系統(tǒng)。⑥事實上,如何協(xié)調(diào)現(xiàn)有法律與人工智能之間的沖突,不僅是某一國家的當務(wù)之急,亦是國際社會面臨的緊迫問題。目前,美國國會尚未就人工智能監(jiān)管的聯(lián)邦立法達成共識,包括監(jiān)管框架、風險分類分級等具體內(nèi)容。美國參議院多數(shù)黨領(lǐng)袖查克·舒默主張對人工智能進行類似歐盟的全面監(jiān)管,并通過制定框架、專題論壇等途徑加速國會立法進程,這與美國的自愿原則存在一定沖突,因而,聯(lián)邦層面人工智能監(jiān)管立法的出現(xiàn)還需較長時日。

生成式人工智能對信息內(nèi)容治理的新挑戰(zhàn)

一般來講,人工智能面臨的風險主要來自技術(shù)、市場與規(guī)范等三個方面。⑦以ChatGPT為代表的生成式人工智能在靠近通用人工智能目標的同時,也帶來了信息內(nèi)容治理的全新挑戰(zhàn),亟需前瞻性、針對性的理論研究。學界分析生成式人工智能風險的主要視角包括:一是基于人工智能一般風險,并結(jié)合生成式人工智能獨有特點,對其在智能倫理、知識產(chǎn)權(quán)保護、隱私與個人數(shù)據(jù)保護等方面的風險展開研究;⑧二是結(jié)合特定領(lǐng)域,研究生成式人工智能在該領(lǐng)域內(nèi)的風險與治理,如生成式人工智能在司法裁判中的量刑偏差風險;三是立足生成式人工智能的運行結(jié)構(gòu),分別從準備、運算到生成階段研究其中的風險問題,進而采用相應措施,如采用技管結(jié)合糾正生成式人工智能在運算階段的算法歧視風險。⑨本文認為還可從內(nèi)外部視角展開分析,內(nèi)部挑戰(zhàn)是模型自身存在的挑戰(zhàn),包括輸入質(zhì)量問題、處理過程問題、輸出質(zhì)量問題;外部挑戰(zhàn)則是來自非模型自身的挑戰(zhàn),包括不當利用風險以及法律監(jiān)管風險。

輸入質(zhì)量問題:人工智能由算法、算力和數(shù)據(jù)要素組成,其中數(shù)據(jù)是人工智能的基礎(chǔ),在一定程度上決定著其輸出的準確性與可靠性。生成式人工智能系人工智能的一種,故其輸出(生成的內(nèi)容)同樣會受到數(shù)據(jù)的數(shù)量和質(zhì)量影響。生成式人工智能必須用高質(zhì)量數(shù)據(jù)進行訓練,一旦數(shù)據(jù)集被污染或篡改,訓練出的生成式人工智能便可能損害用戶基本權(quán)利、知識產(chǎn)權(quán)、個人隱私和信息數(shù)據(jù)權(quán),甚至產(chǎn)生社會偏見。

處理過程問題:除數(shù)據(jù)外,訓練時使用的算法模型同樣會影響人工智能的輸出結(jié)果。如果將人工智能的訓練看作一場料理,訓練數(shù)據(jù)是以“材料”的角色影響著最終料理的質(zhì)量,而算法模型則是以“菜譜”的角色發(fā)揮著自身作用,兩者缺一不可。一旦選用的算法模型存在問題或與預期目的不一致,即便輸入再多、再好的數(shù)據(jù)也無法得到表現(xiàn)良好的人工智能系統(tǒng)。由機器學習算法和訓練數(shù)據(jù)所引發(fā)的人工智能歧視和偏見問題,統(tǒng)稱為先行存在的算法偏見,與新知識、新業(yè)態(tài)、新場景出現(xiàn)后引發(fā)的突發(fā)性算法偏見相對應。技術(shù)更迭并未杜絕虛假生成問題,只是將其進行了包裝和掩飾,所以生成式人工智能會經(jīng)常出現(xiàn)突發(fā)性算法偏見,進一步增加了使用風險和治理難度,因而需要更為精準的防護措施。

輸出質(zhì)量問題:事實上,風險本質(zhì)上源于人們對事物認知和控制能力不夠,無法在問題萌芽甚至爆發(fā)前及時解決。從該角度來講,技術(shù)的可控程度與其風險高低是成反比的,技術(shù)越難控制則風險越高。大語言模型和思維鏈在賦予生成式人工智能邏輯推導能力的同時,也使得其輸出內(nèi)容越來越難以預測,換言之,生成式人工智能的可控程度較低,具有較高的潛在風險。比如,由于社會文化差異,生成式人工智能的輸出在一種文化背景下可能是合適的,但在另一種文化環(huán)境下卻是冒犯性的。人類能辨析此類區(qū)別,但生成式人工智能可能因缺少文化方面的前置設(shè)計而無法區(qū)分文化的細微差別,在無意中產(chǎn)生不恰當?shù)膬?nèi)容。

不當利用風險:生成式人工智能在具備高智能的同時,使用的難度和成本較低,這就為部分人員利用其強大力量從事非法活動提供了可能空間,不當利用風險由此產(chǎn)生。我國教育部起草的《中華人民共和國學位法(草案)》中對利用人工智能代寫學位論文等行為及其處理作出明確規(guī)定。OpenAI公司稱其正在向ChatGPT進行敏感詞訓練,當用戶的提問明顯違反已嵌入的倫理和立法時,ChatGPT會拒絕回答。即便如此,部分人員仍然能夠繞過ChatGPT預先設(shè)置的“防火墻”,指示其生成非法內(nèi)容或完成非法操作,不當利用風險未得到有效遏制。長此以往,生成式人工智能可能引發(fā)社會信任危機,使社會民眾陷入真假難辨、人人自危的困境,最終造成“真相的終結(jié)”,使人類社會進入“后真相時代”。⑩

法律監(jiān)管風險:生成式人工智能內(nèi)部的輸入質(zhì)量問題、處理過程問題和輸出質(zhì)量問題,以及外部的不當利用風險共同將其監(jiān)管難度推向新的高峰,造成了監(jiān)管失效的法律風險。生成式人工智能的法律風險不局限于某一特定領(lǐng)域,而是橫貫多個領(lǐng)域,需要多個部門的協(xié)同治理。生成式人工智能的使用條款往往缺乏對用戶交互數(shù)據(jù)的授權(quán)處理,可能會引發(fā)個人隱私和國家安全問題,因為大型企業(yè)中的部分數(shù)據(jù)已經(jīng)具有了公共屬性,一旦出現(xiàn)泄露事件不僅會損害企業(yè)利益,更可能對國家安全造成威脅。除此之外,生成式人工智能決策過程不夠透明的問題,也會對法律監(jiān)管造成影響,甚至成為監(jiān)管機關(guān)禁止其在特定領(lǐng)域部署的決定性理由。

解決方案:尋求多維平衡

面對生成式人工智能的巨大應用價值和內(nèi)外部的風險挑戰(zhàn),我們需要作出合理抉擇。目前,世界各國雖然對生成式人工智能的安全性有所質(zhì)疑,但一致認可其在國際競爭、經(jīng)濟發(fā)展、數(shù)字政府建設(shè)等方面的應用潛力,通過制定相關(guān)政策和法規(guī)嘗試處理好安全與發(fā)展、技術(shù)創(chuàng)新與公共利益之間的關(guān)系,為生成式人工智能的使用奠定前提和保障。我國亦不例外。從《暫行辦法》第1條規(guī)定看,該法制定目的正是“為了促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益”。第3條更是明確指出立法者對于生成式人工智能治理的總體態(tài)度,即“堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則”。事實上,透過該原則便可發(fā)現(xiàn)當前適合我國國情的解決方案,即尋求生成式人工智能治理的多維平衡。

首先,應當平衡安全和發(fā)展的關(guān)系。在總體國家安全觀下,安全是發(fā)展的前提,發(fā)展是安全的保障,不發(fā)展就是最大的不安全。我國必須積極發(fā)展生成式人工智能等現(xiàn)代科技手段促進經(jīng)濟發(fā)展和社會進步,不斷增強我國國際競爭力?!稌盒修k法》第3條指出,“對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管”。關(guān)于具體的措施,《暫行辦法》也給出方案:第5條和第6條明確了鼓勵發(fā)展的方向和內(nèi)容,如支持行業(yè)組織、企業(yè)、教育和科研機構(gòu)、公共文化機構(gòu)、有關(guān)專業(yè)機構(gòu)等在生成式人工智能技術(shù)創(chuàng)新、數(shù)據(jù)資源建設(shè)、轉(zhuǎn)化應用、風險防范等方面開展協(xié)作;第7條和第8條分別從預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理和數(shù)據(jù)標注對生成式人工智能的安全提出了要求,如生成式人工智能服務(wù)提供者應當使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型,不得侵害他人依法享有的知識產(chǎn)權(quán)等。

其次,應當平衡技術(shù)創(chuàng)新和技術(shù)治理的關(guān)系。在采取措施加快生成式人工智能創(chuàng)新發(fā)展的同時,也要認識到其所帶來的內(nèi)外部風險挑戰(zhàn),相應地進行治理。簡言之,應當在創(chuàng)新中治理,在治理中創(chuàng)新,保證技術(shù)創(chuàng)新在法治軌道上運行。為此,一方面,發(fā)揮政策引領(lǐng)經(jīng)濟社會發(fā)展的作用,通過簡化行政許可、減少稅收等途徑積極鼓勵企業(yè)進行技術(shù)創(chuàng)新,同時引導企業(yè)利用自身發(fā)展推動經(jīng)濟社會發(fā)展,對其正當權(quán)益通過立法的形式予以確認;另一方面,堅守依法治理底線,對于企業(yè)可能的違規(guī)違法行為予以及時規(guī)范和處理。具體而言,根據(jù)《暫行辦法》第19條之規(guī)定,有關(guān)主管部門依據(jù)職責對生成式人工智能服務(wù)開展監(jiān)督檢查,提供者應當依法予以配合;對于生成式人工智能提供者違反《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律法規(guī)的行為,予以罰款、責令停止提供服務(wù)、追究刑事責任等相應處罰;如果現(xiàn)有法律法規(guī)無法有效規(guī)范技術(shù)發(fā)展的新業(yè)態(tài),可先由主管部門予以警告、通報批評,責令限期改正,之后及時進行立法(需要考慮特殊立法與一般立法、國家立法與地方立法的辯證關(guān)系),確保有法可依、依法行政。

最后,應當平衡企業(yè)合規(guī)義務(wù)和企業(yè)負擔能力的關(guān)系。生成式人工智能的有效治理,需要開展模型訓練、提供生成服務(wù)的企業(yè)承擔相應的合規(guī)義務(wù),但此種義務(wù)必須是適當?shù)?,不應超過企業(yè)的負擔能力。對此,可從《暫行辦法》的相關(guān)規(guī)定中尋得規(guī)范支撐:其一,第3條要求對生成式人工智能服務(wù)進行分類分級監(jiān)管,言下之意就是要依據(jù)具體風險大小進行治理,對在不同領(lǐng)域提供不同生成式人工智能義務(wù)的企業(yè)提出有程度差別的合規(guī)義務(wù),這一點與《人工智能法案》基于風險的分級監(jiān)管頗為相似;其二,與原先征求意見稿相比,第7條和第8條明顯降低了企業(yè)研發(fā)、訓練生成式人工智能的合規(guī)要求,如原有第7條第(4)項“能夠保證數(shù)據(jù)的真實性、準確性、客觀性、多樣性”改為“采取有效措施提高訓練數(shù)據(jù)質(zhì)量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性”,原有第8條“抽樣核驗標注內(nèi)容的正確性”改為“抽樣核驗標注內(nèi)容的準確性”;其三,第9條和第14條通過重新分配服務(wù)提供者與用戶的權(quán)利義務(wù),給予了提供者更為靈活的合規(guī)空間,以增強其主動合規(guī)的意愿。例如,將“內(nèi)容生產(chǎn)者責任”改為“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責任”,使提供服務(wù)的企業(yè)不必為用戶惡意濫用生成式人工智能生成的非法內(nèi)容承擔責任。

生成式人工智能技術(shù)已經(jīng)在商業(yè)貿(mào)易、新聞傳播等多行業(yè)掀起巨大波瀾,如何進行有效監(jiān)管使其服務(wù)于人類社會是各國應當長期思考和解決的現(xiàn)實命題。不同國家選擇的人工智能監(jiān)管模式反映著特定的社會價值觀和國家優(yōu)先事項,這些不同的要求可能相互沖突,如注重保障用戶隱私和促進技術(shù)創(chuàng)新,因而造成了更為復雜的監(jiān)管環(huán)境。歐盟的“安全優(yōu)先,兼顧公平”和美國的“強調(diào)自我監(jiān)管,支持技術(shù)創(chuàng)新”雖然有諸多不同之處,但也存在著共識部分,或多或少能促進生成式人工智能的技術(shù)創(chuàng)新、安全使用與依法治理。同時,透明度和可解釋性將是遵守新興法規(guī)和培養(yǎng)對生成式人工智能技術(shù)信任的關(guān)鍵所在。歐美立法動向也提醒我國要盡快進行國家層面的人工智能立法,確定人工智能治理的基本原則,以及風險管理制度、主體責任分配、法律責任等內(nèi)容,統(tǒng)籌全國的治理布局,還要充分發(fā)揮地方積極性,通過地方立法先行先試,避免無法可用的同時為國家層面的人工智能立法積累經(jīng)驗。

(作者為浙江大學光華法學院教授、博導)

【注:本文系國家社科基金重大項目“建立健全我國網(wǎng)絡(luò)綜合治理體系研究”(項目編號:20ZDA062)階段性成果】

【注釋】

①Ouyang L,Wu J,Jiang X,et al."Training language models to follow instructions with human feedback",Advances in Neural Information Processing Systems,2022(35),pp.27730-27744.

②Natali Helberger,Nicholas Diakopoulos."ChatGPT and the AI Act",Internet Policy Review,2023,12(1).

③曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對我國的啟示——以〈人工智能法案〉為分析對象》,《電子政務(wù)》,2022年第9期。

④The White House,"Blueprint for an AI Bill of Rights",October 2022.

⑤Friedler, Sorelle, Suresh Venkatasubramanian, Alex Engler,"How California and other states are tackling AI legislation",Brookings,March 2023.

⑥Müge Fazlioglu."US federal AI governance: Laws, policies and strategies",International Association of Privacy Professionals,June 2023.

⑦程樂:《人工智能發(fā)展趨勢研判與規(guī)范引導思路》,《國家治理》,2023年第6期。

⑧程樂:《生成式人工智能的法律規(guī)制——以ChatGPT為視角》,《政法論叢》,2023年第4期。

⑨劉艷紅:《生成式人工智能的三大安全風險及法律規(guī)制——以ChatGPT為例》,《東方法學》,2023年第4期。

⑩張廣勝:《生成式人工智能的國家安全風險及其對策》,《人民論壇·學術(shù)前沿》,2023年第7期。

責編/靳佳 美編/王夢雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標明來源及作者,否則追究法律責任。

[責任編輯:孫渴]