最近,人工智能產(chǎn)品ChatGPT橫空出世。由于具有語言理解和文本生成能力,特別是能夠從事論文寫作、翻譯以及制作司法裁判文書等工作,該產(chǎn)品引發(fā)了人們對人工智能在經(jīng)濟社會發(fā)展中應用的廣泛討論。與此同時,我國工業(yè)和信息化部等部門聯(lián)合印發(fā)了《“機器人+”應用行動實施方案》,明確了人工智能機器人應用的10大重點領域,提出推動各行業(yè)、各地方結合行業(yè)發(fā)展階段和區(qū)域發(fā)展特色,開展“機器人+”應用創(chuàng)新實踐;搭建國際國內交流平臺,形成全面推進機器人應用的濃厚氛圍。這都預示著人工智能加快應用的時代正在到來。
人工智能作為一種戰(zhàn)略性新興技術,其蓬勃發(fā)展和廣泛應用,將塑造和賦能越來越多的行業(yè)、領域和應用場景,形成“人工智能賦能+”效應,為經(jīng)濟社會發(fā)展注入強勁動能。不過,人工智能應用是一把“雙刃劍”,它在賦能經(jīng)濟社會發(fā)展的同時也可能引發(fā)風險。一是新型法律糾紛風險,比如人工智能侵權糾紛、著作權糾紛、人工智能技術濫用帶來的權益糾紛等。二是道德風險。人工智能不能進行價值判斷,但它是在研發(fā)人員價值觀念支配下設計開發(fā)出來的,容易受研發(fā)者秉持的價值觀念影響。三是人工智能技術不完善造成的社會公害風險,比如算法歧視、泄露隱私信息等。對此,必須加強對人工智能潛在風險的研判和防范,確保人工智能安全、可靠、可控。
在規(guī)范策略上,應堅持規(guī)制與保障并重。一項新技術從研發(fā)到進入市場,再到融入社會生產(chǎn)、生活,產(chǎn)生風險是難以避免的,不能因為風險而放棄新技術的研發(fā)和應用。理想目標應是把風險最小化,把技術獲利最大化。這就要求法律和政策做到規(guī)制與保障并重。要通過法律與政策手段解決人工智能引發(fā)的風險,實現(xiàn)有序發(fā)展;同時,要確保人工智能創(chuàng)新發(fā)展,更好賦能經(jīng)濟社會。不過,規(guī)制與保障之間可能存在價值沖突,規(guī)制不當可能扼殺人工智能的創(chuàng)新發(fā)展,必須審慎地處理好二者之間的關系。
在規(guī)范手段上,注重軟性引導與硬性約束同向發(fā)力。應根據(jù)人工智能應用產(chǎn)生風險的原因,有針對性地采用不同規(guī)范手段。對人工智能因技術不完善引發(fā)的風險,主要依靠軟性規(guī)范。軟性規(guī)范具有倡導性、靈活性強的特點。可以通過制定指南或行業(yè)自律等方式引導技術向善,防范潛在風險發(fā)生。這是防范人工智能風險不可或缺的手段。
對濫用人工智能技術引發(fā)的風險,則要依靠硬性約束。硬性約束規(guī)定明確,可操作性強,能夠為人們如何行為提供具體指引,并且有強制力保障。隨著人工智能廣泛應用于各行業(yè),濫用人工智能技術多發(fā)頻發(fā),這就需要通過硬性約束,規(guī)范治理人工智能濫用問題。目前,我國專門針對人工智能技術濫用而出臺的法律數(shù)量少、位階低,亟需加大立法步伐。
在規(guī)范方式上,強化政府與企業(yè)治理協(xié)同,相輔相成,相互保障。具體而言,政府應扮演人工智能發(fā)展政策的制定者、治理議程的設置者以及法律法規(guī)實施的監(jiān)督者等角色。企業(yè)是人工智能技術、產(chǎn)品或服務研發(fā)和使用的主體,也是發(fā)展人工智能的責任主體,必須擔負起人工智能風險防范的社會責任。應加強人工智能技術企業(yè)間的合作,依靠技術手段防范人工智能風險。