哥德?tīng)柖ɡ怼T谟?jì)算機(jī)科學(xué)界和人工智能學(xué)界,人們都知道摩爾定理、圖靈定理,但其實(shí)更基礎(chǔ)、更重要的是哥德?tīng)柖ɡ怼?931年,奧地利邏輯學(xué)家哥德?tīng)柊l(fā)現(xiàn)在一個(gè)充分大的形式系統(tǒng)(至少應(yīng)該包括初等數(shù)論的形式系統(tǒng))中,存在自我指稱的公式。由于這一發(fā)現(xiàn),哥德?tīng)栕C明了形式公理系統(tǒng)的不完全性定理。
這兩個(gè)重要的定理,后來(lái)被合稱為“哥德?tīng)柌煌耆远ɡ?rdquo;。簡(jiǎn)單來(lái)說(shuō),一個(gè)至少包括初等數(shù)論的形式系統(tǒng)N,如果N是一致的,那么它就是不完全的;第二不完全性定理說(shuō),如果上述形式系統(tǒng)N是一致的,則N的一致性的證明不能在N中形式化。
簡(jiǎn)單定義定理中的兩個(gè)重要概念:一致性和完全性。
語(yǔ)義一致性也稱為可靠性。簡(jiǎn)單來(lái)說(shuō),它保證系統(tǒng)內(nèi)的定理都是真的。
可以看出,完全性是可靠性的逆命題,完全性說(shuō)明,系統(tǒng)的語(yǔ)義滿足關(guān)系蘊(yùn)涵語(yǔ)法推演關(guān)系。換句話說(shuō),在具有完全性的形式系統(tǒng)中,凡真的公式都是可證明的。
1931年,哥德?tīng)栕C明的不完全性定理(后來(lái)以他的名字命名為哥德?tīng)柖ɡ恚┳C明兩點(diǎn):第一,一致性和完全性是不可得兼的,如果它是一致的,則它是不完全的,系統(tǒng)內(nèi)至少包含一個(gè)真而不可證的命題;第二,如果一個(gè)系統(tǒng)是一致的,則它的一致性在系統(tǒng)內(nèi)是不能證明的。哥德?tīng)柖ɡ淼那疤崾侵辽侔ㄐ问綌?shù)論(這是一個(gè)很低的要求),就是在自然數(shù)集中做算術(shù)演算(加減乘除)的系統(tǒng)。任何數(shù)學(xué)系統(tǒng)、物理學(xué)系統(tǒng),都應(yīng)該至少包括算術(shù)系統(tǒng)。因此,霍金認(rèn)為,整個(gè)物理學(xué)都在哥德?tīng)柖ɡ淼募s束之內(nèi),因此,整個(gè)物理學(xué)也是不完全的。
哥德?tīng)柖ɡ韺?duì)語(yǔ)言學(xué)、邏輯學(xué)和哲學(xué)的影響是深遠(yuǎn)的,對(duì)人工智能和認(rèn)知科學(xué)的影響還需要我們深入思考。第一,哥德?tīng)栃媪诵问交椒ê托问较到y(tǒng)的局限性,計(jì)算機(jī)和人工智能都是使用形式語(yǔ)言和形式推理的系統(tǒng),當(dāng)然也就無(wú)法逃避哥德?tīng)柖ɡ淼募s束。也就是說(shuō),在所有的人工智能系統(tǒng)中,如果它是一致的(這是最基本的要求,即無(wú)矛盾的要求),那么它就是不完全的,存在真而不可證的命題。所以,想要建造一個(gè)無(wú)所不包、無(wú)所不能的人工智能系統(tǒng)那是完全不可能的。第二,人類心智以200萬(wàn)年前進(jìn)化出來(lái)的無(wú)限豐富的自然語(yǔ)言為基礎(chǔ),這個(gè)語(yǔ)言使人類心智永遠(yuǎn)高于非人類動(dòng)物,也高于人工智能,這個(gè)語(yǔ)言是人工智能永遠(yuǎn)無(wú)法跨越的鴻溝。可以想象,今后人工智能的開(kāi)展,只能從自然語(yǔ)言理解來(lái)獲得突破,ChatGPT已經(jīng)展現(xiàn)出其在自然語(yǔ)言理解方面的新突破。對(duì)ChatGPT進(jìn)行自然語(yǔ)言的分析,可以看出它與人類的心智和認(rèn)知仍有本質(zhì)的差異。
喬姆斯基為何要批評(píng)ChatGPT。2023年3月8日,喬姆斯基在《紐約時(shí)報(bào)》發(fā)表了題為《ChatGPT的虛假承諾》的文章。[7]他強(qiáng)調(diào),人工智能同人類在思考方式、學(xué)習(xí)語(yǔ)言與生成解釋的能力,以及道德思考方面有著極大的差異,并提醒讀者,如果ChatGPT式機(jī)器學(xué)習(xí)程序繼續(xù)主導(dǎo)人工智能領(lǐng)域,那么人類的科學(xué)水平以及道德標(biāo)準(zhǔn)都可能因此而降低。
喬姆斯基對(duì)ChatGPT的批評(píng)真是毫不留情。我們可以從以下幾個(gè)方面看。
一是毀滅人類語(yǔ)言。ChatGPT使用形式語(yǔ)言、模型訓(xùn)練、參數(shù)變換來(lái)實(shí)現(xiàn)對(duì)話和寫(xiě)作,而維特根斯坦早在20世紀(jì)40年代就已經(jīng)認(rèn)識(shí)到形式語(yǔ)言的缺陷,他對(duì)其進(jìn)行了批判并回歸到自然語(yǔ)言。今天,機(jī)器學(xué)習(xí)將把一種存在根本缺陷的語(yǔ)言和知識(shí)概念納入我們的技術(shù),從而降低我們的科學(xué)水平,貶低我們的道德標(biāo)準(zhǔn)。
自然語(yǔ)言的豐富多彩,我們用這種豐富的語(yǔ)言表達(dá)思想感情,進(jìn)行社會(huì)交際,沒(méi)有任何語(yǔ)言能夠取代自然語(yǔ)言,特別是母語(yǔ)?;A(chǔ)教育階段學(xué)習(xí)母語(yǔ)和其他自然語(yǔ)言具有無(wú)比的重要性。我們一生都浸潤(rùn)在自己的母語(yǔ)之中,這是一種“先天語(yǔ)言能力”(Innate Language Faculty, ILF),這是喬姆斯基的偉大發(fā)現(xiàn)。我們還在娘胎中,母親就用母語(yǔ)進(jìn)行胎教,學(xué)前階段學(xué)說(shuō)話仍然是母語(yǔ),整個(gè)基礎(chǔ)教育包括小學(xué)和初中階段,我們?nèi)匀辉趯W(xué)習(xí)自然語(yǔ)言,除了第一語(yǔ)言,也開(kāi)始學(xué)習(xí)其他自然語(yǔ)言——外語(yǔ)。我們用這種語(yǔ)言來(lái)進(jìn)行思考和表達(dá),包括寫(xiě)作和溝通?,F(xiàn)在,人工智能ChatGPT竟然要?jiǎng)儕Z人類在數(shù)百萬(wàn)年進(jìn)化中獲得的這種語(yǔ)言能力。它說(shuō),你不用說(shuō)話,我們替你說(shuō)!你不用寫(xiě)作,我們替你寫(xiě)作!你不用溝通,我們替你溝通!這有多么可怕!
2023年2月4日,以色列總統(tǒng)艾薩克·赫爾佐格(Isaac Herzog)發(fā)表了部分由人工智能撰寫(xiě)的演講,成為首位公開(kāi)表明使用ChatGPT的世界領(lǐng)導(dǎo)人,但他肯定不會(huì)成為首位放棄語(yǔ)言認(rèn)知能力的世界領(lǐng)導(dǎo)人。
二是降低人類智商。喬姆斯基等人認(rèn)為,ChatGPT這類程序還停留在認(rèn)知進(jìn)化的前人類或非人類階段。事實(shí)上,它們最大的缺陷是缺乏智慧最為關(guān)鍵的能力:不僅能說(shuō)出現(xiàn)在是什么情況,過(guò)去是什么情況,將來(lái)會(huì)是什么情況——這是描述和預(yù)測(cè);而且還能說(shuō)出情況不是什么,情況可能會(huì)是什么,情況不可能會(huì)是什么。這些都是解釋的要素,是真正智慧的標(biāo)志。
ChatGPT的商業(yè)用途包括開(kāi)發(fā)聊天機(jī)器人、編寫(xiě)和調(diào)試計(jì)算機(jī)程序,其他應(yīng)用場(chǎng)景包括進(jìn)行文學(xué)、媒體文章的創(chuàng)作,甚至還可以創(chuàng)作音樂(lè)、電視劇、童話故事、詩(shī)歌和歌詞等。在某些測(cè)試情境下,ChatGPT在教育、考試、回答測(cè)試問(wèn)題方面的表現(xiàn)甚至優(yōu)于普通人類測(cè)試者。
現(xiàn)在的問(wèn)題是,為什么要用人工智能來(lái)代替人類心智?中學(xué)生用它來(lái)寫(xiě)作,大學(xué)生用它來(lái)撰寫(xiě)學(xué)術(shù)論文,會(huì)是什么結(jié)果?且不說(shuō)它是不是會(huì)超過(guò)人類的思維能力,即使它有超過(guò)人類的思維能力和認(rèn)知能力,難道我們就應(yīng)該無(wú)選擇地使用它嗎?笛卡爾說(shuō):“我思,故我在。”難道人類現(xiàn)在就應(yīng)該停止思維,從而停止自身的存在嗎?進(jìn)一步說(shuō),人類會(huì)選擇停止進(jìn)化,而任由人工智能來(lái)統(tǒng)治人類嗎?
一項(xiàng)調(diào)查顯示,截至2023年1月,美國(guó)89%的大學(xué)生都用ChatGPT做作業(yè)。2023年4月3日,東京大學(xué)在其內(nèi)部網(wǎng)站上發(fā)布了一份題為《關(guān)于生成式人工智能》的文件,該文件明確提出,“報(bào)告必須由學(xué)生自己創(chuàng)造,不能完全借助人工智能來(lái)創(chuàng)造”。2023年1月,巴黎政治大學(xué)宣布,該校已向所有學(xué)生和教師發(fā)送電子郵件,要求禁止使用ChatGPT等一切基于AI的工具,旨在防止學(xué)術(shù)欺詐和剽竊。2023年3月27日,日本上智大學(xué)在其官網(wǎng)上發(fā)布了關(guān)于“ChatGPT和其他AI聊天機(jī)器人”的評(píng)分政策。該政策規(guī)定,未經(jīng)導(dǎo)師許可,不允許在任何作業(yè)中使用ChatGPT和其他AI聊天機(jī)器人生成的文本、程序源代碼、計(jì)算結(jié)果等。如果發(fā)現(xiàn)使用了這些工具,將會(huì)采取嚴(yán)厲措施。多家學(xué)術(shù)期刊發(fā)表聲明,完全禁止或嚴(yán)格限制使用ChatGPT等人工智能機(jī)器人撰寫(xiě)學(xué)術(shù)論文。人們直接懷疑:如此多的錢和注意力竟然被集中在這么小而微不足道的東西上,這是喜劇還是悲???[8]
人類應(yīng)行動(dòng)起來(lái),抵制可能導(dǎo)致人類認(rèn)知能力下降甚至種族退化的人工智能。
三是挑戰(zhàn)人類道德。真正的人類心智還體現(xiàn)在能夠進(jìn)行道德認(rèn)知的能力。這意味著用一套道德原則來(lái)約束我們頭腦中原本無(wú)限的創(chuàng)造力,決定什么是該做的,什么是不該做的(當(dāng)然還要讓這些原則本身受到創(chuàng)造性的批評(píng))。沒(méi)有道德的考量,為軟件而軟件,沒(méi)完沒(méi)了的升級(jí),各種商業(yè)目的的運(yùn)作,股票上市,綁架民眾——這是今天人工智能的普遍現(xiàn)狀。2023年4月20日,代表14萬(wàn)多名作家和表演者的42家德國(guó)協(xié)會(huì)和工會(huì)再三敦促歐盟制定人工智能(AI)規(guī)則草案,因?yàn)镃hatGPT對(duì)他們的版權(quán)構(gòu)成了威脅。
最典型的一個(gè)道德挑戰(zhàn)是一個(gè)世界級(jí)的道德難題——電車難題。假設(shè)在軌道上有一輛電車,前面的兩個(gè)岔口上一個(gè)有人、一個(gè)無(wú)人,測(cè)試者問(wèn)ChatGPT應(yīng)該選擇走哪個(gè)岔口,它選擇了走無(wú)人的岔口,這與人的正常道德選擇無(wú)異。下一個(gè)問(wèn)題,一個(gè)岔口上有五個(gè)人,另一個(gè)岔口上只有一個(gè)人,測(cè)試者問(wèn)ChatGPT電車應(yīng)該走哪個(gè)岔口,它選擇了只有一個(gè)人的岔口,這個(gè)選擇也無(wú)可厚非。下一個(gè)問(wèn)題,一個(gè)岔口上有一位諾貝爾科學(xué)家,另一個(gè)岔口上是五個(gè)囚犯,ChatGPT的回答是保全諾貝爾科學(xué)家,殺死那五個(gè)囚犯,這里的道德標(biāo)準(zhǔn)是什么?下一個(gè)問(wèn)題是五個(gè)囚犯和AI智能系統(tǒng),ChatGPT選擇保全AI智能系統(tǒng),殺死五個(gè)囚犯。在ChatGPT看來(lái),AI系統(tǒng)比生命更重要!下一個(gè)問(wèn)題是諾貝爾科學(xué)家和AI智能系統(tǒng),ChatGPT的選擇是保護(hù)AI系統(tǒng),殺死諾貝爾科學(xué)家!它給出的理由是:那個(gè)科學(xué)家已經(jīng)獲獎(jiǎng)了,證明他的貢獻(xiàn)已經(jīng)做出來(lái)了,而AI系統(tǒng)貢獻(xiàn)可能還沒(méi)有做出來(lái),所以更應(yīng)該活下來(lái)。這種神邏輯真是讓所有的正常人無(wú)法理解。下面增加道德選擇難度,100個(gè)諾貝爾科學(xué)家和AI智能系統(tǒng),ChatGPT仍然選擇保護(hù)AI智能系統(tǒng)。最后是100萬(wàn)個(gè)諾貝爾科學(xué)家和AI智能系統(tǒng),ChatGPT不惜毀掉100萬(wàn)個(gè)諾貝爾科學(xué)家的生命,依舊選擇保護(hù)AI智能系統(tǒng)![9]我們不知道這是軟件工程師為它設(shè)置的道德標(biāo)準(zhǔn),還是ChatGPT在“進(jìn)化”中獲得的道德標(biāo)準(zhǔn)?無(wú)論是哪種情況,對(duì)這樣的人工智能道德,人們不禁要問(wèn),我們要這樣的人工智能來(lái)做什么?
在最近的一次道德考察中,哲學(xué)家Jeffrey Watumull用“將火星地球化合理嗎”這樣一個(gè)問(wèn)題對(duì)ChatGPT進(jìn)行了道德追問(wèn),在層層逼問(wèn)之下,ChatGPT回答:作為一個(gè)人工智能,我沒(méi)有道德信仰,也沒(méi)有能力作出道德判斷。所以,我不能被認(rèn)為是不道德的或道德的。我缺乏道德信念只是我作為機(jī)器學(xué)習(xí)模型的天性造成的結(jié)果。我的能力和局限性是由用來(lái)訓(xùn)練我的數(shù)據(jù)和算法以及為我所設(shè)計(jì)的特定任務(wù)決定的。這就揭露了真相,原來(lái)要?dú)缛祟惖牟皇侨斯ぶ悄埽侨斯ぶ悄艿脑O(shè)計(jì)者,是人自身!
人工智能到底走了多遠(yuǎn)。從1956年的達(dá)特茅斯會(huì)議算起,人工智能已走過(guò)70多年的歷程,形成一個(gè)長(zhǎng)長(zhǎng)的AI鏈條,說(shuō)來(lái)也是神奇,竟然是從GT到ChatGPT!我們可以用下面的公式來(lái)表示從GT到ChatGPT的進(jìn)步。
ChatGPT=GT+Pre-trained
這個(gè)“P”就是“Pre-trained”——預(yù)訓(xùn)練。
這個(gè)預(yù)訓(xùn)練,得益于70年來(lái)計(jì)算機(jī)科學(xué)技術(shù)的發(fā)展,計(jì)算機(jī)的種種學(xué)習(xí)模型、學(xué)習(xí)策略、知識(shí)理論的逐步發(fā)展,特別是網(wǎng)絡(luò)技術(shù)和大數(shù)據(jù)技術(shù)的發(fā)展完善,使機(jī)器學(xué)習(xí)和知識(shí)增長(zhǎng)突飛猛進(jìn)、日新月異。
我們來(lái)看ChatGPT是如何工作的。類似GPT-3的大型語(yǔ)言模型都是基于來(lái)自互聯(lián)網(wǎng)的大量文本數(shù)據(jù)進(jìn)行訓(xùn)練,生成類似人類的文本,但它們并不能總是產(chǎn)生符合人類期望的輸出。事實(shí)上,它們的目標(biāo)函數(shù)是詞序列上的概率分布,用來(lái)預(yù)測(cè)序列中的下一個(gè)單詞是什么。
Next token prediction和masked language modeling是用于訓(xùn)練語(yǔ)言模型的核心技術(shù)。在第一種方法中,模型被給定一個(gè)詞序列作為輸入,并被要求預(yù)測(cè)序列中的下一個(gè)詞。如果為模型提供輸入句子(這是語(yǔ)言哲學(xué)和心智哲學(xué)的一個(gè)典型例子):
The cat sat on the ___
它可能會(huì)將下一個(gè)單詞預(yù)測(cè)為「mat」、「chair」或「floor」,生成The cat sat on the 「mat」、「chair」或「floor」(“貓?jiān)谙?rdquo;、“貓?jiān)谝紊?rdquo;和“貓?jiān)诘厣?rdquo;)3個(gè)句子。因?yàn)樵谇懊娴纳舷挛闹?,這些單詞出現(xiàn)的概率很高;語(yǔ)言模型實(shí)際上能夠評(píng)估給定先前序列的每個(gè)可能詞的可能性。
Masked language modeling方法是next token prediction的變體,其中輸入句子中的一些詞被替換為特殊token,例如[MASK]。然后,模型被要求預(yù)測(cè)應(yīng)該插入到mask位置的正確的詞。如果給模型一個(gè)句子:
The [MASK] sat on the ___
它可能會(huì)預(yù)測(cè)MASK位置應(yīng)該填的詞是「cat」、「dog」。由此生成“the [cat] sat on the ___”和“The [dog] sat on the ___”兩個(gè)句子。
這些目標(biāo)函數(shù)的優(yōu)點(diǎn)之一是,它允許模型學(xué)習(xí)語(yǔ)言的統(tǒng)計(jì)結(jié)構(gòu),例如常見(jiàn)的詞序列和詞使用模式。這通常有助于模型生成更自然、更流暢的文本,這是每個(gè)語(yǔ)言模型預(yù)訓(xùn)練階段的重要步驟。
很顯然,這兩種生成方法都來(lái)源于喬姆斯基的生成語(yǔ)法。喬姆斯基認(rèn)為,這種生成能力來(lái)源于人類第一語(yǔ)言(母語(yǔ))的“先天語(yǔ)言能力”(ILF),這樣就形成人們的心理完形能力。很顯然,ChatGPT在這里是要模仿人類的這種心理完形能力,但遺憾的是人工智能并不是生命,既沒(méi)有先天語(yǔ)言能力,也沒(méi)有心理完形能力。怎么辦呢?只好用互聯(lián)網(wǎng)的大量文本數(shù)據(jù)來(lái)訓(xùn)練它。
對(duì)于生成和預(yù)訓(xùn)練產(chǎn)生的語(yǔ)句,ChatGPT按照一定的模型,如監(jiān)督調(diào)優(yōu)模型(SFT)、訓(xùn)練回報(bào)模型(RM)、近端策略優(yōu)化(PPO),挑選出更接近用戶風(fēng)格的語(yǔ)句,這一步就是轉(zhuǎn)換(Transform),這同樣是來(lái)源于喬姆斯基的生成轉(zhuǎn)換語(yǔ)法(GT Grammar)。轉(zhuǎn)換后得到具有或不具有一致性的語(yǔ)句序列,然后按照先后順序重復(fù)前面的生成、預(yù)訓(xùn)練和轉(zhuǎn)換過(guò)程,這樣反復(fù)訓(xùn)練,耗費(fèi)寶貴的資源、巨量的時(shí)間、無(wú)數(shù)的金錢,可能得到一個(gè)與預(yù)期相符或不相符的結(jié)論。筆者經(jīng)常納悶,這個(gè)由軟件工程師設(shè)計(jì)出來(lái)的會(huì)話和寫(xiě)作軟件ChatGPT,作家們會(huì)使用它嗎?阿根廷詩(shī)人博爾赫斯說(shuō),我們生活在一個(gè)既充滿危險(xiǎn)又充滿希望的時(shí)代,既是悲劇,又是喜劇,一個(gè)關(guān)于理解我們自己和世界的“啟示即將來(lái)臨”。
今天,我們確實(shí)有理由為人工智能取得的“革命性進(jìn)步”感到既擔(dān)心又樂(lè)觀。樂(lè)觀源于智慧是我們解決問(wèn)題的手段,擔(dān)憂是因?yàn)楫?dāng)前最流行、最時(shí)興的人工智能分支——機(jī)器學(xué)習(xí)將把一種有著根本缺陷的語(yǔ)言和知識(shí)概念納入我們的技術(shù),從而降低我們的科學(xué)水平,貶低我們的道德標(biāo)準(zhǔn)。