《人工智能哲學(xué)十五講》,徐英瑾著,北京大學(xué)出版社出版
關(guān)于哲學(xué)家是否有資格對科學(xué)問題插嘴,作為科學(xué)哲學(xué)與西方哲學(xué)的雙料研究者,筆者覺得有幾句話要說。我承認:并非面對所有理工科問題,哲學(xué)家都有話要說。譬如,關(guān)于“殲20戰(zhàn)斗機為何用鴨式布局的形體”這個問題,哲學(xué)家就不會發(fā)言,至少不會以哲學(xué)家的身份發(fā)言。然而,關(guān)于“進化論是否能夠沿用到心理學(xué)領(lǐng)域”“量子力學(xué)的本質(zhì)到底是什么”這些科學(xué)家自己都未必有定見的問題,心理學(xué)哲學(xué)、生物學(xué)哲學(xué)與物理學(xué)哲學(xué)當(dāng)然有話要說。
按照同樣的邏輯,關(guān)于人工智能的問題,哲學(xué)家當(dāng)然也可以發(fā)言,正如物理學(xué)哲學(xué)家可以對基本物理學(xué)發(fā)現(xiàn)的意義進行追問一樣。具體而言,在人工智能學(xué)界,關(guān)于何為智能的基本定義目前都沒有定見,而由此導(dǎo)致的技術(shù)路線分歧更是不一而足。在這種情況下,多聽聽哲學(xué)家關(guān)于此類問題的見解,恐怕也沒有啥壞處。有人或許會反問:哲學(xué)家們連一行程序都不會寫,為何要聽哲學(xué)家的?對這個疑問,兩個回應(yīng)足以將其駁倒。
第一,你怎么知道哲學(xué)家都不會寫程序?比如,知識論研究領(lǐng)域的重磅學(xué)者波洛克,就曾開發(fā)了一個叫作“奧斯卡”的推理系統(tǒng),相關(guān)研究成果在主流人工智能雜志上都發(fā)表過。
第二,難道一定會寫程序才是能夠?qū)θ斯ぶ悄馨l(fā)表意見的必要條件?作為一種底層操作,寫具體的代碼的工作,類似于軍隊中最簡單的射擊動作。然而,請大家試想一下:劉邦之所以能夠打敗項羽,究竟是因為他有知人善用的本事呢,還是因為他精通弩機的使用?答案無疑是前者。很顯然,哲學(xué)之于人工智能的底層操作,就類似于劉邦的戰(zhàn)略思維之于使用弩機之類的戰(zhàn)術(shù)動作。有的讀者還會說:縱然我們承認“人工智能哲學(xué)”現(xiàn)在是一個在哲學(xué)內(nèi)部被承認的學(xué)術(shù)分支,這又如何?譬如,主流的人工智能哲學(xué)專家之一德瑞福斯就是一個如假包換的海德格爾哲學(xué)的粉絲,而海德格爾哲學(xué)的描述云山霧罩,毫無算法說明支持,以這樣的哲學(xué)為基礎(chǔ)再建立一種人工智能哲學(xué)的理論,難道不是在賣狗皮膏藥嗎?海氏現(xiàn)象學(xué)的一個基本觀點是:西方哲學(xué)傳統(tǒng)關(guān)心的是“存在者”,而不是“存在”本身。而他自己的新哲學(xué)要重新揭露這被遺忘的“存在”。所謂“存在者”,就是能夠在語言表征中被清楚地對象化的東西。比如,命題、真值、主體、客體,都是這樣的存在者。而“存在”本身,則難以在語言表征中被對象化,比如你在使用一個隱喻的時候所依賴的某種模糊的背景知識。你能夠像列舉你的十根手指一樣,將開某個玩笑時的背景知識都說清楚嗎?在背景知識與非背景知識之間,你能夠找到清楚的界限嗎?而傳統(tǒng)人工智能的麻煩就在這里。人類真實的智能活動都會依賴這些說不清楚的背景知識,而程序員呢,他們不把事情說得清清楚楚,就編寫不了程序。這就構(gòu)成了人類的現(xiàn)象學(xué)體驗與機器編寫的機械論預(yù)設(shè)之間的巨大張力。
有人會說:機器何必要理睬人的現(xiàn)象學(xué)體驗?人工智能又不是克隆人,完全可以不理睬人是怎么感知世界的???對這個非常膚淺的質(zhì)疑,如下應(yīng)答就足夠了:我們?yōu)槭裁匆鋈斯ぶ悄??不就是為了給人類增加幫手嗎?假設(shè)你需要造一個搬運機器人,幫助你搬家,那么,你難道不希望他能夠聽懂你的命令嗎?這個命令里包含了大量的方位代詞,其具體含義必須在特定語境中才能夠得到確定。在這樣的情況下,你怎么可能不指望機器人與你分享同樣的語境意識呢?你怎么能夠忍受你的機器人是處在另外一個時空尺度里的怪物呢?既然這樣的機器人必須具有與人類似的語境意識,由海氏哲學(xué)所揭示的人類現(xiàn)象學(xué)體驗的某些基本結(jié)構(gòu),一定意義上不也正適用于真正的人工智能體嗎?
全球范圍內(nèi)關(guān)于人工智能的技術(shù)與資本布局,多少受到了三種觀點的影響
本書的真正主角,毋寧說是這樣三個問題:第一,現(xiàn)實評估之問:當(dāng)下的主流人工智能,算是通用人工智能嗎?(筆者的答案是“非也”。)第二,倫理維度之問:研究通用人工智能,在倫理上是利大于弊,還是弊大于利?(筆者的答案是“利大于弊”。)第三,路線圖勾畫之問:我們該如何逼近通用人工智能?(筆者對該問題的答案包含三個關(guān)鍵詞:“小數(shù)據(jù)主義”“綠色人工智能”與“心智建模”。)
從筆者預(yù)先給出的這些問題的答案來看,讀者應(yīng)當(dāng)看出,我是不可能贊成如下三條在當(dāng)前媒體界與商界被反復(fù)鼓吹的意見的(但這三條意見彼此之間在邏輯上未必自洽):第一(針對我的第一問):當(dāng)前主流的人工智能,經(jīng)由深度學(xué)習(xí)技術(shù)所提供的強大運算力,會在某個不太遙遠的時刻逼近通用人工智能的目標(biāo)。第二(針對我的第二問):盡管通用人工智能技術(shù)可以通過當(dāng)前的技術(shù)路線而達成,然而,該目標(biāo)的實現(xiàn)會對人類社會構(gòu)成莫大的威脅。第三(針對我的第三問):未來人工智能的主要技術(shù)路徑,是大數(shù)據(jù)技術(shù)、5G環(huán)境中的物聯(lián)網(wǎng)技術(shù)。
筆者認為以上三條意見都是錯的,而且是那種哲學(xué)層面上的錯誤,但不幸的是,全球范圍內(nèi)關(guān)于人工智能的技術(shù)與資本布局,都多多少少受到了上述三種觀點——尤其是最后一種觀點——的影響。對此,我感到非常憂慮。
(原標(biāo)題:哲學(xué)家們連一行程序都不會寫,為何要聽哲學(xué)家的?人工智能哲學(xué)十五講)
來源:北京日報 作者:復(fù)旦大學(xué)哲學(xué)學(xué)院教授 徐英瑾