【摘要】人工智能時代人與機器交融增多,識別人心便變得重要了。這其實為人類看待自己提供了新的機會,認識人類自身從來都是最重要的哲學(xué)乃至實踐問題。從心理學(xué)的角度定義一個人是人可以承襲多種理論觀點,如人具有類似尷尬、敬畏等高級情緒或者人具有能動與體驗的能力,抑或是人能展現(xiàn)出能力和溫暖的形象。人工智能對人的定義相對簡單,即能通過圖靈測試。智能時代的飛速發(fā)展讓不久的將來通過圖靈測試的人工智能體以可以想見的程度迅速增多。因此,在智能時代,能力、屬性或是價值,何者可能成為人作為人最重要的評判標準,人工智能體又應(yīng)該在這三者上表現(xiàn)出何種努力,由于與人工智能體的互動或社會形成,人類又將如何重新審視自己作為人的定義性特征,這是我們意欲探討的問題。
【關(guān)鍵詞】人工智能 心智知覺 讀心 能動 體驗
【中圖分類號】TP311/B84 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2020.01.003
識別人心亦為讀心(mind reading),抑或心智知覺(mind perception)。探求人心之過程亦為回答何以為人之過程。當然你可以說,并非人才有“心”,動物亦有“心”。但此處之“心”非心臟之“心”,乃心智之“心”。因此,識別人心即識別人之為人,蓋因心智以人最為完備,且知覺到某種實體(entity)有“心”,即是將其部分擬人化之過程(許麗穎、喻豐、鄔家驊、韓婷婷、趙靚,2017)。人工智能席卷之時代,機器是否有“人心”,何種技術(shù)手段能夠探究人心等諸問題在未被詳細回答之前,便已然被計算機科學(xué)家訴諸實踐。通過新浪微博我們可以自動化地識別出微博主的細微心理狀態(tài),如壓力、自殺傾向(Xue; Li; Wu; Feng; Zhao & Yu, 2019)。甚至,我們還可以通過這些自我生成的內(nèi)容來自動判別微博用戶的高級心理過程,如幸福(Zhao; Yu; Jing; Hu; Luo & Peng, 2019)、道德(Zhang & Yu, 2018)。
仔細思考上述機器讀心的過程,你便會發(fā)現(xiàn)邏輯頗為不順。這些方法首先是基于人的行為和判斷,以人的真實行為和表達出的心理過程作為因變量,以研究者自我提出的特征作為自變量來建立二者之間的關(guān)系。實際上,人工智能的機器學(xué)習背后是大量的人工標注。比如要識別人的壓力,就必須要有大量的測試集,大量普通人對每條微博的壓力程度進行評定。雖然這里有他評或者自評,但是在訓(xùn)練之時,人工標注其實是對人心識別是否正確的判斷標準。按照這種邏輯,機器學(xué)習并非非??陀^,它還是帶著太多的心理學(xué)中自我報告(self-report)方法的缺陷?,F(xiàn)有人工智能的底層方法就是這種深度學(xué)習,而其在邏輯上是一種基于過去經(jīng)驗的方法?;谶^去的方法便局限于過去,其基本邏輯和早期華生(John B. Waston)的行為主義心理學(xué)觀點無異,大量刺激和反應(yīng)之間形成的聯(lián)結(jié)便是機器學(xué)習的過程。這種方式缺乏認知的作用,缺乏行為主體的意圖、思考、判斷,也就是說,從這種觀點來看,基于深度學(xué)習的人工智能幾乎沒有成為強人工智能的可能。
現(xiàn)有方法能夠判別人類的細微和特定心理狀態(tài),但是這種方法能夠判別人心是否存在嗎?似乎并不能,這就是原因。如果這條微博是機器自動發(fā)出,那么我們可以采用現(xiàn)成方法判斷發(fā)出這條微博者是否抑郁、是否有壓力、是否幸福等,但我們能判斷出這條微博是否是由一個有“心”之人發(fā)出?這條微博是因何而發(fā)?這些問題的回答涉及對何以為人的回答。只有回答了人之為人的問題,方能真正探究技術(shù)如何探查人心之問題。
何以為人
一元理論。人工智能從業(yè)者都知道著名的圖靈測試(Turing Test)。圖靈測試是一條典型的一元標準,即通過便是人,而不通過則非人。這條簡單的原則也許被最多地在人工智能領(lǐng)域提及。直至今日,除專門研究人心問題的心理學(xué)領(lǐng)域,這條古老的原則依然被認為是人工智能檢測的金科玉律。按照奧卡姆剃刀原則,圖靈測試非常完美。它簡單地告訴我們,在不知道是人還是機器人的條件下,經(jīng)過數(shù)輪交互,人無法分辨對方是人還是機器人的行為,那么機器人便以假亂真地可以被看作具有人心。當然圖靈測試的這種標準值得商榷,比如塞爾(John R. Searle)的“中文屋論證”就能很簡單地反駁圖靈測試。如果把一個完全不懂中文的人關(guān)在一個黑屋子里,他擁有一個可以應(yīng)答任何中文問題的字典,即面對任何中文問題,他通過字典就可以給出任何中文回答,雖然他完全不理解中文。這個人并不懂中文,不懂中文的語法規(guī)則,更不可能理解中文問答中的意義。但是他能夠知道何種輸入可以給出何種輸出。這個人如果是一臺機器,那么它便可以輕而易舉地通過圖靈測試。對塞爾的反駁和對圖靈測試的辯護也很多,只是塞爾提出人和機器的區(qū)別只在于一個一元的標準,即意向性(intentionality)。
心理學(xué)也有自己的一元理論,用一條原則判斷人和其他實體(如動物、機器等)的區(qū)別。低人化(Infra-humanization)理論認為,人和非人的區(qū)別就在于人可以體會到特定的情緒,這種情緒叫做次級情緒(secondary emotion),比如人可以體會到愛、懷舊、尷尬,而動物不能、機器不能(Leyens; Paladino; Rodriguez-Torres; Vaes; Demoulin; Rodriguez-Perez & Gaunt, 2000)。但是動物和人都可以體會到所謂的初級情緒,喜、怒、哀、懼、悲、惡。當人類不想將外群體當作人時,會知覺不到他們的次級情緒。機器更加不談次級情緒,甚至人知覺不到它的所有情緒。如若人能夠知覺到人工智能的次級情緒,你發(fā)現(xiàn)家里的掃地機器人在掃得并不干凈時表現(xiàn)出尷尬,那么這個機器人按照低人化理論可以被知覺為人。當然這里從圖靈測試的機器本體論問題換成了認識論問題,換成了人類的知覺,且無論機器和動物是否真的能具有體會和表達次級情緒的能力。至少達爾文(Charles R. Darwin)覺得動物是可以表達出類似愛、尷尬等次級情緒的(Keltner, 2009)。不過,在人類知覺層面,動物是否真的能表達并不關(guān)鍵,反正被我們仇視的外群體成員是無法被知覺到的。
二元理論。對應(yīng)道德理論(Dyadic Morality Theory)是代表性的人心二元理論(Schein & Gray, 2018)。必須說明的是對應(yīng)道德理論是典型的道德一元論,即它認為道德只有一個心理實質(zhì),即傷害。但是在解釋人性上,它是一個二元理論,即認為人性實際上是兩個維度,即所謂能動(agency)和體驗(experience)。能動是道德主體(moral agent)的道德地位體現(xiàn),能動者常常被人知覺為行為的發(fā)出者,因此能動高者被認為需負道德責任;體驗是道德客體(moral patient)的道德地位體現(xiàn),體驗者常常被人知覺為行為的接受者,因此體驗高者被認為具有道德義務(wù)。人性不過是能被人知覺為體驗或者能動而已。人即能動、體驗兼而有之;上帝僅能被知覺為能動,并無體驗;機器能動感知不及上帝,但也并無體驗;嬰兒、動物并無能動,但有體驗。那么何為體驗,即有饑餓、害怕、愉悅、憤怒、欲求、人格、意識、驕傲、尷尬和喜悅的能力;何為能動,即有自我控制、道德、記憶、情緒再認、計劃、交流和思考的能力。
不是僅有對應(yīng)道德理論一種關(guān)于人心的二元理論,實際上,二元理論是非常豐富的。比如非人化(Dehumanization)理論(Haslam, 2016)。非人化理論探討的就是人性何為,其與動物和機器有何區(qū)別。這一理論認為人心的兩個維度為人類本性(human nature)與人類特異性(human uniqueness)(Haslam, 2006)。人類特異性是那些使人區(qū)別于動物的特征,如高貴、禮貌、道德、理性、成熟等;而人類本性則是那些使人區(qū)別于非動物性事物(如機器)的特征,如情感、溫暖、開放、能動、深刻等。這對應(yīng)著動物缺少教養(yǎng)、粗鄙、缺乏自我約束、沖動、孩子氣,也對應(yīng)著機器情感麻木、冰冷、思維僵化、被動以及膚淺。因此人類本性和人類特異性這兩個維度也就是人心的基本維度。
其實,人類本性類似能動,而人類特異性類似體驗,雖不完全對應(yīng),但人皆頗有此感。心理學(xué)家普遍對人心的兩個維度有共識,這和社會認知的基本維度觀相對應(yīng)。也就是說,在日常給別人貼標簽時,我們通常在這兩個維度上進行判斷,這也是日常識別人心的方式。只不過,心理學(xué)對如何命名這兩類則存在分歧。稱作道德與能力者有之、養(yǎng)育與支配者有之、社會與智力者有之、交流與能動者有之、熱情與能力者亦有之。究其實質(zhì),這兩個基本維度代表的意思基本類似,第一個維度基本是朝向他人的,第二個維度基本是朝向自己的?;蛘呶覀兛梢哉f一個是主動的,另一個是被動的。
三元理論。心理生活概念(conceptions of mental life)理論對上述對應(yīng)道德理論的維度重新進行了劃分(Weisman, Dweck & Markman, 2017)。它對人性能力進行了重新篩選和大樣本調(diào)查,發(fā)現(xiàn)人類心理生活概念即人心,應(yīng)分為三個維度,即身體(body)、心智(mind)、情感(heart)。身體維度包括這樣一些能力:感受饑餓、體驗疼痛、感受勞累、體驗恐懼、體驗愉悅、進行計算、有自由意志、有意識、感覺安全、有欲望、感受惡心、感受平靜、感到生氣、有意圖、能知覺到自我;心智維度包括這樣一些能力:記住東西、再認他人、感覺溫度、與他人交流、看到東西、感知深度、朝向目標努力、聽到聲音、作出選擇、推理、聞到氣味;情感維度包括這樣一些能力:感受尷尬、體驗自豪、感覺愛、體驗愧疚、有信念、感覺不受尊重、感到抑郁、理解他人感受、體驗快樂、有人格、感受高興、分辨對錯、進行自我克制、有思維。此理論不再從行為的發(fā)出者和接受者角度來考慮,而是脫開人際原因,直接用個體的身體、心智和情感來進行劃分,雖內(nèi)在邏輯上還稍有重合之處,但是這三個維度已然可以解釋不少人心現(xiàn)象。物體,如訂書機在三個維度上均無;機器人沒有情感和身體,只有心智;甲殼蟲有部分的身體和心智,但是沒有情感。
心理生活概念理論是一個完整的自下而上的數(shù)據(jù)驅(qū)動理論,它只著眼于個體。另一個完全從人工智能角度出發(fā)探究人性的心智知覺維度理論也自下而上地發(fā)現(xiàn)了三種維度(Malle, 2019),即情感、認知和現(xiàn)實交互(reality interaction)。情感維度包括積極社會情感和消極情感兩個子維度,積極社會情感中有四個條目,分別為:感覺高興、愛某個人、感覺愉快、體驗疼痛;消極情感中也有四個條目:感覺疼痛、感覺有壓力、體驗恐懼、感覺勞累。認知維度也包括道德認知和社會認知兩個子維度,道德認知有四個條目,分別為:反對不道德行為、能分清對錯、堅持道德價值觀、贊揚道德行為;社會認知也是四個條目:推斷一個人的想法、計劃未來、理解他人的想法、設(shè)定目標?,F(xiàn)實交互就是四個條目:語言溝通、看和傾聽世界、遵從指導(dǎo)來學(xué)習、自主活動。
無論人心有幾種維度,如上理論都向我們刻畫了人之為人的核心。大略上我們可以從中看出人心的核心是什么,是何種屬性或曰何種能力。
因何為人
能力觀。綜合各種理論,可以發(fā)現(xiàn),拋開維度,至少有兩種解釋人性的方式。一種是能力觀,一種是屬性觀。所謂能力觀是指某種實體(entity)如果在本質(zhì)上具備了某些能力,那么我們便可以將其視作人。這是一種本質(zhì)主義論調(diào),即能夠區(qū)分之物有其自有的本質(zhì)(essence),是這個本質(zhì)決定了這一存在。譬如非人化理論,人之為人,是因為人具有高貴、禮貌、道德、理性、成熟以及情感、溫暖、開放、能動、深刻等特征。又比如低人化理論,人之為人,是因為人具有所謂的次級情緒。
屬性觀。所謂屬性觀,即指某種實體被知覺為具有某種特征,且不論其本質(zhì)上是否真的具有這種特征。相對于能力觀,屬性觀更是一種認識論上的觀點。因為對人心本身便是知覺認識,所以只要能夠知覺他心,實際上實體是否真的具有這種特征本質(zhì)來說并不重要。譬如對應(yīng)道德理論認為人心具有能動和體驗兩個維度。這是兩個知覺性的維度,并非說人之為人必須有能動或者體驗,而是說人之為人,必須讓人覺得有能動或者體驗的感覺。心理生活概念理論也是一種屬性觀理論。
價值觀。在所有人性觀理論中都隱含道德的作用,但是均未提及道德作為一個主要維度來起作用??贪逵∠髢?nèi)容模型(Stereotype Content Model)將人心知覺分為能力與溫暖,某種程度上類似能動與體驗(Fiske; Cuddy & Glick, 2007)。能力與溫暖并未涉及道德,可研究卻發(fā)現(xiàn),在對他人形成印象的時候,道德是認識人心的第一途徑。研究發(fā)現(xiàn),在印象形成時,道德比一般特質(zhì)(如:聰明、有邏輯、有條理、有創(chuàng)造力、有音樂細胞、有運動能力等)更重要;而那些非社會性的美德(如:勇氣、公平、原則、誠實等)又比社會性的美德(如:隨和、熱情、合群、風趣等)更重要(Goodwin; Piazza & Rozin, 2014)。不僅如此,在面孔識別研究中,對面孔判斷的首要影響源便是道德因素,即可信賴程度(trustworthy)(Todorov, Pakrashi & Oosterhof, 2009)。這表明,道德是人類認識自己、認識他人、認識世界、甚至是人類創(chuàng)造意義的首要來源(Janoff-Bulman, 2013)。弗洛倫斯·克拉克宏(Florence Kluckhohn)和弗雷德·斯特羅德貝克(Fred Strodtbeck)試圖找出人類關(guān)心的一些基本問題,他們認為,人類在所有時間、所有地點都會被有限的幾個問題而困擾,而這有限的幾個基本問題中,首要的便是人性問題、道德問題。諾布(Joshua Knobe)認為,人在作任何判斷,哪怕是最基本的意圖判斷時,他都會受到道德因素的影響,因此究其本質(zhì)而言,可以說人是一個道德家(moralist)(Knobe, 2010)。這種道德因素之所以如此重要,是因為道德是進化的心理機制,是我們在漫長的適應(yīng)過程中生而帶來的。對一個人來說,道德可能是其自我認同(identity)的核心。如果問一個人,假設(shè)你的鄰居在車禍中受了重傷,然后接受了換腦手術(shù),術(shù)后醒來他可能有這樣幾種表現(xiàn):沒有什么變化;失去知覺:能看見、能聽見、能有各種感覺,但是卻不能分辨和識別物體;失去欲望:變得沒有任何欲求了;失去記憶:不記得事故前的任何東西了;失去道德:變得沒有良知、無法分辨善惡、好壞(Strohminger & Nichols, 2014)。接著研究者問人們,在每種情況下你覺得你的鄰居在多大程度上已經(jīng)不是他了?結(jié)果發(fā)現(xiàn),在失去美德的情況下,人們覺得一個人最有可能失去其自我認同,這也告訴我們,所謂的“真我”(true self),其核心便是道德。
所以,如果人工智能要達到人類的智能,它有以上三種方案可供選擇,即超越能力、展示屬性與承擔責任。所謂超越能力,是指人工智能具備近似或者超過人類的能力,而這種具備或者超越是全方位的,不能在某一個維度上超過,而在另一維度上不及,這是一種木桶原理的超越。所謂展示屬性,是指人工智能表現(xiàn)出類似人類的屬性,這也是一種木桶原理的展示,即在所有維度上均展示出類似人的屬性。第三種方案即承擔責任,即人工智能在某種程度上承擔道德責任,至少在現(xiàn)在為止,其承擔責任之事相當復(fù)雜(喻豐、許麗穎,2018)。
將為何人
人工智能存在一種異化之可能。即其本是人類創(chuàng)造之物,但強人工智能會反過來鉗制人類本身。隨著社會的發(fā)展和科技的進步,毋庸置疑的是人類將面臨前所未有的巨大挑戰(zhàn),這些挑戰(zhàn)在歷史上從未出現(xiàn),人類將面臨千年未有之大變局。未來社會人工智能將飛速發(fā)展,機器人實際上是人所創(chuàng)造的客體,但在未來社會它可能會同人這個本體相脫離,成為主體的存在,而且反客為主,反轉(zhuǎn)過來束縛、支配、乃至壓抑人類。我們這些占據(jù)食物鏈頂端的人類會在不久的將來面臨前所未有的危機和挑戰(zhàn),比如算法開始替代人類作出選擇,一些原來只有人類能做的工作將會被機器人所取代。有趣的是,即使沒有人工智能之異化,僅僅是弱人工智能滲入人類生活,也極大改變了人類生活的樣貌。那么基于人類將面臨的挑戰(zhàn)和重大社會變革,人類自身所需要的能力也一定會發(fā)展巨大的變化。未來哪些能力將變得重要,而哪些能力將變得無足輕重,哪些能力始終會是人類的標志性能力,而哪些能力又是能被機器人所替代的,這便是人類討論人之為人需要厘清之關(guān)鍵。
我們綜合了以上諸理論,通過大樣本調(diào)查和多個實驗去探究在未來社會的人心維度變化問題,結(jié)合之前所有人性理論的維度和特征來考察,我們發(fā)現(xiàn)了一些初步結(jié)論。譬如,我們發(fā)現(xiàn)這樣一些能力,民眾判斷其在未來社會將變得更加重要:創(chuàng)造力、思考的能力、自我控制的能力、有思維的能力、有學(xué)習的能力、思想有深度、有想象力、進行自我克制的能力、有人格、有自由意志、道德的能力、有自我約束的能力、有靈活思維的能力、有意識、堅持道德價值觀的能力、能覺知到自我、有控制情緒的能力、有信念、分辨對錯的能力、邏輯思考的能力、有求知欲、有主動行為的能力、體驗快樂的能力、感覺愛的能力、有文化、溝通的能力、審美的能力、有自省的能力、朝向目標努力的能力、反對不道德行為的能力、贊揚道德行為的能力等。我們也發(fā)現(xiàn),這樣一些能力在未來被民眾判斷為并不重要:感受饑餓的能力、進行計算的能力、有尊卑觀念、體驗疼痛的能力、感受勞累的能力、感受惡心的能力、體驗恐懼的能力、感受尷尬的能力、聞到氣味的能力、體驗恐懼的能力、感到生氣的能力、遵從指導(dǎo)學(xué)習的能力、感覺溫度的能力、感到抑郁的能力、感受憤怒的能力、聽到聲音的能力、感受到不尊重的能力、記住東西的能力、記憶的能力、看到東西的能力、再認他人的能力、感受壓力的能力、體驗愧疚的能力等。稍加歸納,便可以發(fā)現(xiàn),在未來更加重要的能力是道德、理性、審美、自我意識、自我控制等;在未來變得更加不重要的能力是一般認知能力、身體能力、消極情感等。很容易理解道德、理性、審美、自控等高級加工能力在日后會變得重要,也很容易理解一般認知能力因為人工智能本身就要強于我們,所以其變得并不重要,而人類情感變得并不重要了,這個較為反直覺,但要注意的是,這里的情緒均為消極情緒,消極情緒在進化上是讓人活下來的情緒,而積極情緒才是之后讓人活得更好的情緒。
如果換成維度觀來看,我們則發(fā)現(xiàn),當面臨人工智能威脅時,人類會覺得體驗稍稍變得重要了一些,但是能動大幅變得不那么重要。身體、情感維度都沒有太大變化,但是心智維度的重要性大幅度降低。這是個非常有意思的現(xiàn)象,人類面對未來的人工智能如何看待自己的人心維度,普遍意義上來說,將某些維度看得重要是較為合理的,但是結(jié)果卻是,對比起什么維度重要,我們更加關(guān)心自己人性的哪些方面不重要,而不重要的就是人工智能本身就強于我們的那些維度,比如心智維度、能動維度。這有些類似阿Q,我們以把別人比我們強的部分看得不重要來抵御內(nèi)心里的威脅,而很少去知覺要提升我們比別人強的部分。當然,如果不只看粗略的維度,而看細致的特征,我們就會發(fā)現(xiàn),那些讓人活(survive)的能力變得并不重要了,如一般認知能力、身體能力、消極情緒等;而那些讓人活得更好的能力則變得更加重要了,如道德、理性、審美等。
參考文獻
許麗穎、喻豐、鄔家驊、韓婷婷、趙靚,2017,《擬人化:從“它”到“他”》,《心理科學(xué)進展》,第25卷11期,第 1942~1954頁。
喻豐、許麗穎,2018,《如何做出道德的人工智能體?》,《心理學(xué)的視角》,《全球傳媒學(xué)刊》,第5卷第4期,第24~42頁。
Goodwin, G. P.; Piazza, J. & Rozin, P., 2014, "Moral character predominates in person perception and evaluation", Journal of personality and social psychology, 106(1), pp. 148-168.
Fiske, S. T.; Cuddy, A. J. & Glick, P., 2007, "Universal dimensions of social cognition: Warmth and competence", Trends in Cognitive Sciences, 11, pp. 77–83.
Haslam, N., 2006, "Dehumanization: An integrative review", Personality and Social Psychology Review, 10, pp. 252-264.
Janoff-Bulman, R., 2013, "Meaning and morality: A natural coupling", in K. D. Markman; T. Proulx & M. J. Lindberg, (eds), The psychology of meaning, Washington, D. C.: American Psychological Association, pp. 191-213.
Keltner, D., 2009, Born to be good: The science of a meaningful life, W. W. Norton & Company.
Knobe, J., 2010, "Person as scientist, person as moralist", Behavioral and Brain Sciences, 33, pp. 315-329.
Leyens, J. P.; Paladino, P. M.; Rodriguez-Torres, R.; Vaes, J.; Demoulin, S.; Rodriguez-Perez, A. & Gaunt, R., 2000, "The emotional side of prejudice: The attribution of secondary emotions to ingroups and outgroups", Personality and Social Psychology Review, 4(2), pp. 186-197.
Malle, B. F., 2019, "How many dimensions of mind perception really are there?", in A. K. Goel; C. M. Seifert & C. Freksa, (eds), Proceedings of the 41st Annual Meeting of the Cognitive Science Society, Montreal, QB: Cognitive Science Society, pp. 2268-2274.
Schein, C. & Gray, K., 2018, "The theory of dyadic morality: Reinventing moral judgment by redefining harm", Personality and Social Psychology Review, 22(1), pp. 32-70.
Strohminger, N. & Nichols, S., 2014, "The essential moral self", Cognition, 131, pp. 159-171.
Todorov, A.; Pakrashi, M. & Oosterhof, N. N., 2009, "Evaluating faces on trustworthiness after minimal time exposure", Social Cognition, 27, pp. 813–833.
Weisman, K.; Dweck, C. S. & Markman, E. M., 2017, "Rethinking people's conceptions of mental life", Proceedings of the National Academy of Sciences, 114(43), pp. 11374-11379.
Xue, Y.; Li, Q.; Wu, T.; Feng, L.; Zhao, L. & Yu, F., 2019, "Incorporating stress status in suicide detection through microblog", Computer System Science and Engineering, 34(2), pp. 65-78.
Zhang, Y. & Yu, F., 2018, "Which socio-economic indicators influence collective morality? Big Data analysis on online Chinese social media", Emerging Markets Finance and Trade, 54(4), pp. 792-800.
Zhao, Y.; Yu, F.; Jing, B.; Hu, X.; Luo, A. & Peng, K., 2019, "An analysis of well-being determinants at the city level in China Using Big Data", Social Indicator Research, 143(3), pp. 973-994.
責 編/周于琬
On AI and Human Beings
Yu Feng
Abstract: In the era of AI, people and machine become more and more integrated, so it is important to read people's mind. In fact, AI provides a new opportunity for human beings to look at themselves. It is always the most important philosophical and practical issue to understand human beings themselves. From the psychological perspective, a person can inherit a variety of theoretical points of view, e.g., people have advanced emotions such as embarrassment and awe, or people have initiative and are able to experience, or people can show an image of capability and warmth. The definition of humans by AI is relatively simple, that is, if it can pass the Turing test. With the rapid development of the intelligent age, the number of AI agents passing Turing test in the near future will increase greatly. Therefore, in the era of intelligence, which one may become the most important criterion for identifying a human being, ability, attribute or value? And what kind of efforts should be made by the AI agents on these three aspects? How will human beings look at their defining characteristics due to their interaction with the AI agents or the formation of a new society? These are the issues this article intends to explore.
Keywords: AI, mental perception, mind reading, initiative, experience
喻豐,武漢大學(xué)哲學(xué)學(xué)院心理學(xué)系教授、博導(dǎo),中國心理學(xué)會積極心理學(xué)專委會(籌)主任、中國社會心理學(xué)會理事。研究方向為道德心理學(xué)、人工智能的社會心理。主要著作有《美德心理學(xué)》等。