久久天天躁综合夜夜黑人鲁色,超91在线,久久夜视频,91av免费在线观看,在线视频二区,亚洲欧美日韩专区一,在线播放国产一区二区三区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

人工智能時代教育系統(tǒng)應(yīng)著力培養(yǎng)三種核心能力

【摘要】大型語言模型等人工智能的迅猛發(fā)展對當(dāng)前的教育體系提出了挑戰(zhàn)。從認(rèn)知科學(xué)、腦科學(xué)、機(jī)器學(xué)習(xí)、行為經(jīng)濟(jì)學(xué)和科學(xué)史的跨學(xué)科視角來看,在強(qiáng)大的智能技術(shù)面前,教育體系需要培養(yǎng)學(xué)生三種核心能力以確保人類的競爭力,即人工智能素養(yǎng)、處理異常的能力、理解人類行為的能力。相較于人工智能,人類有很多獨有的優(yōu)勢,如處理異常和偏離常規(guī)的數(shù)據(jù),而更重要的是,在涉及法律、道德等問題上,人類還需要規(guī)制智能技術(shù)的使用界限,這些都要求人類對人工智能的底層邏輯和人類的思維與行為加深理解。人工智能是服務(wù)于人類需求的工具,人類需要更好地熟悉和使用它。

【關(guān)鍵詞】教育系統(tǒng) 人工智能素養(yǎng) 人類行為 處理異常

【中圖分類號】G434/TP18 【文獻(xiàn)標(biāo)識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2023.18.005

【作者簡介】Stella Christie(蔣黛蘭),清華大學(xué)腦與智能實驗室首席研究員、社會科學(xué)學(xué)院教授、THBI兒童認(rèn)知研究中心創(chuàng)始人。研究方向為類比推理的形成與發(fā)展、認(rèn)知科學(xué)。主要著作有《Structure Mapping for Social Learning》(論文)、《Why Play Equals Learning: Comparison as a Learning Mechanism in Play》(論文)、《Learning Sameness: Object and Relational Similarity Across Species》(論文)等。

引言

人工智能快速發(fā)展,其程序和應(yīng)用執(zhí)行任務(wù)的能力持續(xù)增強(qiáng),并在一定程度上呈現(xiàn)追平甚至超越人類的表現(xiàn)。更值得關(guān)注的是,人工智能系統(tǒng)能夠在短時間內(nèi)通過自主學(xué)習(xí)加速自身的迭代。例如,AlphaGo在2016年擊敗了圍棋世界冠軍李世石,這在當(dāng)時被認(rèn)為是人工智能發(fā)展的里程碑式的成就,而就在短短幾年后,人類無法與人工智能在圍棋和國際象棋等策略游戲中競爭已經(jīng)成為常態(tài)。這引發(fā)人們進(jìn)一步思考:人工智能時代,人類應(yīng)該如何學(xué)習(xí)?

分析人工智能對教育系統(tǒng)的影響至關(guān)重要。從個體層面來看,這決定著學(xué)生未來進(jìn)入勞動力市場時的競爭力;從國家層面來看,這對中國未來的經(jīng)濟(jì)發(fā)展和技術(shù)創(chuàng)新至關(guān)重要??偟膩碚f,本文的分析基于三個判斷:其一,未來十年甚至更長時間內(nèi),人工智能將是影響全球經(jīng)濟(jì)發(fā)展水平和社會關(guān)系的最具變革性的要素;其二,人工智能發(fā)展非常迅速,教育系統(tǒng)的設(shè)計不應(yīng)僅基于當(dāng)前的人工智能生態(tài)系統(tǒng),而應(yīng)前瞻性地基于十年或十五年后的人工智能環(huán)境進(jìn)行考量和設(shè)計;其三,現(xiàn)階段,學(xué)生應(yīng)該注重學(xué)習(xí)人工智能當(dāng)前尚未掌握并且在未來二十年內(nèi)也無法掌握的技能。

前瞻性地針對未來人工智能環(huán)境設(shè)計教育系統(tǒng),本身就是一個很復(fù)雜的問題。長期以來,人們關(guān)于人工智能到底掌握了哪些技能的辯論并沒有明確的答案,更不用說學(xué)生應(yīng)該學(xué)習(xí)什么技能。一方面,除了在大型語言模型方面的顯見成就,人工智能的發(fā)展也遭遇了一些挫折。一些表面的問題是容易修復(fù)的,如與ChatGPT 3對話時,機(jī)器聲稱47大于64(Marcus, 2023),而另一些根源于人工智能底層數(shù)據(jù)集的問題則很難在短時間內(nèi)得到解決,如由于數(shù)據(jù)集的偏見導(dǎo)致人工智能生成有偏見的推薦(Obermeyer et al., 2019; Mehrabi et al., 2021)。另一方面,當(dāng)前人工智能發(fā)展存在嚴(yán)重的局限性,主要體現(xiàn)在人工智能無法將知識遷移到新的環(huán)境(Forbus, 2021),而且也無法靈活地適應(yīng)新的環(huán)境(Marcus and Davis, 2019)。這一問題無法通過單純增大數(shù)據(jù)量來改進(jìn)解決。上述人工智能發(fā)展的局限對于如何設(shè)計教育系統(tǒng)具有重要參考意義。此外,這些局限的程度也在動態(tài)變化,理想狀態(tài)下的教育系統(tǒng)應(yīng)當(dāng)能夠預(yù)見十年或更長時間范圍內(nèi)的新變化。

本文認(rèn)為,在人工智能時代,學(xué)生在教育系統(tǒng)中應(yīng)該獲得三種與人工智能相關(guān)的核心能力,即人工智能素養(yǎng)、處理異常的能力和理解人類行為的能力。下文將分別分析這些核心能力的關(guān)聯(lián),論述其重要性,詳細(xì)闡釋人工智能時代這三種能力是如何發(fā)揮作用的。

人工智能素養(yǎng)

人工智能素養(yǎng)意味著學(xué)生需要了解什么是人工智能,特別是需要理解人工智能的局限和優(yōu)勢,只有這樣,學(xué)生才能有效并負(fù)責(zé)任地運用人工智能。當(dāng)下存在著一種思維誤區(qū),一部分人認(rèn)為人工智能素養(yǎng)就是熟練掌握人工智能及其接口的使用方式。例如,許多人主張為年幼的兒童開設(shè)如何與人工智能互動的課程(以下簡稱AI使用課程)。出于多種原因,AI使用課程并不能正確或有效地構(gòu)建人工智能素養(yǎng)。

首先,兒童通常會自發(fā)地學(xué)習(xí)如何使用基于人工智能的技術(shù),就像他們會本能地探知周遭事物一樣,無需專門的課程。研究表明,兒童將人工智能視為一種社會個體,與其他人類沒有太大的區(qū)別,即,他們認(rèn)為人工智能是友好且可以互動的(Druga et al., 2017; Tanaka et al., 2007)。從這個角度看,開設(shè)AI使用課程是沒有必要的。其次,AI使用課程可能增加兒童在日常問題解決中對人工智能的依賴,這對他們的整體表現(xiàn)、認(rèn)知與文化能力培育將產(chǎn)生不良影響。一個易于理解的實證案例是,當(dāng)學(xué)生做筆記時,手寫筆記往往比在計算機(jī)上輸入的筆記質(zhì)量更高(Mueller and Oppenheimer, 2014)。流行的AI使用課程可能會產(chǎn)生一些影響,例如,過度依賴人工智能工具,并以此替換了實際效果更好的傳統(tǒng)技能。這樣的課程還有可能在高科技的掩飾下,給人一種學(xué)生在進(jìn)行復(fù)雜學(xué)習(xí)的假象。從這個意義上說,AI使用課程可能會得到與學(xué)習(xí)的初衷相反的結(jié)果。最后,AI使用課程產(chǎn)生的優(yōu)勢都是有時效的,當(dāng)學(xué)生真正進(jìn)入勞動力市場使用人工智能技術(shù)時,課程中的技術(shù)就已經(jīng)過時了。

對人工智能素養(yǎng)的正確理解在于知悉人工智能技術(shù)的原理和局限。具體來說,一個具備人工智能素養(yǎng)的學(xué)生應(yīng)該能夠:(1)評估哪些問題可以完全由人工智能解決,哪些需要人類介入解決;(2)闡述為什么人工智能可以或不可以用于某些類型問題的解決,及其深層次原因;(3)制定解決問題的綜合性措施和策略,并且對人工智能和人類的局限和優(yōu)勢進(jìn)行統(tǒng)籌考慮。

能力(1)實質(zhì)是指學(xué)生必須知道并應(yīng)用相關(guān)原則作出這種決定。判斷一個問題可能不適合人工智能解決的關(guān)鍵因素包括:問題是非常規(guī)的、數(shù)據(jù)有限或數(shù)據(jù)質(zhì)量差、數(shù)據(jù)中存在偏見,以及開創(chuàng)性的工作,如顛覆性科學(xué)發(fā)現(xiàn)等。

能力(2)要求學(xué)生必須知道人工智能模型的工作原理是識別和使用大數(shù)據(jù)中的統(tǒng)計規(guī)律。如果問題是非常規(guī)的(其解決方案不是可以通過大數(shù)據(jù)模型來統(tǒng)計歸納的),或者可用的數(shù)據(jù)質(zhì)量差、有限或存在偏見,那么這種統(tǒng)計歸納就不能成功。顛覆性的發(fā)現(xiàn)總是“反統(tǒng)計”的,與普遍觀點相異,受少數(shù)例外情況所啟發(fā)。例如,如果讓只知道傳統(tǒng)導(dǎo)體和絕緣體的工程師來收集數(shù)據(jù),從該數(shù)據(jù)庫歸納發(fā)現(xiàn)半導(dǎo)體是難以實現(xiàn)的?;谶@些原則,具備人工智能素養(yǎng)的學(xué)生應(yīng)該能夠判別并證明為什么給定的問題適合或不適合人工智能解決。

能力(3)需要進(jìn)一步解釋??梢灶A(yù)見,在人工智能愈加普遍的未來,受過良好教育的畢業(yè)生的大部分專業(yè)工作將專注于人工智能無法解決的問題,但這并不意味著在解決這些問題時不需要人工智能。問題的完全解決通常需要人類使用人工智能作為支持,包括記錄整理、秘書任務(wù)、提供百科全書式的知識和數(shù)據(jù)庫檢索等。在這種情況下,學(xué)生可以獲得的最寶貴的技能是通過結(jié)合人類和人工智能各自的優(yōu)勢來解決問題。一般來說,人類在開放性問題的解決上表現(xiàn)更優(yōu)秀,而人工智能在精確和狹義問題的解決上具有優(yōu)勢。因此,通過結(jié)合二者各自優(yōu)勢來解決問題的能力意味著將問題分解為較小的組件,這些組件要么是開放的(需要人類),要么是封閉的(人工智能自動化的)。

舉例來說,讓學(xué)生通過看照片確定照片拍攝的地點,規(guī)則是他可以向人工智能系統(tǒng)詢問關(guān)于照片的各種問題,但不允許直接將照片上傳。這是一項開放的任務(wù),因為選擇詢問的問題沒有固定的模版或規(guī)律,學(xué)生如何選擇反映了人類的優(yōu)勢。這時,學(xué)生應(yīng)該利用的人工智能優(yōu)勢是其提供關(guān)于世界的必要事實知識,因為這些知識對學(xué)生來說可能是陌生的。照片顯示了一個港口、有一艘游輪、一個可辨認(rèn)的街道標(biāo)志,地上有雪、遠(yuǎn)處的背景是山。學(xué)生問:“這個標(biāo)志是用什么語言寫的?”答案是阿根廷的西班牙文。學(xué)生再問:“阿根廷的海洋港口有哪些?”“在這些城市中,哪些城市在冬天會下雪?”得到的答案是烏斯懷亞。最后,學(xué)生可以問一個驗證的問題:“烏斯懷亞周圍有山嗎?”學(xué)生根據(jù)人工智能給出的答案最終確定拍攝地點。人工智能時代,一個理想的教育系統(tǒng)應(yīng)該培養(yǎng)學(xué)生解決此類問題的能力。

人工智能素養(yǎng)的一個關(guān)鍵內(nèi)容是能夠準(zhǔn)確解讀并批判性地評估人工智能生成的推薦。從這個角度說,人工智能素養(yǎng)的培養(yǎng)對象應(yīng)更為廣泛,因為科技公司在包括金融、醫(yī)療和教育等多個領(lǐng)域向客戶提供人工智能生成的建議,這些推薦建議幾乎涉及社會的所有層面。由此,教育系統(tǒng)必須現(xiàn)在就開始讓學(xué)生為此做好準(zhǔn)備,培養(yǎng)他們成為明智而自信的人工智能平臺用戶。這對于政府和社會各領(lǐng)域管理者來說尤為重要。

從交通路線設(shè)計到醫(yī)療方案制定,許多領(lǐng)域已經(jīng)開始使用人工智能系統(tǒng)提供關(guān)于政策制定和發(fā)展規(guī)劃的建議。例如,醫(yī)療設(shè)備供應(yīng)商和保險公司越來越常用智能算法進(jìn)行風(fēng)險評估:識別具有較大可能性需要昂貴治療的患者,或者估算保險套餐和健康福利產(chǎn)品的成本等。鑒于醫(yī)療和健康數(shù)據(jù)的復(fù)雜性,相比純粹的人類判斷,智能算法確實可以提高評估的準(zhǔn)確性。然而,一項研究顯示,這種智能算法會出錯并表現(xiàn)出系統(tǒng)性偏見(Obermeyer et al., 2019)。這說明人工智能生成的推薦不應(yīng)被視為最終決定,而只應(yīng)作為輔助人類決策的依據(jù)之一,人類應(yīng)當(dāng)依靠自身作出有影響力和敏感度的決定。教育系統(tǒng)必須培養(yǎng)未來的決策者如何正確解讀人工智能生成的推薦,如何為了社會利益更好地使用它們。

事實上,人們必須通過培訓(xùn)才能達(dá)到分析人工智能生成的推薦的能力。上述關(guān)于人工智能會生成包含偏見的醫(yī)療推薦的研究,使用的是來自美國一家醫(yī)院的大數(shù)據(jù)集。結(jié)果顯示,算法預(yù)測相同風(fēng)險水平的病例中,黑人患者實際上比白人患者的病情更嚴(yán)重。這樣的智能算法在配置病人的治療方案時,黑人患者只有比白人患者病情更嚴(yán)重才能得到與后者同樣的治療方案。種族信息不是智能算法數(shù)據(jù)庫的內(nèi)容,因此偏見的來源并非直接出自數(shù)據(jù)本身,而是由歷史數(shù)據(jù)中的醫(yī)療費用引起的。由于美國社會存在一些經(jīng)濟(jì)和社會因素,導(dǎo)致黑人患者不能像白人患者那樣具備經(jīng)常看病的醫(yī)療條件,所以算法將黑人標(biāo)定為需要較少醫(yī)療服務(wù)的群體。這項研究說明了正確解讀人工智能生成的建議事實上有多么復(fù)雜。

由此,教育系統(tǒng)必須培養(yǎng)學(xué)生以下能力:準(zhǔn)確指明人工智能可能協(xié)助解決的問題;理解底層數(shù)據(jù)和人工智能生成建議的局限性;識別系統(tǒng)性偏見和造成事實扭曲的因素;權(quán)衡人工智能推薦的成本和收益,評估其他外部因素和人工智能無法計算的因素,以便最大程度地造福社會。

處理異常的能力

在使學(xué)生獲得人工智能素養(yǎng)(即理解人工智能系統(tǒng)的統(tǒng)計基礎(chǔ),以及靈活使用人工智能系統(tǒng)的能力)的基礎(chǔ)上,教育系統(tǒng)的下一個目標(biāo)是教授其人類獨有的處理異常的能力。在可預(yù)見的未來,人工智能模型在這方面的表現(xiàn)不會有明顯的突破。學(xué)生需要認(rèn)識到在解決問題時具備處理異常情況能力的重要性和挑戰(zhàn),并意識到分析和利用異常的能力是人類獨有的優(yōu)勢。教育系統(tǒng)需要實現(xiàn)的目標(biāo)是,使學(xué)生有能力和信心在解決問題過程中處理好異常情況。

前文已經(jīng)提及,對異常情況和離群數(shù)據(jù)的分析在科技創(chuàng)新中發(fā)揮著重要作用。在解決問題和創(chuàng)新的過程中,進(jìn)步和發(fā)現(xiàn)的機(jī)會通常蘊(yùn)藏在最離群的數(shù)據(jù)中,即統(tǒng)計工具無法覆蓋的區(qū)域。這也是我們不能依賴人工智能系統(tǒng)來引領(lǐng)科學(xué)和技術(shù)創(chuàng)新的部分原因,從很大程度上說,科技創(chuàng)新只能由人來完成。

許多科學(xué)突破都能夠歸因于對異常的關(guān)注和好奇心。舉例來說,達(dá)爾文進(jìn)化論的提出主要是受雀鳥喙部變異情況所啟發(fā),而雀鳥生活在偏遠(yuǎn)的加拉帕戈斯群島。一個偏遠(yuǎn)群島上的奇特鳥類以及關(guān)于它們的有限數(shù)據(jù)事實上就是我們所稱的離群數(shù)據(jù),同時,由于雀鳥具備許多與“典型”鳥類不同的特征,這也意味著雀鳥的情況屬于異常范疇。在當(dāng)前人工智能系統(tǒng)的邏輯下,關(guān)注到諸如雀鳥喙部變異的情況幾乎是不可能的。相較于此,達(dá)爾文正是通過關(guān)注異常特征,認(rèn)真分析來自偏遠(yuǎn)島嶼的一種鳥類的數(shù)據(jù),才實現(xiàn)了改變世界的科學(xué)突破。這種突破對于目前存在的以統(tǒng)計為驅(qū)動的人工智能模型來說是不可能的。

上述例子說明了兩種相關(guān)的能力,這兩種能力在可預(yù)見的未來將始終為人類所獨有,同時應(yīng)該在現(xiàn)代教育系統(tǒng)中得到進(jìn)一步鼓勵和培養(yǎng)。一個是好奇心,即不由外部獎勵驅(qū)動,而是自主產(chǎn)生對現(xiàn)象、事實、模式的興趣(Loewenstein, 1994; Kidd and Hayden, 2015);另一個是提出“為什么”的驅(qū)動力,例如,達(dá)爾文不僅僅是觀察并描述雀鳥的喙,而是不斷詢問這些觀察背后的內(nèi)在原因。這兩種能力與一個人處理異常的能力密切相關(guān)。只有一個好奇的人才會更好地關(guān)注到異常數(shù)據(jù),只有一個敢于提出“為什么”的人才會分析異常并得到收獲。

可以預(yù)見,人類的好奇心與敢于提出“為什么”的能力將在很長時間內(nèi)持續(xù)領(lǐng)先于人工智能系統(tǒng),所以這些能力的培養(yǎng)應(yīng)當(dāng)成為教育系統(tǒng)的重點目標(biāo)。然而,當(dāng)前的教育系統(tǒng)并沒有集中培養(yǎng)這些能力。學(xué)校教育系統(tǒng)的諸多努力都是為了培育學(xué)生掌握事實知識,而這些知識其實可以很容易地由人工智能系統(tǒng)提供。教育系統(tǒng)更應(yīng)優(yōu)先培養(yǎng)的是將教育重點從掌握事實知識轉(zhuǎn)向提出好問題和正確分析實證的能力,例如異常和離群數(shù)據(jù)這樣的實證。

愿意并能夠分析異常不僅在科技創(chuàng)新中極具重要性,在實際工作生活中也能夠發(fā)揮很大作用。以協(xié)助進(jìn)行醫(yī)療診斷為例,由于大多數(shù)患者和疾病都符合統(tǒng)計分析的規(guī)律性模式,因此,在很多地方,人工智能系統(tǒng)已經(jīng)被用于輔助醫(yī)療診斷。這并不令人驚訝,因為在醫(yī)療診斷方面,可用的數(shù)據(jù)量大,且數(shù)據(jù)的規(guī)律較為明顯。但值得注意的是,人工智能模型無法診斷出患有罕見基礎(chǔ)疾病的患者。如果一種病癥是罕見的,那么可用的數(shù)據(jù)集并不足以讓人工智能模型作出正確的、統(tǒng)計上有根據(jù)的推薦療法。更為重要的是,使用一個以統(tǒng)計為驅(qū)動的人工智能模型來診斷罕見病患者是十分危險的,因為統(tǒng)計上對常見病有益的推薦療法可能恰恰是對罕見病患者有害的診斷。例如,進(jìn)行性肌肉骨化癥(FOP)會導(dǎo)致患者身體的肌肉以及結(jié)締組織逐漸骨化并累及全身,這一疾病的預(yù)估發(fā)病率為1/200萬。如果用人工智能模型協(xié)助診斷,那么幾乎一定會誤診此病的患者,并推薦有害的治療方案(對FOP患者的手術(shù)干預(yù)會加速骨骼的異常生長)。這一案例說明,對異常的關(guān)注應(yīng)當(dāng)成為各類職業(yè)的基礎(chǔ)素養(yǎng)的必要內(nèi)容。

在人工智能時代,大部分的人類智慧活動將集中在處理異常上。如果教育系統(tǒng)不重視對細(xì)節(jié)和異常的關(guān)注,將無法幫助現(xiàn)在的學(xué)生在未來環(huán)境中做好準(zhǔn)備和取得成功。當(dāng)前教育系統(tǒng)更偏重教育學(xué)生對典型案例進(jìn)行理解,而不強(qiáng)調(diào)對異常的關(guān)注,這體現(xiàn)為當(dāng)前學(xué)校教育中常見的重復(fù)訓(xùn)練的教學(xué)方法,如根據(jù)做題的速度評估能力等。應(yīng)當(dāng)優(yōu)化現(xiàn)有教育系統(tǒng),注重培育并引導(dǎo)學(xué)生關(guān)注并分析異常。

理解人類行為的能力

人工智能對未來勞動力市場和技術(shù)環(huán)境的影響仍是不確定的。已經(jīng)發(fā)生的變化與所謂的“弱AI”相關(guān),例如,文書類任務(wù)的自動化、自動售票、配送和支付、面部識別、交通執(zhí)法,等等。而未來,人工智能將執(zhí)行更為復(fù)雜的任務(wù),如廣泛使用自動駕駛車輛。

勞動力和技術(shù)環(huán)境的轉(zhuǎn)型在人工智能發(fā)展到接近所謂的“強(qiáng)AI”閾值時,將會更具顛覆性。“強(qiáng)AI”是指具備自主選擇能力并能夠解決新問題的人工智能。在這一發(fā)展過程中重要的里程碑是實現(xiàn)與人類相近的交互,并且能夠做到無法與真正的人類相區(qū)分,這個閾值被稱為圖靈測試(Turing, 1950)。“現(xiàn)有的大型語言模型是否已接近強(qiáng)AI的閾值”是一個有爭議的問題。無論如何,朝著強(qiáng)AI不斷靠近的發(fā)展趨勢將使得未來人工智能可能影響更大比例的受過更高教育的人口,包括藝術(shù)家、工程師、醫(yī)生和計算機(jī)程序員等。

在討論如何優(yōu)化面向人工智能時代的教育系統(tǒng)時,不僅要考慮已經(jīng)由弱AI引發(fā)的變化,還要預(yù)判即將由強(qiáng)AI或類強(qiáng)AI引發(fā)的變化。要做到這一點,需要研究歷史上那些首次引入顛覆性技術(shù)的領(lǐng)域發(fā)生了什么,可以深入研究的案例包括印刷機(jī)、蒸汽機(jī)或洗衣機(jī)等。新技術(shù)對勞動力市場的影響主要包括三個方面:一是某些工作被淘汰或被自動化替代;二是創(chuàng)造出新的工作;三是由于新工作的誕生在時間上滯后于舊工作的消失,將會存在持續(xù)一段時間的失業(yè)現(xiàn)象。

人工智能時代,推動教育系統(tǒng)轉(zhuǎn)型應(yīng)從上述三個方面著手。針對舊工作消失,教育系統(tǒng)應(yīng)該預(yù)先降低學(xué)生選擇即將消失的職業(yè)的比重;針對創(chuàng)造新工作,教育系統(tǒng)應(yīng)培養(yǎng)在新工作中最有用的技能;針對預(yù)期的暫時性失業(yè),我們應(yīng)該在人工智能變革效應(yīng)發(fā)揮之前做好前瞻性規(guī)劃。

考慮到這些因素,當(dāng)前亟需回答的關(guān)鍵問題是:在新工作中,哪些技能將是最有用的?雖然這些新工作現(xiàn)在還不存在,但隨著人工智能的逐步發(fā)展將會被創(chuàng)造出來。對于這個問題,先前的技術(shù)變革也是一個很好的借鑒參考。當(dāng)手抄工因印刷機(jī)而失業(yè),當(dāng)馬車夫因火車而失業(yè),當(dāng)家庭主婦因洗衣機(jī)的引入而有了更多空閑時間時,隨之而出現(xiàn)的是什么工作或活動呢?當(dāng)然,首先一些新工作是由新設(shè)備的操作者承擔(dān)的——如印刷工、火車司機(jī)和洗衣店員工。在當(dāng)前的背景下進(jìn)行類比,則這些工作在某種程度上類似于人工智能開發(fā)者的角色。然而,這樣的工作只占新工作的一小部分。這表明,對即將到來的人工智能變革的最佳應(yīng)對方式并不是增加人工智能開發(fā)或計算機(jī)編程課程的比例,因為只有一小部分新工作會要求熟練掌握人工智能模型技術(shù)。那么,哪些新的技能和工作將占據(jù)未來勞動力市場上的競爭優(yōu)勢呢?

答案是,依賴人與人互動的工作。有幾個原因能夠支持這個預(yù)判。首先,這是在歷史上技術(shù)變革中多次發(fā)生的現(xiàn)象,我們沒有理由懷疑人工智能技術(shù)變革在這方面會有所不同。新技術(shù)出現(xiàn)時將產(chǎn)生各類問題,在社會層面上去解決這些問題需要創(chuàng)建新的工作,而這些工作的關(guān)鍵內(nèi)容就是人與人的互動。其次,相較于人類員工,人工智能模型并不擅長與人類客戶進(jìn)行互動。最后,由于某些倫理和政治因素,人類員工在這些領(lǐng)域是無法被替代的?;谶@些原因,在人工智能時代,理解人類行為應(yīng)成為教育的重要內(nèi)容和核心目標(biāo)。下文將詳細(xì)闡述人際互動和人類參與將如何改變勞動力市場。

內(nèi)容創(chuàng)作。隨著人工智能技術(shù)的廣泛應(yīng)用,許多新的工作將涉及人工智能輔助的內(nèi)容創(chuàng)作。當(dāng)前,數(shù)字經(jīng)濟(jì)已經(jīng)創(chuàng)造了大量新的創(chuàng)意工作,而在十年前根本難以想象這些工作。人工智能技術(shù)新的發(fā)展將使復(fù)雜內(nèi)容創(chuàng)作變得更加容易,這一趨勢將在未來幾年加速凸顯。一方面,人工智能輔助的內(nèi)容創(chuàng)作的受眾仍是人類用戶,因此如何理解人類行為對此類工作至關(guān)重要;另一方面,人工智能輔助的內(nèi)容創(chuàng)作工作不要求掌握太多的人工智能技術(shù)知識,更進(jìn)一步說,并不會比當(dāng)前計算機(jī)輔助工作所要求的計算機(jī)知識更多。因此,這些工作實際上要求教育系統(tǒng)進(jìn)一步提高對人文、藝術(shù)和創(chuàng)造性工作的關(guān)注度。

用戶體驗。目前,基于人工智能的創(chuàng)新產(chǎn)品主要應(yīng)用于服務(wù)領(lǐng)域,包括無人配送、智能客服、網(wǎng)上銀行、聊天機(jī)器人等。這些產(chǎn)品的服務(wù)對象依舊是人,評價產(chǎn)品質(zhì)量的最重要指標(biāo)是用戶滿意度,這意味著成功的產(chǎn)品開發(fā)將需要大量的用戶體驗測試員和評估員。更進(jìn)一步說,產(chǎn)品開發(fā)者必須在人類行為、感知和認(rèn)知方面進(jìn)行學(xué)習(xí),以避免過多試錯、更快地滿足用戶需求。在以人工智能為核心驅(qū)動力的智能經(jīng)濟(jì)背景下,卓越產(chǎn)品的大部分競爭優(yōu)勢將來自卓越的用戶體驗,而不是產(chǎn)品的技術(shù)規(guī)格。理想的教育系統(tǒng)應(yīng)當(dāng)可以使未來的勞動者在用戶體驗領(lǐng)域為競爭更好地作出準(zhǔn)備。

首先,從高中階段開始,將人類行為、感知和認(rèn)知的元素引入通用課程。在以人工智能為核心驅(qū)動力的智能經(jīng)濟(jì)下,對這些技能的需求幾乎是普遍存在的,因此有必要向廣大學(xué)生群體教授這些技能,而不僅局限于大學(xué)階段選擇相關(guān)專業(yè)的少數(shù)人。當(dāng)前,中國部分大學(xué)教授人機(jī)交互(HCI)課程,這是朝著正確的方向邁出的重要一步,然而這些課程體系還需持續(xù)優(yōu)化并在更大范圍內(nèi)加以普及。同時,我們還需要在高中階段引入這一領(lǐng)域的基礎(chǔ)元素。

其次,強(qiáng)調(diào)使用定量工具研究用戶體驗的必要性。在作為認(rèn)知科學(xué)教授的工作經(jīng)歷中,筆者發(fā)現(xiàn)許多涉及用戶體驗領(lǐng)域的專業(yè)人士缺少適當(dāng)?shù)亩抗ぞ邅碚_評估用戶的滿意度或偏好。對此,應(yīng)將相關(guān)定量方法的研究引入大學(xué)課程體系,特別是計算機(jī)科學(xué)相關(guān)專業(yè)。長遠(yuǎn)來看,將認(rèn)知科學(xué)和心理學(xué)的教學(xué)從社會科學(xué)學(xué)院轉(zhuǎn)移到自然科學(xué)學(xué)院將是大有裨益的。這將鼓勵自然科學(xué)的學(xué)生選修心理學(xué)和認(rèn)知科學(xué)課程,并為其設(shè)定一個預(yù)期:這些領(lǐng)域的研究和教學(xué)必須遵循假設(shè)檢驗、通過可復(fù)現(xiàn)的實驗進(jìn)行驗證并采用定量分析的科學(xué)范式。

這些變化將使當(dāng)前的學(xué)生做好準(zhǔn)備,成為更有效的、具有競爭力的和靈活的人工智能產(chǎn)品設(shè)計者。這種準(zhǔn)備對于他們在未來勞動力市場上的個人競爭力提升來說至關(guān)重要。在國家層面,這樣的準(zhǔn)備也將有力推動各領(lǐng)域的高質(zhì)量發(fā)展,顯著提高中國的國際競爭力。

收益分配。當(dāng)機(jī)器生成的作品產(chǎn)生收入時,誰應(yīng)該獲得收益?當(dāng)機(jī)器生成的產(chǎn)品引發(fā)事故時,誰應(yīng)該在道德、經(jīng)濟(jì)乃至法律上負(fù)責(zé)?隨著人工智能技術(shù)進(jìn)一步發(fā)展,這些問題將變得更加重要,也更為微妙,因為這些問題的產(chǎn)生離不開人的參與。例如,MidJourney生成的藝術(shù)產(chǎn)品贏得藝術(shù)比賽,被用于雜志封面,我們應(yīng)該如何分配著作貢獻(xiàn)?藝術(shù)家在創(chuàng)作藝術(shù)品之前訓(xùn)練人工智能的基礎(chǔ)數(shù)據(jù)庫,并輸入描述預(yù)期效果的提示詞;人工智能不像簡單的畫筆或顏料,開發(fā)人工智能技術(shù)的團(tuán)隊也有貢獻(xiàn)。如何為人工智能生成的工作產(chǎn)品分配著作貢獻(xiàn)是一個復(fù)雜的問題,需要仔細(xì)評估道德、經(jīng)濟(jì)和法律等諸多因素。

隨著時間的推移,復(fù)雜的案例和相關(guān)政策的實施將需要企業(yè)中的專業(yè)人員以及政府相應(yīng)部門的專門人員介入,這正是人工智能技術(shù)創(chuàng)造的新工作崗位需求。這些工作要求對人工智能技術(shù)的原則有較為深入的理解,更要求能夠與利益相關(guān)者或智能產(chǎn)品創(chuàng)造者、制造者進(jìn)行有效的人際互動,教育系統(tǒng)必須為當(dāng)前的學(xué)生做好相關(guān)的準(zhǔn)備。

使用限制。技術(shù)越先進(jìn),設(shè)定其使用限制和界限的問題就越復(fù)雜。在什么情況下可以接受使用機(jī)器?類似難題已經(jīng)開始給教育者和學(xué)生造成困惑。例如,隨著像ChatGPT、Google Bard或ChatGLM這樣的大型語言模型的出現(xiàn),學(xué)生在多大程度上可以使用這些平臺來準(zhǔn)備作業(yè)?教師在備課或考試時是否可以使用ChatGPT?這些問題非常復(fù)雜,不能割離社會價值觀和規(guī)范來回答。換言之,這類問題需要由能夠成熟地評估智能技術(shù)對人類影響的人來解決。

在實踐中,未來的人工智能環(huán)境需要人工智能管理員來設(shè)定智能技術(shù)在特定領(lǐng)域的部署規(guī)則。這不僅僅是宏觀上法律系統(tǒng)的問題,微觀上許多企業(yè)和地方機(jī)構(gòu)也將需要專門人員來評估智能技術(shù)在特定問題上的使用。例如,各個學(xué)??赡苄枰约旱闹悄芗夹g(shù)管理員來設(shè)定關(guān)于學(xué)生和教師在學(xué)校層面使用智能技術(shù)的規(guī)定。因為沒有一個政策可以通用于所有學(xué)校的具體實際情況。小學(xué)和大學(xué)、職業(yè)和非職業(yè)學(xué)校、鄉(xiāng)村和城市學(xué)校,都需要根據(jù)自己的實際情況和社會地理環(huán)境調(diào)整政策。對智能技術(shù)管理員有需求的可能遠(yuǎn)不只學(xué)校,還包括商業(yè)企業(yè)、醫(yī)療機(jī)構(gòu)、政府機(jī)關(guān)等。這些專門人員需要接受人類行為和認(rèn)知方面的培訓(xùn),以便在特定任務(wù)中評估使用智能技術(shù)是否有助于機(jī)構(gòu)的整體發(fā)展目標(biāo)。

為了理解類似智能技術(shù)管理員這樣的專門人員需要解決的問題類型,我們可以先了解學(xué)生使用人工智能系統(tǒng)做作業(yè)的問題。首先,不同的學(xué)校需要有不同的政策:人工智能系統(tǒng)在作業(yè)中的最佳輔助邊界對于小學(xué)生和大學(xué)生來說是截然不同的。其次,需要細(xì)致且有針對性地調(diào)整允許使用人工智能系統(tǒng)輔助的方式。如寫論文的學(xué)生使用人工智能系統(tǒng)找到支持證據(jù)是可以被允許的,但讓人工智能系統(tǒng)進(jìn)行寫作是絕對不被允許的。最后,人工智能系統(tǒng)使用的界限不能過于僵硬,否則學(xué)生將難以形成和具備我們前文討論的“AI+人類”綜合性解決問題的能力。這個例子帶給我們?nèi)齻€方面的啟示:設(shè)定人工智能系統(tǒng)使用界限的復(fù)雜性;需要在具體的情境中切合實際,而不是設(shè)定統(tǒng)一的界限;專門人員發(fā)揮的效能取決于其對人類行為和認(rèn)知的知識掌握程度。

在前文提及的醫(yī)院使用智能技術(shù)為患者選擇治療方法的案例中,經(jīng)濟(jì)、倫理和社會因素變得更加重要。人工智能技術(shù)發(fā)展的主要推動力之一是其能夠提高決策的準(zhǔn)確性、提升經(jīng)濟(jì)效率。然而,如例所示,因遵循有誤的人工智能系統(tǒng)生成建議而產(chǎn)生的錯誤的醫(yī)療責(zé)任劃分,實則涉及到重大的倫理問題,而類似的各方面的問題本質(zhì)上都屬于人類應(yīng)當(dāng)處理的問題范疇。教育系統(tǒng)必須培養(yǎng)能夠分析和權(quán)衡人工智能技術(shù)部署的成本和效益的未來人才。

結(jié)語

人工智能的飛速發(fā)展要求教育系統(tǒng)進(jìn)行相應(yīng)的調(diào)整和變化。鑒于人工智能迭代的速度,教育系統(tǒng)的調(diào)整變化不應(yīng)僅僅是被動地回應(yīng),而應(yīng)主動預(yù)判和積極應(yīng)對智能技術(shù)的變化與社會的變革。與常見的觀點正相反,人工智能發(fā)展引發(fā)的勞動力市場變革乃至社會變革,不僅不會“威脅”或“取代”人類,反而會帶來更多對與人類相關(guān)的技能的需求,而這要求我們在人工智能時代更重視研究人類行為、感知和認(rèn)知。教育系統(tǒng)的調(diào)整應(yīng)當(dāng)注重培育學(xué)生三種與人工智能相關(guān)的核心能力,即人工智能素養(yǎng)、處理異常的能力、理解人類行為的能力,而這些調(diào)整在當(dāng)下應(yīng)盡快進(jìn)行。

參考文獻(xiàn)

S. Druga et al., 2017, “'Hey Google Is It Ok If I Eat You?': Initial Explorations in Child-Agent Interaction,“ Proceedings of the 2017 Conference on Interaction Design and Children.

K. Forbus, 2021, "Evaluating Revolutions in Artificial Intelligence from a Human Perspective," AI and the Future of Skills, Volume 1, Paris: OECD Publishing.

C. Kidd and B. Y. Hayden, 2015, “The Psychology and Neuroscience of Curiosity,“ Neuron, 88(3).

G. Loewenstein, 1994, “The Psychology of Curiosity: A Review and Reinterpretation,“ Psychological Bulletin, 116(1).

G. Marcus and E. Davis, 2019, Rebooting AI: Building Artificial Intelligence We Can Trust, New York: Pantheon Books.

G. Marcus, 2023, “Elon Musk Thinks We're Close to Solving AI. That Doesn't Make It True.“ https://www.vox.com/future-perfect/23622120/elon-musk-solve-ai-chatgpt-wrong.

N. Mehrabi et al., 2021, “A Survey on Bias and Fairness in Machine Learning,“ ACM Computing Surveys, 54(6).

P. A. Mueller and D. M. Oppenheimer, 2014, “The Pen Is Mightier Than the Keyboard: Advantages of Longhand Over Laptop Note Taking,“ Psychological Science, 25(6).

Z. Obermeyer et al., 2019, “Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations,“ Science, 366(6464).

F. Tanaka et al., 2007, “Socialization Between Toddlers and Robots at an Early Childhood Education Center,“ Proceedings of the National Academy of Sciences, 104(46).

A. M. Turing, 1950, “Computing Machinery and Intelligence,“ Mind, 59.

Education System Should Focus on Instilling Three Core Abilities in the Era

of Artificial Intelligence

Stella Christie

Abstract: Rapid advances in Artificial Intelligence, including large language models, present a challenge to the current education system. Using interdisciplinary perspectives of cognitive and brain sciences, machine learning, behavioral economics, and history of science, this paper argues for three core abilities that need to be instilled in the new education system: AI literacy, the ability to handle exceptions, and the ability to understand human behavior. Compared with AI, humans have many unique advantages, such as dealing with abnormal and unconventional data. More importantly, when it comes to issues involving law, ethics, etc., humans need to regulate the boundaries of intelligent technology usage, which requires a deeper understanding of the underlying logic of AI and human thinking and behavior. AI is a tool that serves human needs, and humans need to become more familiar with and proficient in its use.

Keywords: education system, AI literacy, human behavior, ability to handle exceptions

[責(zé)任編輯:李思琪]