久久天天躁综合夜夜黑人鲁色,超91在线,久久夜视频,91av免费在线观看,在线视频二区,亚洲欧美日韩专区一,在线播放国产一区二区三区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

關(guān)于機(jī)器人若干重要現(xiàn)實(shí)問題的思考(2)

 

機(jī)器人與人工智能

 

機(jī)器人,特別是未來的智能機(jī)器人不應(yīng)僅是信息、控制、生物、材料、機(jī)械等科學(xué)技術(shù)的融合與結(jié)晶,更可能是集科技、人文、藝術(shù)和哲學(xué)為一體的“有機(jī)化合物”,是各種“有限理性”與“有限感性”疊加和激蕩的結(jié)果。未來智能機(jī)器人的發(fā)展與人工智能密不可分,同時人工智能也是制約當(dāng)前機(jī)器人科技發(fā)展的一大瓶頸。

和機(jī)器人一樣,人工智能也“有一個漫長的過去,但只有短暫的歷史”。它的起源可以追溯到文藝復(fù)興,17世紀(jì),萊布尼茲、托馬斯·霍布斯和笛卡兒等人開始嘗試將理性的思考系統(tǒng)化為代數(shù)學(xué)或幾何學(xué)那樣的體系。這些哲學(xué)家已經(jīng)開始明確提出形式符號系統(tǒng)的假設(shè),而這也成為后來人工智能研究的指導(dǎo)思想。19世紀(jì),劍橋大學(xué)的查爾斯·巴貝奇(Charles Babbage)建造差分機(jī)開始嘗試用機(jī)器來自動進(jìn)行數(shù)學(xué)運(yùn)算。第一、二次世界大戰(zhàn)大大加快了人工智能發(fā)展的進(jìn)程,圖靈機(jī)的提出激發(fā)了科學(xué)家們探討讓機(jī)器人思考的可能。1956年達(dá)特茅斯會議第一次提出以“人工智能(Artificial Intelligence)”一詞作為本領(lǐng)域的名稱,并斷言“學(xué)習(xí)的每一方面或智能的任何其他特性都能被精確地加以描述,使得機(jī)器可以對其進(jìn)行模擬”。這把人工智能領(lǐng)域的研究范圍擴(kuò)展到了人類學(xué)習(xí)、生活、工作的方方面面。目前人工智能不但包括生理、心理、物理、數(shù)理等自然科學(xué)技術(shù)領(lǐng)域的知識,而且涉及到哲學(xué)、倫理、藝術(shù)、教理等人文藝術(shù)宗教領(lǐng)域的道理。

1997年5月11日,IBM“深藍(lán)”的電腦擊敗了國際象棋世界冠軍卡斯帕羅夫的人腦,證明了在有限的時空里“計(jì)算”可以戰(zhàn)勝“算計(jì)”,進(jìn)而論證了現(xiàn)代人工智能的基石條件(假設(shè)):物理符號系統(tǒng)具有產(chǎn)生智能行為的充分必要條件(Newell and Simon,1976)是成立的。2016年3月,Google AlphaGo在首爾以4:1的比分戰(zhàn)勝了圍棋世界冠軍李世石九段,更是引發(fā)了人工智能將如何改變?nèi)祟惿鐣钚螒B(tài)的話題。當(dāng)前人工智能的概念似乎有些過熱,雖然過去幾十年中人工智能已經(jīng)取得了令人矚目的成就,但實(shí)際上我們發(fā)現(xiàn)人工智能都還僅能應(yīng)用在諸如語音識別、圖像識別、自然語言處理等單一領(lǐng)域,當(dāng)前人工智能水平的提升還只是量變,遠(yuǎn)遠(yuǎn)沒有達(dá)到質(zhì)變的標(biāo)準(zhǔn)。

人工智能是人類發(fā)展到一定階段自然產(chǎn)生的一門學(xué)科,包括人、機(jī)與環(huán)境三部分,所以人工智能也可以說成人機(jī)環(huán)境系統(tǒng)交互方面的一種學(xué)問。飽含變數(shù)的人機(jī)環(huán)境交互系統(tǒng)內(nèi),存在的邏輯不是主客觀的必然性和確定性,而是與各種可能性保持互動的同步性,是一種可能更適合人類各種復(fù)雜的藝術(shù)過程的隨機(jī)應(yīng)變的能力,而這種能力恰恰是當(dāng)前人工智能所欠缺的地方。

當(dāng)前人工智能研究的難點(diǎn)不僅在具體的技術(shù)實(shí)現(xiàn)上,更多的是在深層次對認(rèn)知的解釋與構(gòu)建方面,而研究認(rèn)知的關(guān)鍵則在于自主和情感等意識現(xiàn)象的破解。然而由于意識的主觀隨意和難以捉摸等特點(diǎn),與講求邏輯實(shí)證與感覺經(jīng)驗(yàn)驗(yàn)證判斷的科學(xué)技術(shù)有較大偏差,使其長期以來難以獲得科技界的關(guān)注。但現(xiàn)在情況正逐漸發(fā)生轉(zhuǎn)變:研究飄忽不定的意識固然不符合科技的尺度,但把意識限制在一定情境之下呢?人在大時空環(huán)境中的意識是很難確定的,但在小尺度時空情境下的意識卻可能是有一定規(guī)律的。

實(shí)際上,目前以符號表征、計(jì)算的計(jì)算機(jī)虛擬建構(gòu)體系是很難逼真反映真實(shí)世界的(數(shù)學(xué)本身并不完備),而認(rèn)知科學(xué)的及時出現(xiàn)不自覺地把真實(shí)世界和機(jī)器建構(gòu)之間的對立統(tǒng)一了起來,圍繞是(Being)、應(yīng)(Should)、要(Want)、能(Can)、變(Change)等節(jié)點(diǎn)展開融合進(jìn)而形成一套新的人機(jī)環(huán)境系統(tǒng)交互體系。

 

機(jī)器人與莫拉維克悖論

 

制約當(dāng)前機(jī)器人發(fā)展的另一瓶頸是莫拉維克悖論。

在機(jī)器人的發(fā)展中出現(xiàn)了一個與人們常識相佐的現(xiàn)象:讓計(jì)算機(jī)在智力測試或者下棋中展現(xiàn)出一個成年人的水平是相對容易的,但是要讓計(jì)算機(jī)有如一歲小孩般的感知和行動能力卻是相當(dāng)困難甚至是不可能的(It is comparatively easy to make computers exhibit adult levelperformance on intelligence tests or playing checkers, and difficult orimpossible to give them the skills of a one-year-old when it comes toperception and mobility.)。這便是在機(jī)器人領(lǐng)域著名的莫拉維克悖論。

莫拉維克悖論(Moravec's paradox)由漢斯·莫拉維克(Hans Moravec)、羅德尼·布魯克斯(Rodney Brooks)、馬文·閔斯基(Marvin Minsky)等人于20世紀(jì)80年代提出。莫拉維克悖論指出:和傳統(tǒng)假設(shè)不同,對計(jì)算機(jī)而言,實(shí)現(xiàn)邏輯推理等人類高級智慧只需要相對很少的計(jì)算能力,而實(shí)現(xiàn)感知、運(yùn)動等低等級智慧卻需要巨大的計(jì)算資源。

語言學(xué)家和認(rèn)知科學(xué)家史迪芬·平克(Steven Pinker)認(rèn)為這是人工智能研究者的最重要發(fā)現(xiàn),在“TheLanguage Instinct”這本書里,他寫道:經(jīng)過35年人工智能的研究,人們學(xué)到的主要內(nèi)容是“困難的問題是簡單的,簡單的問題是困難的”。四歲小孩具有的本能——辨識人臉、舉起鉛筆、在房間內(nèi)走動、回答問題等,事實(shí)上是工程領(lǐng)域內(nèi)目前為止最難解的問題。隨著新一代智慧設(shè)備的出現(xiàn),股票分析師、石化工程師和假釋委員會都要小心他們的位置被取代,但是園丁、接待員和廚師至少十年內(nèi)都不用有這種擔(dān)心。

與之相似,馬文·閔斯基強(qiáng)調(diào),對技術(shù)人員來說,最難以復(fù)刻的人類技能是那些無意識的技能??傮w上,應(yīng)該認(rèn)識到,一些看起來簡單的動作比那些看起來復(fù)雜的動作要更加難以實(shí)現(xiàn)。

在早期人工智能的研究里,當(dāng)時的研究學(xué)者預(yù)測在數(shù)十年內(nèi)他們就可以造出思考機(jī)器。他們的樂觀部分來自于一個事實(shí),他們已經(jīng)成功地使用邏輯來創(chuàng)造寫作程序,并且解決了代數(shù)和幾何的問題以及可以像人類棋士般下國際象棋。正因?yàn)檫壿嫼痛鷶?shù)對于人們來說通常是比較困難的,所以被視為一種智慧象征。他們認(rèn)為,當(dāng)幾乎解決了“困難”的問題時,“容易”的問題也會很快被解決,例如環(huán)境識別和常識推理。但事實(shí)證明他們錯了,一個原因是這些問題是其實(shí)是難解的,而且是令人難以置信的困難。事實(shí)上,他們已經(jīng)解決的邏輯問題是無關(guān)緊要的,因?yàn)檫@些問題是非常容易用機(jī)器來解決的。

根據(jù)當(dāng)時的研究,智慧最重要的特征是那些困難到連高學(xué)歷的人都會覺得有挑戰(zhàn)性的任務(wù),例如象棋、抽象符號的統(tǒng)合、數(shù)學(xué)定理證明和解決復(fù)雜的代數(shù)問題。至于四五歲的小孩就可以解決的事情,例如用眼睛區(qū)分咖啡杯和一張椅子,或者用腿自由行走,又或是發(fā)現(xiàn)一條可以從臥室走到客廳的路徑,這些都被認(rèn)為是不需要智慧的。

在發(fā)現(xiàn)莫拉維克悖論后,一部分人開始在人工智能和機(jī)器人的研究上追求新的方向,研究思路不再僅僅局限于模仿人類認(rèn)知學(xué)習(xí)和邏輯推理能力,而是轉(zhuǎn)向從模仿人類感覺與反應(yīng)等與物理世界接觸的思路設(shè)計(jì)研發(fā)機(jī)器人。莫拉維克悖論的發(fā)現(xiàn)者之一RodneyBrooks便在其中,他決定建造一種沒有辨識能力而只有感知和行動能力的機(jī)器,并稱之為Nouvelle AI。雖然他的研究早在1990年代就開始了,但是直到2011年其Baxter機(jī)器人還是不能像裝配工人那樣自如地拿起細(xì)小的物件。

莫拉維克悖論對應(yīng)的是機(jī)器人的運(yùn)動控制和感知系統(tǒng),而人工智能則對應(yīng)于機(jī)器人的控制和信息處理中樞。如果把人工智能對應(yīng)于機(jī)器人的大腦,那么莫拉維克悖論對應(yīng)的運(yùn)動控制和感知系統(tǒng)則對應(yīng)于機(jī)器人的小腦。只有大腦小腦系統(tǒng)發(fā)展,機(jī)器人才能更好的服務(wù)人類。

 

機(jī)器人的社會問題

 

安全問題。機(jī)器人作為一個設(shè)備為人類工作服務(wù)有一個前提,那就是安全。在工業(yè)機(jī)器人領(lǐng)域已經(jīng)有了相對完善、成熟的安全標(biāo)準(zhǔn)體系。在服務(wù)機(jī)器人領(lǐng)域各國都缺乏相應(yīng)的安全標(biāo)準(zhǔn),國際標(biāo)準(zhǔn)化組織于2014年2月正式發(fā)布了ISO13482安全標(biāo)準(zhǔn),這是服務(wù)機(jī)器人領(lǐng)域的第一個國際安全標(biāo)準(zhǔn),是一個良好的開端,ISO13482包含移動仆從機(jī)器人、載人機(jī)器人、身體輔助機(jī)器人三大類服務(wù)機(jī)器人的基本安全要求。

服務(wù)機(jī)器人的安全不僅包括傳統(tǒng)的硬件安全如電氣安全等,還包括軟件安全,機(jī)器人的軟件安全與人們熟悉的計(jì)算機(jī)軟件安全還有不同,雖然計(jì)算機(jī)軟件失控或遭受攻擊后也會導(dǎo)致嚴(yán)重的損失,但它僅存在于虛擬空間,不直接對物理世界產(chǎn)生作用。但機(jī)器人系統(tǒng)的軟件安全則不同,機(jī)器人的軟件系統(tǒng)可以控制其硬件作出各種動作,會對真實(shí)物理空間產(chǎn)生直接影響,一旦自身失控或遭受攻擊被人控制,可能就會對使用者造成直接的人身傷害。目前機(jī)器人軟件安全研究還比較少,也沒有機(jī)器人專用的安全防護(hù)軟件或方案,這可能會導(dǎo)致極大的安全隱患,應(yīng)引起人們的重視。

恐怖谷理論。1970年,日本機(jī)器人專家森正弘(MasahiroMori)提出了機(jī)器人領(lǐng)域一個著名的理論——恐怖谷理論(The Uncanny valley),“恐怖谷”一詞最早由ErnstJentsch于1906年在其論文《恐怖心理學(xué)》中提出,后又于1919年被弗洛伊德在論文《恐怖谷》中闡述,成為心理學(xué)領(lǐng)域一個著名的理論。森正弘的恐怖谷理論是一個關(guān)于人類對機(jī)器人和非人類物體感覺的假設(shè)。森正弘的假設(shè)指出,隨著機(jī)器人在外表、動作上與人類越來越像,人類會對機(jī)器人產(chǎn)生正面的情感;但若到了某一特定程度,人類對機(jī)器人的反應(yīng)會變得極為負(fù)面。哪怕僅僅是很小的一點(diǎn)差別,都會使人覺得非常刺眼,甚至使整個機(jī)器人顯得非常僵硬恐怖,使人有面對行尸走肉的感覺。但當(dāng)機(jī)器人與人類的相似度繼續(xù)上升時,直至達(dá)到普通人之間的相似度時,人類對機(jī)器人的情感反應(yīng)會再度回到正面。“恐怖谷”一詞用以形容人類對跟他們相似到特定程度之機(jī)器人的排斥反應(yīng)。而“谷”就是指在研究里“好感度對相似度”的關(guān)系圖中,在相似度臨近100%前,好感度突然墜至反感水平,回升至好感前的那段范圍。

機(jī)器人威脅論。“機(jī)器人威脅論”伴隨著機(jī)器人發(fā)展的始終,其歷史甚至比現(xiàn)代機(jī)器人還要長。早在1921年,卡雷爾·恰佩克提出“機(jī)器人(Robot)”一詞的那部劇本的結(jié)局就是機(jī)器人反抗并消滅了人類。后來,“機(jī)器人威脅論”更是成為科幻小說或科幻電影永恒的題材之一。最近幾年,科技圈的一些大佬們也紛紛警告機(jī)器人或人工智能將會帶來的威脅,著名企業(yè)家艾倫·馬斯克認(rèn)為人工智能的危險(xiǎn)性甚至大于核武器。物理學(xué)家霍金則警告說,人工智能可能會招致人類末日。就連比爾·蓋茨也建議要小心管理數(shù)碼形態(tài)的“超級智能”。

但現(xiàn)實(shí)是,目前的機(jī)器人技術(shù)距離真正的“智慧”還差的很遠(yuǎn),已有的所謂“智能機(jī)器人”幾乎都是表面性的,主要還是以科研或娛樂為主。目前大規(guī)模產(chǎn)業(yè)化的基本只有工廠里的機(jī)械臂和家里爬行的吸塵器。如果把機(jī)器人智能水平分成四個等級:功能、智能、智力、智慧。那么目前的機(jī)器人大部分都處在功能階段,有少部分實(shí)驗(yàn)室產(chǎn)品可能達(dá)到智能。終結(jié)者(Terminator)們還只不過是好萊塢電影里面的角色而已。

現(xiàn)在,無論是小說還是電影中科幻世界還是我們所在的物理世界,機(jī)器人都越來越聰明了,越來越有“人性”了,在一些方面逐漸接近人類,在另一些方面則逐漸超越人類。于是人們越來越擔(dān)心科幻電影中的世界有一天會變成事實(shí),但拋去所有的幻想與浮躁,真實(shí)的情況到底是怎樣的?縱觀歷史,每次新技術(shù)的出現(xiàn)都會引起人們的恐慌與反對,但我們不是每次都安然度過并開始享受這些技術(shù)帶來的便利了嗎?從遠(yuǎn)古的刀、箭到現(xiàn)在的汽車、飛機(jī)、核能,這些都是工具,其本身并沒有善惡屬性,真正能決定其用途或善惡的,是背后的使用者。一項(xiàng)新的技術(shù),如果對人們的幫助遠(yuǎn)大于危害,那我們就應(yīng)該正面、積極的對待它,防范可能的不當(dāng)使用,然后繼續(xù)向前進(jìn)。

 

結(jié)束語


有人說,機(jī)器人是個哲學(xué)問題,這在某種程度上是有道理的,因?yàn)?ldquo;我們能否在機(jī)器身上再現(xiàn)人類的智能”和“我們能否與真正的智能機(jī)器人和平相處”,在某些意義上不僅是技術(shù)問題,也是哲學(xué)問題。當(dāng)今乃至可見的未來,人與機(jī)器人之間的關(guān)系不應(yīng)該是取代而是共存,未來的世界可能是人與機(jī)器人共在:相互按力分配、相互取長補(bǔ)短,共同進(jìn)步,相互激發(fā)喚醒,有科有幻,有情有義,相得益彰……

Reflections onSome Important Issues about Robots

Liu Wei

Abstract:It has been onlya few decades since robot was first referred to as a proper noun, yet it hasbeen about three thousand years since the idea of robot existed in humanimagination. In recent years, robot research and application has achievedunprecedented development, and the robot age is drawing near. The robotindustry has great significance in improving innovation ability, enhancingcomprehensive national strength, and promoting the overall economicdevelopment, so robotic technology and its application has become the“battleground” for nurturing new advantages in innovation and development.Artificial intelligence and Moravec's paradox are the two major bottlenecksrestricting the current development of robots. At present, the difficulty ofartificial intelligence research is not only in the realization of the specifictechnology, but m·ore importantly, in theinterpretation and construction of cognition in the deep level. Moravec'sparadox shows that human skills that are most difficult to be replicated arethose unconscious ones. Robot development has also caused some concerns,including security issues, the Uncanny Valley Theory, and the threat of robotsand so on. Today and until the foreseeable future, the relationship between thehumans and the robots should be coexistence rather than replacement, they maycoexist in the future world.

Keywords:robot,artificial intelligence, Moravec's paradox, the Uncanny Valley Theory,cognitive science

作者簡介:

劉偉,北京郵電大學(xué)自動化學(xué)院教授、北京郵電大學(xué)人機(jī)交互與認(rèn)知工程實(shí)驗(yàn)室主任,國家自然科學(xué)基金評議專家、國家工效標(biāo)準(zhǔn)化技術(shù)委員會委員。研究方向?yàn)槿藱C(jī)交互、認(rèn)知工程、用戶體驗(yàn)、人機(jī)環(huán)境系統(tǒng)工程、分析哲學(xué)、未來態(tài)勢感知模式與行為分析/預(yù)測技術(shù)。主要著作有《人機(jī)交互設(shè)計(jì)與評價》《人機(jī)交互中情境認(rèn)知的理論與應(yīng)用》《人機(jī)界面技術(shù)》《人—機(jī)—環(huán)境系統(tǒng)工程計(jì)算機(jī)仿真》等。

上一頁 1 2下一頁
[責(zé)任編輯:鄭韶武]
標(biāo)簽: 機(jī)器人   現(xiàn)實(shí)   問題