【摘要】作為生命科學(xué)和信息技術(shù)深度交叉融合的前沿新興技術(shù),腦機(jī)接口近年來發(fā)展迅猛,重大突破頻現(xiàn),同時(shí)也引發(fā)了諸多倫理爭議。腦機(jī)接口對傳統(tǒng)倫理原則提出的挑戰(zhàn)涉及物理、心理與社會(huì)等多個(gè)層面。在侵入式腦機(jī)接口已獲準(zhǔn)進(jìn)入臨床試驗(yàn)階段的背景下,如何構(gòu)建合倫理的腦機(jī)接口正成為各國神經(jīng)科學(xué)家、工程師和倫理學(xué)家的關(guān)注焦點(diǎn)。為了化解腦機(jī)接口倫理風(fēng)險(xiǎn),我們有必要加強(qiáng)監(jiān)督管理,提升倫理素養(yǎng),深化跨學(xué)科合作,通過建立健全倫理規(guī)范與監(jiān)管機(jī)制,確保腦機(jī)接口技術(shù)能夠真正增進(jìn)人類福祉。
【關(guān)鍵詞】腦機(jī)接口 技術(shù)風(fēng)險(xiǎn) 倫理原則 倫理治理 跨學(xué)科合作
【中圖分類號】G31 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.16.005
【作者簡介】周程,北京大學(xué)哲學(xué)系教授、博導(dǎo),全國應(yīng)用倫理專業(yè)學(xué)位研究生教育指導(dǎo)委員會(huì)委員。研究方向?yàn)榭茖W(xué)社會(huì)史、科技倫理治理、創(chuàng)新管理與科技政策。主要著作有《科技創(chuàng)新典型案例分析》《福澤諭吉と陳獨(dú)秀:東アジア近代科學(xué)啓蒙思想の黎明》等。
引言
國家科技倫理委員會(huì)人工智能倫理分委員會(huì)研究編制了《腦機(jī)接口研究倫理指引》(以下簡稱《指引》),不僅對腦機(jī)接口研究的基本原則和一般要求進(jìn)行了規(guī)定,而且還為五種不同類型的腦機(jī)接口研究確立了相應(yīng)的倫理規(guī)范?!吨敢芬螅?ldquo;開展腦機(jī)接口研究需符合我國相關(guān)法律法規(guī)規(guī)定,遵循國際公認(rèn)的倫理準(zhǔn)則,以及科學(xué)共同體達(dá)成的專業(yè)共識和技術(shù)規(guī)范。”
然而,對究竟什么是“國際公認(rèn)的倫理準(zhǔn)則”,《指引》并未給出明確說明。事實(shí)上,隨著腦機(jī)接口技術(shù)的蓬勃發(fā)展,與腦機(jī)接口有關(guān)的倫理爭議日趨復(fù)雜。例如,2024年1月,埃隆·馬斯克(Elon Musk)創(chuàng)立的“神經(jīng)鏈接公司”(Neuralink)首次將腦機(jī)接口芯片植入一位癱瘓患者的腦部;[1]同年8月,埃隆·馬斯克披露已經(jīng)成功將腦機(jī)接口植入第二位人類患者體內(nèi)。[2]這些事件引發(fā)了新一輪的腦機(jī)接口倫理爭議。一部分人認(rèn)為,在腦機(jī)接口尚存在諸多潛在風(fēng)險(xiǎn)的情況下,貿(mào)然對人體進(jìn)行侵入式腦機(jī)接口實(shí)驗(yàn),具有極大的安全隱患。[3]也有人對這一進(jìn)展持樂觀態(tài)度,認(rèn)為“神經(jīng)鏈接公司”的臨床試驗(yàn)遵循了美國食品藥品監(jiān)督管理局(FDA)的規(guī)范,若為那些急切渴望獲得腦機(jī)接口以提升生活質(zhì)量的患者著想,倫理考量就不應(yīng)成為腦機(jī)接口發(fā)展道路上的阻礙。[4]
由此可見,國際學(xué)術(shù)界仍未就腦機(jī)接口研究倫理達(dá)成高度共識。為了推動(dòng)腦機(jī)接口研究的健康快速發(fā)展,有必要系統(tǒng)梳理近年來國際上關(guān)于腦機(jī)接口倫理研究的熱點(diǎn)領(lǐng)域和前沿問題,以期為中國腦機(jī)接口的合倫理研究與應(yīng)用提供有價(jià)值的參考。
腦機(jī)接口引發(fā)諸多倫理問題的技術(shù)根源
早在20世紀(jì)70年代,雅克·維達(dá)爾(Jacques J. Vidal)便提出了“腦機(jī)接口”(brain-computer interface)這一術(shù)語,并將腦機(jī)接口視作“在人機(jī)對話中利用大腦信號”和“作為控制外部器械”的設(shè)備。[5]近二十年來,腦機(jī)接口研究持續(xù)獲得廣泛的關(guān)注(見圖1)。
進(jìn)入21世紀(jì)以后,腦機(jī)接口研究不斷取得新進(jìn)展,以致人們很難對腦機(jī)接口的定義究竟是什么達(dá)成一致意見。若根據(jù)《指引》,腦機(jī)接口可定義為“在大腦與外部設(shè)備之間創(chuàng)建信息通道,實(shí)現(xiàn)兩者之間直接信息交互的新型交叉技術(shù)”,其作用過程包括“記錄裝置采集顱內(nèi)或腦外的大腦神經(jīng)活動(dòng)”“對神經(jīng)活動(dòng)進(jìn)行解碼”“解析出神經(jīng)活動(dòng)中蘊(yùn)含的主觀意圖”“輸出相應(yīng)的指令”“操控外部裝置實(shí)現(xiàn)與人類主觀意愿一致的行為”“接收來自外部設(shè)備的反饋信號”等環(huán)節(jié)。[6]換言之,腦機(jī)接口主要包括大腦、外部設(shè)備、信息通道三個(gè)組成部分,旨在實(shí)現(xiàn)測定神經(jīng)活動(dòng)、解讀大腦意圖、由設(shè)備實(shí)現(xiàn)意圖、反饋實(shí)現(xiàn)結(jié)果的效應(yīng)。
在腦機(jī)接口的某個(gè)作用環(huán)節(jié)采用不同的技術(shù)實(shí)現(xiàn)方式,就會(huì)產(chǎn)生不同種類的腦機(jī)接口技術(shù)。在測定神經(jīng)活動(dòng)環(huán)節(jié),腦機(jī)接口逐漸分化成兩大類,一類是直接在頭皮上測量大腦電活動(dòng)的非侵入式腦機(jī)接口,另一類是需要通過開顱手術(shù)將電極植入腦中的侵入式腦機(jī)接口。最近還發(fā)展出一類通過頸部血管,將測定電極導(dǎo)入特定腦區(qū),借以采集神經(jīng)信號的腦機(jī)接口,即介入式腦機(jī)接口。在解讀大腦意圖環(huán)節(jié),腦機(jī)接口研究者捕捉、解讀并利用了多種腦電活動(dòng),如事件相關(guān)電位、[7]感覺運(yùn)動(dòng)節(jié)律[8]和慢皮層電位[9]等。當(dāng)前,人工智能領(lǐng)域所使用的一些經(jīng)典算法,如支持向量機(jī)和神經(jīng)分類器,在21世紀(jì)初就被引入腦機(jī)接口的研究中。[10]近年來,人工智能領(lǐng)域中的“深度學(xué)習(xí)”之類算法創(chuàng)新深刻影響了腦機(jī)接口研究,尤其是對大腦神經(jīng)信號的解碼研究??梢哉f,腦機(jī)接口的研究進(jìn)展與不同領(lǐng)域研究人員的協(xié)同創(chuàng)新、對新技術(shù)的不斷整合應(yīng)用有著很大的關(guān)聯(lián)。
隨著腦機(jī)接口研究的不斷發(fā)展,越來越多的研究者開始思考腦機(jī)接口技術(shù)可能對人類產(chǎn)生的影響。從圖1可以看出,腦機(jī)接口研究的論文數(shù)量出現(xiàn)快速增長之后,腦機(jī)接口倫理研究的論文數(shù)量也隨之出現(xiàn)快速增長。毋庸贅言,腦機(jī)接口研究引發(fā)的倫理擔(dān)憂是由腦機(jī)接口技術(shù)特點(diǎn)所決定的。由于腦機(jī)接口具有干預(yù)性、交互性與自動(dòng)性等技術(shù)特點(diǎn),以致腦機(jī)接口研究很難避免來自倫理方面的詰難。
干預(yù)性。干預(yù)性指的是腦機(jī)接口必然涉及對用戶的干預(yù)過程,包括測量與控制用戶的神經(jīng)與行為。腦機(jī)接口重在將解析出的大腦意圖信息傳輸給外部設(shè)備,以實(shí)現(xiàn)大腦對設(shè)備的控制。這意味著需要先采集大腦電信號或磁信號,對這些信號進(jìn)行解碼后再將其翻譯為機(jī)器的控制信號,進(jìn)而傳輸給外部設(shè)備。問題是,大腦神經(jīng)活動(dòng)能否僅通過電、磁信號進(jìn)行測定?如何基于有限的信號解碼大腦內(nèi)復(fù)雜的神經(jīng)活動(dòng)?如何從不同的神經(jīng)活動(dòng)信號中排除干擾,解析出用戶的主觀意圖?怎樣才能把用戶的模糊意圖翻譯為控制設(shè)備的清晰指令?以上問題亟待研究人員解決。
正是由于測定和控制大腦神經(jīng)活動(dòng)的干預(yù)性,腦機(jī)接口極易引發(fā)一些安全問題,并由此導(dǎo)致諸多倫理爭議。尤其是侵入式腦機(jī)接口和介入式腦機(jī)接口,因在研究過程中需將異物導(dǎo)入顱內(nèi),故很容易引發(fā)長、短期安全風(fēng)險(xiǎn)。即使非侵入式腦機(jī)接口遇到的安全問題相對較少,也并不意味著非侵入的測定過程對大腦不會(huì)造成任何傷害。為了發(fā)現(xiàn)、控制、克服大腦神經(jīng)活動(dòng)測定過程中的安全問題,研究人員需要用模式動(dòng)物做大量的實(shí)驗(yàn),這又不可避免地會(huì)引發(fā)動(dòng)物福利問題。并且,把動(dòng)物實(shí)驗(yàn)的數(shù)據(jù)套用到人類身上,還會(huì)招致知識外推方面的質(zhì)疑。即便研究人員解決了采集信號的安全問題,但在解碼與解析電信號、磁信號等多種信息過程中產(chǎn)生的大量隱私數(shù)據(jù),也有可能引發(fā)潛在的用戶信息安全問題或隱私問題。
交互性。交互性指的是腦機(jī)接口需要在外部設(shè)備與用戶之間產(chǎn)生交互。腦機(jī)接口需要向大腦及時(shí)反饋外部設(shè)備實(shí)現(xiàn)用戶主觀意圖的結(jié)果,這一反饋既可以經(jīng)由感官的刺激(如聽覺、視覺信號)達(dá)成,也可以通過由腦機(jī)接口直接向大腦輸入電信號來實(shí)現(xiàn)。而且在很多情況下腦機(jī)接口還需要將外部環(huán)境中的一些重要信息傳輸給大腦,這就需要先將外部環(huán)境中的相關(guān)物理信息設(shè)法翻譯為電信號,然后再將這些電信號輸入大腦。
在將電信號輸入大腦的過程中,信號傳輸?shù)陌踩詥栴}尤其值得關(guān)注。比起電腦被黑客入侵,“大腦被黑客入侵,進(jìn)而控制用戶本人”的后果更為嚴(yán)重。面對這一重大安全風(fēng)險(xiǎn),《指引》中給出的規(guī)定非常嚴(yán)格,要求研究人員“嚴(yán)格控制干預(yù)人的思維、精神和神經(jīng)活動(dòng)過程的研究”,以保障用戶的意識安全。[11]如果規(guī)定禁止通過技術(shù)干預(yù)人的意識,那么人工耳蝸是否同樣也會(huì)干預(yù)患者能聽到的聲音?人工義眼是否會(huì)干預(yù)患者能看到的世界?兩者會(huì)不會(huì)被黑客控制?很明顯,當(dāng)腦機(jī)接口成為用戶大腦與外部世界進(jìn)行交互的中介時(shí),我們不可避免地會(huì)遇到如何保障用戶意識安全的問題。
自動(dòng)性。自動(dòng)性指的是某些腦機(jī)接口具備一定的自動(dòng)行為能力,并非時(shí)刻都得在用戶主觀意圖的控制下才能運(yùn)行。一些腦機(jī)接口可以采用較為復(fù)雜的模式識別手段和控制手段,通過收集大腦的自發(fā)活動(dòng)信息自動(dòng)運(yùn)行。其潛在的用戶群體多為患有中風(fēng)、癲癇之類大腦功能障礙疾病的患者。此時(shí),腦機(jī)接口將不再只是連接“主觀意圖”和“外部設(shè)備”的中介,它還扮演了與患者共同決策的“電子大腦”角色。在這種情況下,恐怕不能要求患者在使用腦機(jī)接口前就具有可清晰表達(dá)個(gè)體意愿的“意識”,對外部設(shè)備的控制恐怕也不能只基于“主觀意圖”。這就向研究人員提出了更高層次的技術(shù)要求。
對于這一類腦機(jī)接口,我們需要考慮很多問題。譬如,用戶在使用腦機(jī)接口前后,是否發(fā)生了意識層面的變化;閉鎖綜合征患者該怎樣去表達(dá)“同意使用腦機(jī)接口”的意愿;患者使用腦機(jī)接口后的“知情同意”是否能夠代表那個(gè)沒有借助腦機(jī)接口的自己,亦即使用腦機(jī)接口后的患者和未使用腦機(jī)接口的患者是否具有同一性。由此可見,這種超出《指引》定義的腦機(jī)接口類型,對信息和響應(yīng)的自動(dòng)化處理,引發(fā)了不少與人類意識、同意、自主等心理功能與特征相關(guān)的倫理問題。
腦機(jī)接口對倫理原則提出的挑戰(zhàn)
腦機(jī)接口在不同的技術(shù)作用環(huán)節(jié)對多項(xiàng)倫理原則提出了挑戰(zhàn)。接下來,筆者將從物理、心理、社會(huì)三個(gè)層面,[12]進(jìn)一步考察腦機(jī)接口與傳統(tǒng)的生命醫(yī)學(xué)倫理原則之間存在的沖突。
物理層面的倫理挑戰(zhàn)。在傳統(tǒng)的生命醫(yī)學(xué)倫理原則中,“不傷害原則”是一項(xiàng)重要的考量,即在醫(yī)療過程中需要確?;颊叩纳硇慕】挡粫?huì)受到傷害。但是,正如前文所提到的,腦機(jī)接口中的一大類別是侵入式腦機(jī)接口。使用這種腦機(jī)接口需要通過開顱手術(shù)將電極貼敷到腦皮層表面或刺入腦皮層內(nèi)部。相比于非侵入式腦機(jī)接口,侵入式腦機(jī)接口能夠更好地識別腦神經(jīng)電信號,也能更好地實(shí)現(xiàn)腦機(jī)交互。但這一操作會(huì)對患者大腦造成一定的損傷,甚至?xí)绊懟颊叩男睦硖卣鳌?/p>
具體而言,植入電極的行為本身就會(huì)對患者造成一定的影響。例如,植入手術(shù)過程中可能發(fā)生感染,隨著時(shí)間的推移腦內(nèi)會(huì)逐漸形成包圍電極的疤痕組織,電極長期使用后功效會(huì)顯著下降等。[13]即使醫(yī)生將電極順利植入患者的大腦,患者也需要通過腦機(jī)接口與外部設(shè)備合作訓(xùn)練一段時(shí)間之后,才能精準(zhǔn)控制外部設(shè)備實(shí)現(xiàn)目標(biāo)。而在訓(xùn)練過程中,患者的思維習(xí)慣或多或少會(huì)發(fā)生變化,甚至性格都有可能發(fā)生不可逆轉(zhuǎn)的改變。[14]由此可見,侵入式腦機(jī)接口在物理層面上的特性對傳統(tǒng)的“不傷害原則”提出了挑戰(zhàn)。
另外,腦機(jī)接口不僅可能給患者帶來不可逆損傷的風(fēng)險(xiǎn),其他人也可能存在被腦機(jī)接口使用者攻擊而受到傷害的風(fēng)險(xiǎn)。斯蒂芬·雷尼(Stephen Rainey)指出,腦機(jī)接口使用者有可能會(huì)因所佩戴的假肢設(shè)備失靈而對他人產(chǎn)生攻擊行為,即使設(shè)備本身沒有失靈,腦機(jī)接口也可能會(huì)將腦中的沖動(dòng)行為直接轉(zhuǎn)化為物理行為,把“我簡直想打人”實(shí)施為“我打人”。[15]若出于避免意圖翻譯不暢的目的給腦機(jī)接口增添一些意圖確認(rèn)環(huán)節(jié),又會(huì)使腦機(jī)接口變得更加復(fù)雜,這將會(huì)給用戶帶來更多的不便。
但風(fēng)險(xiǎn)并非一項(xiàng)技術(shù)的全部,收益往往與風(fēng)險(xiǎn)并存。如何平衡風(fēng)險(xiǎn)與收益,是腦機(jī)接口研究人員和患者都必須面對的問題。圖比格(Paul Tubig)等人采訪了一些即將取出“癲癇治療”腦機(jī)接口的患者,這些患者向采訪人員表達(dá)了對“再度喪失人格”的擔(dān)憂,并表示希望能夠繼續(xù)保留腦機(jī)接口。[16]《指引》要求嚴(yán)格控制具有成癮性的腦機(jī)接口研究,但這些患者不是基于“快感”而是基于其他原因要求保留腦機(jī)接口,這是否可以視為一種“成癮”?克萊恩(Eran Klein)等人則討論了一名參加腦機(jī)接口實(shí)驗(yàn)的閉鎖綜合征患者因在實(shí)驗(yàn)過程中的治療效果逐步減弱,以至于最終退出實(shí)驗(yàn)的過程。[17]
要而言之,如何面對腦機(jī)接口給患者帶來不可逆損傷的風(fēng)險(xiǎn),以及如何在這種風(fēng)險(xiǎn)中增進(jìn)患者的收益,已成為腦機(jī)接口研究在物理層面無法回避的倫理挑戰(zhàn)。可以預(yù)期的是,隨著腦機(jī)接口技術(shù)的不斷進(jìn)步,這些倫理沖突會(huì)在一定程度上得到緩和,但要完全解決侵入式腦機(jī)接口給患者帶來的傷害問題幾無可能。這意味著至少侵入式腦機(jī)接口研究很難嚴(yán)格遵守“不傷害原則”。
心理層面的倫理挑戰(zhàn)。在傳統(tǒng)的生命醫(yī)學(xué)倫理原則中,尊重自主原則被認(rèn)為是首要原則,即必須保證患者能夠自主地選擇自己的思想和行為。換言之,尊重自主原則關(guān)乎患者與醫(yī)療技術(shù)交互過程中的切身感受和內(nèi)在體驗(yàn)。而在使用腦機(jī)接口進(jìn)行治療的過程中,患者普遍會(huì)產(chǎn)生心理層面的改變,這對如何保障患者自主權(quán)提出了倫理挑戰(zhàn)。
具體而言,腦機(jī)接口在心理層面帶來的自主難題主要包含三個(gè)方面:一是腦機(jī)接口對患者的知情同意提出了更多的要求;二是腦機(jī)接口對患者的自我身份帶來了改變;三是患者對腦機(jī)接口技術(shù)產(chǎn)生了依賴性。
首先是知情同意問題。生物醫(yī)學(xué)倫理原則中的尊重自主原則,要求在生物醫(yī)學(xué)實(shí)驗(yàn)中必須尊重患者的自主性,而知情同意程序則是尊重自主原則的具體體現(xiàn)。然而,在腦機(jī)接口研究與應(yīng)用過程中,傳統(tǒng)的知情同意程序可能并不足以保證患者的自主性。例如,有學(xué)者指出,閉鎖綜合征患者無法自主表達(dá)其意愿,正常的知情同意程序無法實(shí)施。因此,借助腦機(jī)接口對這類患者進(jìn)行治療需要允許“他人代患者表述知情同意”,或者允許通過大腦掃描等方法認(rèn)定患者的知情同意。[18]然而,這樣的知情同意程序真的能保障這些無法自主表達(dá)自身意愿的患者的自主性嗎?
即便是能夠自主表達(dá)自身意愿的患者,也有可能受腦機(jī)接口技術(shù)特點(diǎn)的制約,難以做到完全知情。在常規(guī)的知情同意程序中,腦機(jī)接口的提供者需要告知用戶將會(huì)收集哪些大腦數(shù)據(jù),為什么要收集這些數(shù)據(jù),以及將如何使用這些數(shù)據(jù)等。一些腦機(jī)接口,如“腦腦接口”涉及的數(shù)據(jù)量十分龐大,且內(nèi)容不易解讀,在這種情況下,讓患者充分理解腦機(jī)接口的數(shù)據(jù)細(xì)節(jié)顯然不現(xiàn)實(shí),實(shí)際上腦機(jī)接口的提供者也未必能做到對這些數(shù)據(jù)細(xì)節(jié)的充分理解。結(jié)果,患者往往是在不完全知情的情況下表示同意的。無疑,這給傳統(tǒng)的知情同意程序帶來了挑戰(zhàn)。[19]
其次是自我身份問題。一方面,腦機(jī)接口的使用者需要通過腦機(jī)接口克服自身希望解決的困難,例如,治療疾病等,這可能會(huì)帶來身份的認(rèn)同和轉(zhuǎn)變問題;另一方面,患者可能又不希望自己的身份因腦機(jī)接口而產(chǎn)生徹底的變化,甚至成為腦機(jī)接口操縱下的個(gè)體。有案例表明,一些使用腦機(jī)接口的漸凍癥患者通過腦機(jī)接口獲得了與家人和朋友交流的能力,并表示愿意在腦機(jī)接口實(shí)驗(yàn)結(jié)束后保留設(shè)備;但也有相當(dāng)一部分患者不愿保留設(shè)備,認(rèn)為自己已經(jīng)重新獲得了交流能力,因此,有強(qiáng)烈的意圖去恢復(fù)原來的“脫離腦機(jī)接口”的身份。由此可見,與腦機(jī)接口關(guān)聯(lián)在一起的是用戶個(gè)體對于自身是否屬于“患者”的認(rèn)知:一些患者認(rèn)為自己使用腦機(jī)接口使得自身不再是“患者”,因而增加了自身的自主性;而另一些患者則認(rèn)為,必須佩戴的腦機(jī)接口設(shè)備無時(shí)無刻不在提醒自己是一名患者,自己反而比未治療之前顯得更加沮喪和無助,這損害了自身的自主性。[20]它表明,患者的自我觀念甚至是人格都因佩戴腦機(jī)接口而受到影響。
最后是過度依賴問題。當(dāng)腦機(jī)接口能夠?yàn)榛颊邘砭裰委熜Ч麜r(shí),一些學(xué)者便開始懷疑這項(xiàng)技術(shù)有可能會(huì)使患者產(chǎn)生過度依賴。一些使用腦機(jī)接口的癲癇患者表示,自從有了可以預(yù)測癲癇發(fā)作的腦機(jī)接口之后,他們似乎就可以去做任何想做的事情,而不必?fù)?dān)心癲癇的隨機(jī)發(fā)作。[21]腦機(jī)接口對患者本人心態(tài)固然會(huì)有所改善,但是這種對腦機(jī)接口的過度信任可能會(huì)導(dǎo)致患者忽略了自身本有的識別能力,反而給癲癇患者本人和他人造成更多的傷害。在這種患者與腦機(jī)接口的雙向互動(dòng)中,腦機(jī)接口本來只是患者預(yù)測癲癇的輔助工具,后來卻演變成了預(yù)測癲癇的唯一工具,成為了癲癇判斷的決策者本身。更甚之,問題不在于患者對腦機(jī)接口的依賴本身,而在于如果其他社會(huì)因素介入到治療中,這種依賴性會(huì)進(jìn)一步損害患者的利益。
綜上,腦機(jī)接口對人類意識具有強(qiáng)大的控制與干預(yù)能力,由此在心理層面引發(fā)的倫理問題不容忽視。從知情同意的復(fù)雜性,到自我身份的轉(zhuǎn)變,再到對技術(shù)的依賴性,這些問題都對傳統(tǒng)的尊重自主原則和知情同意程序提出了新的挑戰(zhàn)。因此,在未來的腦機(jī)接口研究、開發(fā)與應(yīng)用過程中,我們必須探索更為細(xì)致、全面與更具可操作性的倫理框架,切實(shí)保護(hù)患者的自主性與心理健康。
社會(huì)層面的倫理挑戰(zhàn)。腦機(jī)接口除了因其技術(shù)特點(diǎn)可能會(huì)給患者帶來物理和心理層面的倫理挑戰(zhàn)之外,還有可能會(huì)由于使用者的不當(dāng)操作帶來不少社會(huì)層面的倫理挑戰(zhàn),如解讀大腦涉及的隱私問題、腦機(jī)接口使用者的污名化問題、發(fā)生事故時(shí)的責(zé)任歸屬問題以及腦機(jī)接口資源的公平分配問題等。事實(shí)上,關(guān)于傳統(tǒng)倫理原則的討論,往往采取個(gè)體主義的立場與訴諸直覺的研究進(jìn)路,對倫理理論與道德實(shí)踐之間的關(guān)系沒有給予足夠的關(guān)注,而這有可能忽視技術(shù)發(fā)展中的權(quán)力結(jié)構(gòu)與社會(huì)不平等問題。[22]腦機(jī)接口帶來了廣泛的社會(huì)影響,使我們更加需要關(guān)注社會(huì)層面的倫理挑戰(zhàn)。
首先,腦機(jī)接口需要收集大量關(guān)于用戶神經(jīng)狀態(tài)的數(shù)據(jù)并作出頻繁而復(fù)雜的解讀,在這一過程中如何保護(hù)用戶的隱私是一個(gè)必須正視的問題。一些倫理學(xué)家向科學(xué)家發(fā)放問卷,詢問腦機(jī)接口的數(shù)據(jù)保護(hù)與其他類型的生物醫(yī)學(xué)數(shù)據(jù)保護(hù)有何不同。[23]一些科學(xué)家表示,就現(xiàn)狀而言,即使把神經(jīng)數(shù)據(jù)提供給其他研究人員,恐怕也沒有什么意義,因?yàn)檫@些數(shù)據(jù)只有在搭配特定工具和人員的情況下才會(huì)彰顯其價(jià)值,甚至一些數(shù)據(jù)可能會(huì)對其他研究人員產(chǎn)生誤導(dǎo),進(jìn)而傷害用戶。因此,并非所有科學(xué)家都支持對腦機(jī)接口研究進(jìn)行“數(shù)據(jù)共享”。一般認(rèn)為,未來的腦機(jī)接口需要對神經(jīng)狀態(tài)作出更加細(xì)致且準(zhǔn)確的解讀,這意味著一旦黑客入侵腦機(jī)接口,將會(huì)給患者和他人造成更大的危害。[24]
其次,腦機(jī)接口的使用者可能會(huì)遭遇污名化問題。腦機(jī)接口設(shè)備可以類比為殘疾人使用的輪椅或拐杖,因此,腦機(jī)接口使用者面臨的污名化問題與殘疾人所經(jīng)歷的污名化非常相似。約瑟夫·斯特拉蒙多(Joseph A. Stramondo)指出,腦機(jī)接口應(yīng)被歸類為像拐杖那樣的“輔助技術(shù)”,而非像藥品那樣的“治療技術(shù)”。輔助技術(shù)的使用者會(huì)被社會(huì)賦予“殘疾身份”,而治療技術(shù)則不具備這種特性。[25]一些使用腦機(jī)接口的癲癇患者認(rèn)為,腦機(jī)接口的存在無時(shí)無刻不在提醒自己,“我是一名癲癇患者”。[26]這一情況表明,社會(huì)對殘疾人的污名化已轉(zhuǎn)化成了對腦機(jī)接口使用者的污名化。
再次,如果腦機(jī)接口的使用者對他人造成傷害,應(yīng)該以誰作為懲罰對象?這便是腦機(jī)接口的責(zé)任歸屬問題。斯蒂芬·雷尼等人認(rèn)為,身體之于個(gè)人與腦機(jī)接口之于個(gè)人有一定區(qū)別。比如,為了“接住一個(gè)球”,基于身體的行為是“目標(biāo)導(dǎo)向”的,注意力集中在球上;而基于腦機(jī)接口的行為則是“控制導(dǎo)向”的,用戶的注意力集中在“讓設(shè)備怎樣移動(dòng)”上。[27]因此,腦機(jī)接口使用者造成的事故相比于個(gè)人直接造成的事故,須承擔(dān)的責(zé)任相對較小。但問題的關(guān)鍵不在于“要不要承擔(dān)全部責(zé)任”,而是“要承擔(dān)多大程度的責(zé)任”。對于這一問題,學(xué)界尚未形成共識性的研究結(jié)論。如果責(zé)任歸屬問題遲遲得不到妥善處理,腦機(jī)接口就有可能引發(fā)更多社會(huì)亂象。
最后,腦機(jī)接口技術(shù)的發(fā)展還會(huì)引發(fā)如何公正地分配腦機(jī)接口資源問題。使用腦機(jī)接口進(jìn)行疾病治療具有很高的技術(shù)門檻,需要支付高昂的代價(jià)。因此,除富裕階層或特定群體外,很少有人能夠分享到腦機(jī)接口資源,這種資源分配的不均衡會(huì)進(jìn)一步加劇社會(huì)的不平等。此外,腦機(jī)接口算法模型中也隱藏著不平等因素,而這些算法對使用者的行為卻有著巨大的影響力。[28]隨著深度學(xué)習(xí)等人工智能技術(shù)整合進(jìn)腦機(jī)接口,算法“黑箱”帶來的挑戰(zhàn)愈發(fā)嚴(yán)峻,即使它是公開透明的,研究人員也很難甄別出隱含在算法中的歧視性條款。因此,腦機(jī)接口不僅需要公平的分配,以確保弱勢群體對腦機(jī)接口的可及性,同時(shí)還需要一種“非歧視性編程技術(shù)”,以確保弱勢群體不被腦機(jī)接口系統(tǒng)性歧視。
總之,在推動(dòng)腦機(jī)接口技術(shù)進(jìn)步的過程中,如何最大限度地規(guī)避其潛在的負(fù)面社會(huì)影響,有效應(yīng)對隱私保護(hù)、污名化、責(zé)任歸屬以及資源分配等多重挑戰(zhàn),已成為腦機(jī)接口技術(shù)發(fā)展中不可忽視的倫理難題。這些難題不僅呼吁社會(huì)要對腦機(jī)接口技術(shù)進(jìn)行更嚴(yán)格的規(guī)范和監(jiān)督,還要求我們在技術(shù)發(fā)展中始終重視腦機(jī)接口對社會(huì)公平與正義的影響,確保技術(shù)進(jìn)步能夠惠及更普遍的人群。
腦機(jī)接口研究的倫理治理
如前文所述,腦機(jī)接口在研究過程中暴露出了諸多令人擔(dān)憂的倫理問題,在物理、心理和社會(huì)等各個(gè)層面都對腦機(jī)接口的合倫理使用提出了挑戰(zhàn)。隨著腦機(jī)接口技術(shù)的迅猛發(fā)展,其應(yīng)用前景也變得越來越廣泛,未來可能出現(xiàn)的倫理難題也會(huì)變得日益復(fù)雜,我們對腦機(jī)接口進(jìn)行倫理治理的需求也就更加迫切。這引發(fā)我們進(jìn)一步思考:人腦與機(jī)器的融合究竟可以走多遠(yuǎn)、應(yīng)該走多遠(yuǎn)?怎樣才能盡可能規(guī)避腦機(jī)接口的倫理風(fēng)險(xiǎn),使其更好地造福于人類?
近年來,國際上的許多學(xué)者都對這些問題作出了回應(yīng),“構(gòu)建合倫理的腦機(jī)接口”已成為腦機(jī)接口倫理研究的前沿領(lǐng)域。面對“構(gòu)建合倫理的腦機(jī)接口”的要求,許多研究者都對腦機(jī)接口的研究、開發(fā)和應(yīng)用提出了建議,而這些建議可以歸為三個(gè)主要方面,即加強(qiáng)監(jiān)督管理、提升倫理素養(yǎng)與深化跨學(xué)科合作,以此應(yīng)對腦機(jī)接口帶來的倫理挑戰(zhàn)。
加強(qiáng)監(jiān)督管理。許多腦機(jī)接口領(lǐng)域的研究者都認(rèn)為,政府和有關(guān)機(jī)構(gòu)應(yīng)制定相關(guān)的法律法規(guī),對腦機(jī)接口的研究、開發(fā)和應(yīng)用過程進(jìn)行監(jiān)管,并且這些監(jiān)管手段應(yīng)涉及數(shù)據(jù)隱私保護(hù)、用戶知情同意的獲取以及防止技術(shù)濫用等諸多方面。例如,《指引》中就提到,“在人體上開展腦機(jī)接口研究,應(yīng)根據(jù)《涉及人的生命科學(xué)和醫(yī)學(xué)研究倫理審查辦法》等相關(guān)法規(guī)申請并通過倫理審查”“應(yīng)嚴(yán)格遵守《中華人民共和國個(gè)人信息保護(hù)法》、《中華人民共和國數(shù)據(jù)安全法》等相關(guān)法律法規(guī)和標(biāo)準(zhǔn)規(guī)范”以保障腦機(jī)接口的數(shù)據(jù)安全等。而在國際上也有學(xué)者指出:“對神經(jīng)設(shè)備的監(jiān)管需要與快速發(fā)展的神經(jīng)技術(shù)領(lǐng)域保持同步,或至少保持相關(guān)性。這不僅能確保市場利益最大化和避免潛在傷害,還能通過良好的實(shí)踐激勵(lì)行業(yè)遵守道德規(guī)范,推動(dòng)創(chuàng)新。”[29]基于這樣的考量,近期全球范圍內(nèi)有多項(xiàng)涉及腦機(jī)接口監(jiān)管的政策性文件出臺。美國食品藥品監(jiān)督管理局發(fā)布了多個(gè)涉及腦機(jī)接口倫理安全風(fēng)險(xiǎn)監(jiān)管的指導(dǎo)性文件,包括用于癱瘓和截肢患者的腦機(jī)接口研發(fā)的“跨越式指南”,以及涉及非侵入式腦機(jī)接口風(fēng)險(xiǎn)評估的“從頭分類路徑”倡議等。[30]
在加強(qiáng)關(guān)于腦機(jī)接口的監(jiān)管方面,研究者們提出了許多需要注意的倫理事項(xiàng),大體上可以概括為以下三點(diǎn)。第一,在腦機(jī)接口研究過程中需要加強(qiáng)相關(guān)的倫理審查。研究人員和開發(fā)者在設(shè)計(jì)和研究腦機(jī)接口時(shí),需要考慮其研究是否符合倫理審查的要求;倫理委員會(huì)在批準(zhǔn)相關(guān)研究時(shí),需要確保所有實(shí)驗(yàn)和應(yīng)用都符合倫理標(biāo)準(zhǔn),保護(hù)參與者的權(quán)益和隱私。例如,“神經(jīng)鏈接公司”在猴身上運(yùn)用腦機(jī)接口技術(shù),引發(fā)了實(shí)驗(yàn)動(dòng)物福利保護(hù)者們的擔(dān)憂;“神經(jīng)鏈接公司”在人體上進(jìn)行腦機(jī)接口實(shí)驗(yàn)時(shí),因其實(shí)驗(yàn)設(shè)計(jì)缺乏透明度和相關(guān)副作用不明確而受到公眾和倫理學(xué)家的指責(zé)。[31]這意味著倫理審查與科學(xué)研究前沿脫節(jié),如果不能讓倫理監(jiān)督緊跟科學(xué)實(shí)踐,科學(xué)研究將面臨失控的危險(xiǎn)。第二,立法機(jī)構(gòu)需要建立和完善相關(guān)法規(guī),為腦機(jī)接口技術(shù)的研發(fā)和應(yīng)用提供指導(dǎo)和規(guī)制。美國2040腦機(jī)接口設(shè)備工作組認(rèn)為,腦機(jī)接口帶來的責(zé)任歸屬問題亟需完善相應(yīng)的立法,以規(guī)避腦機(jī)接口普及后可能帶來的各種法律問題,通過法律途徑對“制造商、雇主或用戶何時(shí)應(yīng)對腦刺激的意外后果負(fù)責(zé)、誰應(yīng)該對腦機(jī)接口和用戶相互適應(yīng)所導(dǎo)致的行為負(fù)責(zé)”等問題作出規(guī)定。[32]這些法規(guī)可以避免腦機(jī)接口技術(shù)被不良商家濫用,減輕了科學(xué)家對自身成果負(fù)面社會(huì)效益的擔(dān)憂。第三,在臨床中,我們也應(yīng)該實(shí)施更嚴(yán)格的知情同意程序,以增進(jìn)用戶對腦機(jī)接口相關(guān)風(fēng)險(xiǎn)與收益的理解。這一過程不僅涉及向用戶提供詳細(xì)的信息,還應(yīng)確保他們充分理解所涉及的風(fēng)險(xiǎn)、收益以及可能的替代方案。鑒于腦機(jī)接口服務(wù)對象有其特殊性,我們需要采用特別設(shè)計(jì)的溝通方法,如使用輔助技術(shù)或依賴熟悉患者情況的醫(yī)護(hù)人員進(jìn)行解釋,以確?;颊哒嬲斫庀嚓P(guān)信息。[33]這并不是違反倫理原則,恰恰相反,這些基于倫理原則的替代方案,才是因地制宜地遵守科技倫理要求、降低研究人員接受倫理審查非必要成本的重要手段。
面對腦機(jī)接口的技術(shù)發(fā)展與倫理限制之間的張力,以美國為首的發(fā)達(dá)國家并沒有教條地維持原本的倫理程序,而是采取了富有彈性的策略。在腦機(jī)接口的研究過程中,美國人類研究保護(hù)辦公室以及各機(jī)構(gòu)的倫理審查委員會(huì)負(fù)責(zé)確保腦機(jī)接口的技術(shù)研發(fā)不會(huì)對人類受試者產(chǎn)生危害;美國食品藥品監(jiān)督管理局、美國消費(fèi)品安全委員會(huì)和美國聯(lián)邦貿(mào)易委員會(huì)則負(fù)責(zé)對腦機(jī)接口產(chǎn)品的銷售與使用進(jìn)行監(jiān)管。其中,所有的侵入式腦機(jī)接口和某些非侵入式新腦機(jī)接口都由美國食品藥品監(jiān)督管理局監(jiān)管。由于傳統(tǒng)的審批流程非常緩慢,因此,美國食品藥品監(jiān)督管理局推出了“突破性設(shè)備計(jì)劃”(BDP),便利了相關(guān)腦機(jī)接口設(shè)備的安全審查,使得腦機(jī)接口技術(shù)從研發(fā)到應(yīng)用的過程大幅縮短,力求以這種方式在倫理保護(hù)和技術(shù)發(fā)展之間找到一個(gè)平衡點(diǎn)。
提升倫理素養(yǎng)。加強(qiáng)對腦機(jī)接口研究的監(jiān)管是必要的,但監(jiān)管手段常常滯后于技術(shù)的發(fā)展速度,以致一些不符合倫理原則的行為可能會(huì)逃脫現(xiàn)有的監(jiān)管框架。[34]因此,單純地依賴“他律”的手段可能不足以應(yīng)對這一問題,提升倫理素養(yǎng)作為一種“自律”的手段顯得尤為重要。這不僅意味著腦機(jī)接口領(lǐng)域的研究人員需要進(jìn)一步增強(qiáng)倫理意識,還意味著公眾對腦機(jī)接口技術(shù)的基本認(rèn)知以及對自身權(quán)利與義務(wù)的理解都需要提升。
一方面,對于腦機(jī)接口的研發(fā)人員和開發(fā)腦機(jī)接口的科技公司而言,科研倫理與商業(yè)倫理素養(yǎng)的提升至關(guān)重要。圖比格等人指出,腦機(jī)接口研究人員和公眾之間存在一定程度的知識、權(quán)利地位不平等現(xiàn)象,而科技公司在利益驅(qū)動(dòng)下有可能給公眾安全帶來威脅,這就要求研究人員能夠識別腦機(jī)接口可能帶來的加劇社會(huì)不平等、侵犯精神隱私、創(chuàng)造新的剝削形式等倫理問題,并且要求研究人員面對這些不確定性因素作出負(fù)責(zé)任的行動(dòng),“履行維護(hù)公眾信任的義務(wù)”。[35]還有學(xué)者指出,腦機(jī)接口技術(shù)的發(fā)展也對研究者們的倫理教育提出了要求,匹茲堡大學(xué)和卡內(nèi)基梅隆大學(xué)的神經(jīng)科學(xué)團(tuán)隊(duì)都進(jìn)行了類似的嘗試,召集神經(jīng)科學(xué)家和神經(jīng)技術(shù)工程師每月參與一次半結(jié)構(gòu)化討論,對神經(jīng)科學(xué)與神經(jīng)技術(shù)中出現(xiàn)的爭議性倫理案例進(jìn)行研究與批判性反思。[36]這種教育形式有助于腦機(jī)接口研究者們自覺遵守倫理準(zhǔn)則,以高度的社會(huì)責(zé)任感,審慎運(yùn)用技術(shù),尊重用戶的權(quán)益和隱私,維護(hù)公眾的信任。
另一方面,對于腦機(jī)接口的使用者來說,科技和倫理素養(yǎng)的提升也能幫助用戶規(guī)避腦機(jī)接口帶來的相關(guān)風(fēng)險(xiǎn)。我們可以預(yù)想,腦機(jī)接口可能會(huì)在未來進(jìn)入工作場所,人們可以通過將大腦與計(jì)算機(jī)直接連接,更高效地操控設(shè)備、處理信息,進(jìn)一步提高生產(chǎn)力和工作效率。然而,一些學(xué)者指出,將接口納入工作場所可能存在諸多倫理爭議,相關(guān)問題必須得到審慎的討論。[37]有學(xué)者提出了公民享有“神經(jīng)權(quán)”(neurorights)的倡議,呼吁民眾要意識到自己擁有“神經(jīng)權(quán)”,其中包括決定自己的數(shù)據(jù)是否被共享、在沒有外部神經(jīng)技術(shù)操控的情況下作出自主決定、確保自己的心靈隱私不受侵犯、平等地獲得腦機(jī)接口等神經(jīng)技術(shù)以及免受偏見和歧視等權(quán)利。[38]
除了倫理素養(yǎng)外,公眾對科技的認(rèn)知和態(tài)度也將直接影響腦機(jī)接口技術(shù)的推廣和應(yīng)用。有研究顯示,公眾更容易接受非侵入式腦機(jī)接口,而對侵入式腦機(jī)接口保持警惕,這可能會(huì)影響腦機(jī)接口的發(fā)展趨勢。[39]因此,科普教育和公眾參與在腦機(jī)接口技術(shù)的發(fā)展過程中起著至關(guān)重要的作用。通過透明的信息披露和積極的公眾參與,可以提高公眾對腦機(jī)接口技術(shù)的理解和信任,減少對腦機(jī)接口的盲目恐懼,在一定程度上避免用戶誤用和濫用腦機(jī)接口,以此促進(jìn)腦機(jī)接口技術(shù)的發(fā)展。應(yīng)通過教育和宣傳活動(dòng),提高社會(huì)整體對腦機(jī)接口技術(shù)的認(rèn)知水平,幫助公眾正確看待和使用該技術(shù),同時(shí)促進(jìn)公眾在腦機(jī)接口技術(shù)發(fā)展中的參與和監(jiān)督。[40]
深化跨學(xué)科合作。腦機(jī)接口作為一個(gè)多學(xué)科交叉的研究領(lǐng)域,所涉及的科學(xué)與技術(shù)領(lǐng)域包括認(rèn)知心理學(xué)、醫(yī)學(xué)、生物工程、電子工程以及人機(jī)交互技術(shù)等。不同領(lǐng)域?qū)τ谀X機(jī)接口的關(guān)切點(diǎn)不盡相同。譬如,醫(yī)學(xué)與生物工程更關(guān)注大腦結(jié)構(gòu)和相關(guān)電信號的捕捉技術(shù);認(rèn)知心理學(xué)和人機(jī)交互技術(shù)更側(cè)重于關(guān)注用戶的認(rèn)知、體驗(yàn)與感受;倫理學(xué)家更關(guān)注腦機(jī)接口對自主性、責(zé)任、同一性等傳統(tǒng)倫理原則的挑戰(zhàn);科學(xué)家則更關(guān)注安全和風(fēng)險(xiǎn)問題。因此,我們在開發(fā)合倫理的腦機(jī)接口時(shí),同樣也需要跨學(xué)科合作,以共同解決腦機(jī)接口研究、開發(fā)與應(yīng)用過程中遇到的倫理難題,推動(dòng)腦機(jī)接口健康有序的發(fā)展。
一方面,在倫理規(guī)則制定過程中,我們需要關(guān)注腦機(jī)接口研究、開發(fā)與應(yīng)用中不同利益相關(guān)方的核心倫理關(guān)切,促進(jìn)各方溝通。例如,患者和用戶可能會(huì)擔(dān)心數(shù)據(jù)隱私和安全問題,需要確保他們能夠掌控自己的大腦活動(dòng)數(shù)據(jù),避免這些數(shù)據(jù)被商家濫用。然而,最近的一項(xiàng)調(diào)查結(jié)果顯示,相關(guān)技術(shù)研發(fā)者對腦機(jī)接口數(shù)據(jù)隱私權(quán)的態(tài)度是復(fù)雜的,他們既承認(rèn)個(gè)人應(yīng)該對自己的神經(jīng)數(shù)據(jù)擁有一定的控制權(quán),但又不應(yīng)該是“無限的控制權(quán)”,否則相關(guān)研究將很難展開。[41]可見,在腦機(jī)接口的研究、開發(fā)與應(yīng)用過程中,不同利益相關(guān)方之間存在著一定的利益沖突。因此,需要利益相關(guān)方在構(gòu)建合倫理腦機(jī)接口的過程中展開對話,增進(jìn)各方對腦機(jī)接口研究、開發(fā)與應(yīng)用倫理的理解。諾普夫(Sophia Knopf)等人曾指出,將腦機(jī)接口技術(shù)專家引入倫理框架之中并不一定能夠反映商業(yè)公司所關(guān)切的“倫理現(xiàn)實(shí)”問題,為此,神經(jīng)技術(shù)企業(yè)也需要根據(jù)自己的價(jià)值需求與倫理設(shè)想?yún)⑴c到腦機(jī)接口的倫理監(jiān)管原則的制定中來。[42]因此,倫理學(xué)家可以提供契機(jī),讓用戶、企業(yè)、科學(xué)家共同參與倫理原則的制定,避免因?yàn)楹鲆暷骋环?,形成不合理的倫理?fù)擔(dān)。
另一方面,在腦機(jī)接口倫理的理論反思方面,我們同樣需要加強(qiáng)不同學(xué)科之間的合作,唯有這樣我們才能更加全面地評估腦機(jī)接口技術(shù)的潛在風(fēng)險(xiǎn)和收益。例如,我們在關(guān)于倫理的討論中,需要從簡單描述倫理問題的階段,推進(jìn)到對不同倫理問題進(jìn)行權(quán)重分配的層面。我們需要解釋哪些倫理問題具有最高的優(yōu)先級,哪些倫理問題擁有中等重要性,以及哪些倫理問題在腦機(jī)接口未來的發(fā)展中可能具有較低的優(yōu)先級。[43]這種權(quán)重分配,不僅需要技術(shù)倫理專家深入社會(huì),考察公眾對腦機(jī)接口的道德態(tài)度與關(guān)切,還需要腦機(jī)接口一線科研人員和臨床工作者在腦機(jī)接口的實(shí)際研發(fā)與應(yīng)用中就相關(guān)倫理問題進(jìn)行反饋,以確保腦機(jī)接口倫理能夠切實(shí)指導(dǎo)腦機(jī)接口技術(shù)的發(fā)展。此外,還需要社會(huì)學(xué)家開展相關(guān)實(shí)證研究,調(diào)查腦機(jī)接口用戶與潛在用戶的需求,這有助于使腦機(jī)接口與用戶的切身利益保持一致,確保腦機(jī)接口的研究、開發(fā)與應(yīng)用不會(huì)與社會(huì)的價(jià)值規(guī)范發(fā)生沖突。[44]
因此,只有在多方協(xié)作的基礎(chǔ)上,我們才能更好地應(yīng)對腦機(jī)接口技術(shù)帶來的各種倫理挑戰(zhàn),確保腦機(jī)接口技術(shù)能最大程度地滿足用戶、企業(yè)、研究者等多方利益,最終實(shí)現(xiàn)造福全人類的目標(biāo)。
結(jié)語
2022年3月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)的《關(guān)于加強(qiáng)科技倫理治理的意見》明確指出:“將科技倫理要求貫穿科學(xué)研究、技術(shù)開發(fā)等科技活動(dòng)全過程,促進(jìn)科技活動(dòng)與科技倫理協(xié)調(diào)發(fā)展、良性互動(dòng),實(shí)現(xiàn)負(fù)責(zé)任的創(chuàng)新。”[45]這一指導(dǎo)意見也為中國腦機(jī)接口倫理治理指明了航向。作為生命科學(xué)和信息技術(shù)深度交叉融合的前沿新興技術(shù),腦機(jī)接口以其干預(yù)性、交互性和自動(dòng)性等技術(shù)特性,在物理、心理和社會(huì)層面帶來了更加復(fù)雜的倫理挑戰(zhàn)。為了有效應(yīng)對這些挑戰(zhàn),我們亟需加強(qiáng)監(jiān)督管理,提升倫理素養(yǎng),深化跨學(xué)科合作,從而確保腦機(jī)接口領(lǐng)域在合倫理的框架內(nèi)實(shí)現(xiàn)負(fù)責(zé)任的創(chuàng)新和發(fā)展。
當(dāng)前,中國的腦機(jī)接口技術(shù)正在飛速發(fā)展,信號解碼與行動(dòng)控制的精細(xì)程度不斷提升,相關(guān)應(yīng)用場景也在持續(xù)擴(kuò)展,并有望在不久的將來成為新質(zhì)生產(chǎn)力的重要組成部分。在大國博弈和“認(rèn)知戰(zhàn)”愈演愈烈的背景下,腦機(jī)接口等前沿神經(jīng)科技的戰(zhàn)略地位和應(yīng)用價(jià)值日益突出。面對這一趨勢,中國有必要在持續(xù)加大腦機(jī)接口研發(fā)投入的同時(shí),加快建立具有前瞻性的腦機(jī)接口倫理規(guī)范和監(jiān)督機(jī)制。
制定切實(shí)可行的腦機(jī)接口倫理規(guī)范,離不開結(jié)合中國實(shí)際對國際倫理治理經(jīng)驗(yàn)的積極借鑒,以及對技術(shù)走向的精準(zhǔn)預(yù)判。構(gòu)建協(xié)同高效的腦機(jī)接口監(jiān)督機(jī)制,既要依靠政府機(jī)關(guān)審查人員,也要依靠科技倫理專家,更要依靠積極支持科技倫理治理的廣大科學(xué)家。總之,腦機(jī)接口倫理治理,需要采用自律與他律相結(jié)合的方式穩(wěn)步推進(jìn)。唯有這樣,才能確保腦機(jī)接口技術(shù)能夠持續(xù)健康發(fā)展。
(本文系教育部人文社會(huì)科學(xué)重點(diǎn)研究基地重大項(xiàng)目“當(dāng)代認(rèn)知哲學(xué)基礎(chǔ)理論問題研究”的階段性成果,項(xiàng)目編號:22JJD720007;北京大學(xué)哲學(xué)系博士研究生楊軍潔、北京大學(xué)哲學(xué)系碩士研究生梁澤仁對本文亦有重要貢獻(xiàn))
注釋
[1]E. Mullin, "Watch Neuralink's First Human Subject Demonstrate His Brain-Computer Interface," Mar. 20, 2024, https://www.wired.com/story/neuralink-implant-first-human-patient-demonstration/.
[2]Reuters, "Neuralink Has Implanted Second Trial Patient with Brain Chip, Elon Musk Says," The Guardian, Aug. 4, 2024.
[3][31]D. Hurley, "Ethical Questions Swirl Around Neuralink's Computer-Brain Implants," Neurology Today, 2024, 24(10).
[4]L. Drew, "Elon Musk's Neuralink Brain Chip: What Scientists Think of First Human Trial," Nature, 2024(2).
[5]J. J. Vidal, "Toward Direct Brain-Computer Communication," Annual Review of Biophysics and Bioengineering, 1973, 2(1).
[6][11]《〈腦機(jī)接口研究倫理指引〉和〈人—非人動(dòng)物嵌合體研究倫理指引〉發(fā)布》,2024年2月2日,https://www.most.gov.cn/kjbgz/202402/t20240202_189582.html。
[7]L. A. Farwell and E. Donchin, "Talking off the Top of Your Head: Toward a Mental Prosthesis Utilizing Event-Related Brain Potentials," Electroencephalography and Clinical Neurophysiology, 1988, 70(6).
[8]J. R. Wolpaw, D. J. McFarland, G. W. Neat and C. A. Forneris, "An EEG-Based Brain-Computer Interface for Cursor Control," Electroencephalography and Clinical Neurophysiology, 1991, 78(3).
[9]N. Birbaumer, N. Ghanayim and T. Hinterberger et al., "A Spelling Device for the Paralysed," Nature, 1999, 398(6725).
[10]C. S. Nam, A. Nijholt and F. Lotte, Brain-Computer Interfaces Handbook: Technological and Theoretical Advances, CRC Press, 2018.
[12][16][30]V. Dubljevi? and A. Coin, Policy, Identity, and Neurotechnology: The Neuroethics of Brain-Computer Interfaces, Cham: Springer International Publishing, 2023, pp. 101-16; pp. 27-41; pp. 253-269.
[13][17]E. Klein, "Informed Consent in Implantable BCI Research: Identifying Risks and Exploring Meaning," Science and Engineering Ethics, 2016, 22(5).
[14][24]O. Müller and S. Rotter, "Neurotechnology: Current Developments and Ethical Issues," Frontiers in Systems Neuroscience, 2017, 11.
[15][27]S. Rainey, H. Maslen and J. Savulescu, "When Thinking is Doing: Responsibility for BCI-Mediated Action," AJOB Neuroscience, 2020, 11(1).
[18]E. Klein, B. Peters and M. Higger, "Ethical Considerations in Ending Exploratory Brain-Computer Interface Research Studies in Locked-in Syndrome," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).
[19]E. Hildt, "Multi-Person Brain-To-Brain Interfaces: Ethical Issues," Frontiers in Neuroscience, 2019, 13.
[20]F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).
[21]M. Sample, M. Aunos and S. Blain–Moraes et al., "Brain-Computer Interfaces and Personhood: Interdisciplinary Deliberations on Neural Technology," Journal of Neural Engineering, 2019, 16(6); F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).
[22]L. B. Andrew, "The Method of 'Principlism': A Critique of the Critique," The Journal of Medicine and Philosophy, 1992, 17(5).
[23]S. Naufel and E. Klein, "Brain-Computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).
[25]J. A. Stramondo, "The Distinction Between Curative and Assistive Technology," Science and Engineering Ethics, 2019, 25(4).
[26]F. Gilbert et al., "Embodiment and Estrangement: Results from a First-in-Human 'Intelligent BCI' Trial," Science and Engineering Ethics, 2019, 25(1).
[28]A. Wolkenstein, R. J. Jox and O. Friedrich, "Brain-Computer Interfaces: Lessons to Be Learned from the Ethics of Algorithms," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).
[29]I. C. McCall et al., "Owning Ethical Innovation: Claims about Commercial Wearable Brain Technologies," Neuron, 2019, 102(4).
[32]K. S. Gaudry et al., "Projections and the Potential Societal Impact of the Future of Neurotechnologies," Frontiers in Neuroscience, 2021, 15.
[33]M. Ienca and P. Haselager, "Hacking the Brain: Brain-Computer Interfacing Technology and the Ethics of Neurosecurity," Ethics and Information Technology, 2016, 18.
[34]A. D'Aloia and M. C. Errigo (eds.), Neuroscience and Law: Complicated Crossings and New Perspectives, Springer Nature, 2020, pp. 273-290.
[35]P. Tubig and D. McCusker, "Fostering the Trustworthiness of Researchers: SPECS and the Role of Ethical Reflexivity in Novel Neurotechnology Research," Research Ethics, 2021, 17(2).
[36]E. Hildt et al. (eds.), Building Inclusive Ethical Cultures in STEM, Cham: Springer International Publishing, 2024, pp. 245-262.
[37]M. Ahmed and P. Haskell-Dowland (eds.), Cybersecurity for Smart Cities: Practices and Challenges, Springer International Publishing, 2023, pp. 31-46.
[38]P. López-Silva and L. Valera (eds.), Protecting the Mind: Challenges in Law, Neuroprotection, and Neurorights, Springer International Publishing, 2022, pp. 157-161.
[39]S. Sattler, and D. Pietralla, "Public Attitudes Towards Neurotechnology: Findings from Two Experiments Concerning Brain Stimulation Devices (BSDs) and Brain-Computer Interfaces (BCIs)," PloS one, 2022, 17(11).
[40]J. Kögel and G. Wolbring, "What It Takes to be a Pioneer: Ability Expectations from Brain-Computer Interface Users," NanoEthics, 2020, 14(3).
[41]S. Naufel and E. Klein, "Brain-computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).
[42]S. Knopf, Sophia, N. Frahm and S. M. Pfotenhauer, "How Neurotech Start-ups Envision Ethical Futures: Demarcation, Deferral, Delegation," Science and Engineering Ethics, 2023, 29(1).
[43]N. Voarino, V. Dubljevi? and E. Racine, "TDCS for Memory Enhancement: A Critical Analysis of the Speculative Aspects of Ethical Issues," Frontiers in Human Neuroscience, 2017.
[44]O. C. van Stuijvenberg et al., "Developer Perspectives on the Ethics of AI-Driven Neural Implants: A Qualitative Study," Scientific Reports, 2024, 14(1).
[45]《中共中央辦公廳 國務(wù)院辦公廳印發(fā)〈關(guān)于加強(qiáng)科技倫理治理的意見〉》,2022年3月20日,https://www.moj.gov.cn/pub/sfbgw/gwxw/ttxw/202203/t20220320_451049.html。
A Study of Ethical Issues in Brain-Computer Interface Research and Development
Zhou Cheng
Abstract: As an emerging frontier technology that deeply integrates life sciences and information technology, brain-computer interfaces (BCIs) have seen rapid development in recent years, with significant breakthroughs occurring frequently. However, these advancements have also sparked numerous ethical debates. The challenges that BCIs pose to traditional ethical principles span physical, psychological, and social dimensions. With invasive BCIs already approved for clinical trials, the questions of how to construct ethically sound BCIs has become a focal point for neuroscientists, engineers, and ethicists worldwide. To mitigate the ethical risks associated with BCIs, it is crucial to strengthen regulation and management, enhance ethical awareness and literacy, and deepen interdisciplinary collaboration. By establishing comprehensive ethical guidelines and regulatory mechanisms, we can ensure that BCI technology cogently enhances human well-being.
Keywords: brain-computer interface, technological risk, ethical principle, ethical governance, interdisciplinary collaboration