【摘要】通用人工智能的開發(fā)和應用無疑都展現(xiàn)出了巨大的潛力,但由于其內(nèi)在復雜性,以及與其相關(guān)的不確定性,通用人工智能在法律界定和監(jiān)管方面仍面臨著挑戰(zhàn)。在推動技術(shù)進步的同時,需強化跨學科合作,以充分發(fā)掘通用人工智能和心理學的互補性;在明確界定通用人工智能責任歸屬的基礎上,提高通用人工智能透明度和可解釋性,并完善數(shù)據(jù)處理和保護規(guī)定,與此同時,提倡通用人工智能在心理學實踐中的倫理應用。這些措施將有助于通用人工智能在心理學領域的健康、安全和高效應用。
【關(guān)鍵詞】通用人工智能 心理學 法律 挑戰(zhàn)
【中圖分類號】TP29 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.14.008
【作者簡介】朱廷劭,中國科學院心理研究所研究員、博導,中國科學院行為科學重點實驗室副主任。研究方向為大數(shù)據(jù)心理學、 網(wǎng)絡挖掘、機器學習。主要著作有《大數(shù)據(jù)時代的心理學研究及應用》等。
人工智能(Artificial Intelligence,簡稱AI)這一概念誕生于1956年,由約翰·麥卡錫(John McCarthy)及其同仁首次提出,其核心思想是通過計算機系統(tǒng)模擬人類智能的過程。這一領域的發(fā)展歷程跨越了幾十年,期間有關(guān)AI的定義層出不窮,各種解讀和理解不斷涌現(xiàn)。然而,最被廣泛接受的定義依舊來自麥卡錫,他在2004年正式將AI定義為“制造智能機器,特別是智能計算機程序的科學和工程”。這一定義不僅揭示了AI的本質(zhì),也指出了其發(fā)展方向。近年來,人工智能領域得到了迅猛發(fā)展,分化出了眾多子領域,這些子領域的研究成果已經(jīng)被廣泛應用于各個行業(yè)和領域。其中,通用人工智能(Artificial General Intelligence,亦稱強人工智能,簡稱AGI)這一概念引起了越來越多的關(guān)注。AGI與傳統(tǒng)的AI有著顯著的區(qū)別,它被設計為具有高度自主性的系統(tǒng),其目標是在大多數(shù)產(chǎn)生經(jīng)濟價值的工作領域中超越人類的能力。AGI通常具有強大的理解、學習、適應和實施知識的能力,這使得它能夠展現(xiàn)出與人類相似甚至在一定程度上超出人類的認知能力。AGI的出現(xiàn)為人類的生產(chǎn)和精神活動帶來了前所未有的可能性,同時也帶來了一系列的挑戰(zhàn)。這些挑戰(zhàn)不僅涉及技術(shù)層面,更涉及倫理、法律等多個領域。因此,深入探究AGI,理解其在心理學領域中的潛在應用,以及伴隨其發(fā)展而來的道德和法律風險,就顯得至關(guān)重要。這不僅需要我們從技術(shù)角度出發(fā),更需要我們從心理學、倫理學、法學等多個角度進行深入研究和探討。
AGI概述及其法規(guī)要求
艾倫·圖靈(Alan Turing)曾猜想,如果一臺機器能夠模擬出人類的認知,那么我們就可以稱之為擁有智能。AGI的出現(xiàn)正是在追求這樣一種智能,即一種具有人類級別智能的、能夠理解和執(zhí)行任何認知任務的系統(tǒng),而不僅僅局限于特定的、有限的任務(Bhatti et al., 2023)。AGI的這一特性與大多數(shù)現(xiàn)有的人工智能系統(tǒng)形成鮮明對比,后者通常被設計和訓練來執(zhí)行特定的任務,如圖像識別或自然語言處理。具體而言,通用人工智能的設計理念,就是為了克服傳統(tǒng)AI在未經(jīng)特定訓練的新任務或環(huán)境中性能可能會大打折扣的問題,以實現(xiàn)在任何類型的任務上都能理解和學習。近年來,深度學習和圖卷積神經(jīng)網(wǎng)絡等先進的技術(shù)在處理非歐幾里得空間數(shù)據(jù)等復雜任務中顯示出其潛力(Bhatti et al., 2023),這標志著AGI的發(fā)展已經(jīng)取得了顯著的進步。然而,AGI仍面臨許多挑戰(zhàn),如決策過程的透明性和可解釋性,以及在無人監(jiān)督的情況下保證其行為的道德性和合法性。這些問題都在提示我們,AGI雖然是人工智能發(fā)展的一個重要方向,但其成為一種能夠在任何智能任務上表現(xiàn)出人類級別的性能的系統(tǒng),仍有著漫長的路要走。
在使用AGI或任何類型的AI的過程中,我們都需要嚴格遵循現(xiàn)有的倫理準則和法規(guī)要求,確保其在服務人類的同時,不會侵犯個人的隱私,保證數(shù)據(jù)安全,并維持公平性和透明性(Azam et al., 2023)。例如,歐盟出臺《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,簡稱GDPR)加強對個人數(shù)據(jù)的保護,包括數(shù)據(jù)收集、存儲、使用和傳輸?shù)确矫娴囊?guī)定(Meszaros et al., 2022)。中國則實施《中華人民共和國個人信息保護法》等法律法規(guī),明確數(shù)據(jù)主體的權(quán)利和數(shù)據(jù)處理者的義務(Ella, 2022)。除了法律要求,研究者同樣需要遵循一系列的倫理準則,以確保AGI的使用不會對個人和社會產(chǎn)生不公平或不合理的影響。這些準則包括尊重個人的自主權(quán)、保護個人的隱私和數(shù)據(jù)安全,以及確保AGI的決策過程的公平性和透明性(Meszaros et al., 2022)。在研究過程中,研究者需要確保研究對象的知情同意,同時在任何的研究報告或文獻中,都不能泄露用戶的個人隱私信息,以及有可能暴露個人身份的重要線索。
綜上所述,無論在歐洲還是在中國,通用人工智能的使用都需要遵循一系列的倫理準則和法規(guī)要求。這些準則和要求旨在保護個人的隱私和數(shù)據(jù)安全,同時也確保人工智能的使用不會對個人和社會造成危害。這正是我們在推進人工智能技術(shù)發(fā)展的同時,必須遵循的道德和法律原則。
AGI在心理學領域的潛在作用
通用人工智能在心理學的研究和實踐中的潛能是深遠且多元的。AGI的核心目標在于模擬人類的智能和適應性,這使得AGI在理解和模擬人類心理過程方面具有無可比擬的優(yōu)勢(Abdüsselam, 2023)。在心理學的研究領域,AGI的應用可以深化我們對復雜人類認知過程的理解。例如,AGI可以被用作一個強大的工具,模擬人類的決策過程,從而揭示人類是如何在面臨不確定性的情況下作出決策的(Wolff, 2023)。這種模擬不僅可以幫助我們理解決策過程的機制,還可以揭示人類如何處理信息、評估風險,以及如何在多種可能的選擇中作出最佳決策。此外,AGI還可以模擬人類的學習過程,以研究人們是如何從經(jīng)驗中學習和適應新的環(huán)境的(Abdüsselam, 2023)。這種模擬可以幫助我們理解學習的機制,包括記憶的形成、知識的獲取、技能的發(fā)展等。
在心理學的實踐領域,AGI也有可能發(fā)揮重要作用。例如,AGI可以用來開發(fā)更有效的心理治療方法。通過模擬人類的心理過程,AGI可以幫助心理治療師更好地理解他們面對的患者,從而提供更個性化和有效的治療(Irshad et al., 2022)。這種模擬可以幫助治療師更好地理解患者的心理狀態(tài),包括他們的情緒、思想、行為模式等。此外,一些基于AGI的聊天機器人已經(jīng)被應用于心理咨詢,幫助人們處理焦慮和壓力等問題(Gündoar and Niauronis, 2023)。這些機器人可以提供及時的反饋,幫助人們更好地管理情緒和應對壓力。
AGI還可以用來開發(fā)新的心理評估工具。通過分析人們的面部表情、語音和文本等信息,AGI可以識別出人們的情緒狀態(tài),這對于理解和模擬人類的心理過程具有重要作用(Zhao et al., 2022)。此外,利用AGI分析和解釋復雜的行為數(shù)據(jù),能夠提供更準確和詳細的心理評估(Mikkelsen et al., 2023)。這種評估可以幫助我們更好地理解人類的行為模式,包括他們的情緒反應、社交行為、決策過程等。
總體來說,AGI在心理學的潛在作用是廣泛的,從基礎研究到臨床實踐,都有可能受益于AGI的發(fā)展。但正如前述,盡管AGI的潛力巨大,但在實際應用中,我們還需要考慮到倫理和法律問題,如數(shù)據(jù)共享和隱私保護。這些問題需要我們在推動AGI應用的同時,保護個人的隱私和權(quán)益,確保AGI的發(fā)展在一個公平、公正和透明的環(huán)境中進行。
AGI的法律限制和面臨的挑戰(zhàn)
盡管世界各國對于通用人工智能的法律限制和監(jiān)管體系多種多樣,但我們可以發(fā)現(xiàn)一種普遍趨勢,即法律體系在不斷強調(diào)個人隱私保護、數(shù)據(jù)安全,以及保障AGI使用的公平性和透明性這些核心原則。然而,由于AGI的內(nèi)在復雜性,以及與其相關(guān)的不確定性,對AGI的法律界定和對其進行有效監(jiān)管仍面臨著挑戰(zhàn)。
首先,對于如何明確界定AGI的責任承擔,法律界尚未達成統(tǒng)一的共識。傳統(tǒng)法律中的責任歸屬大多是基于個體行為,而AGI作為一個無法進行主觀認知的機器實體,其行為如何納入現(xiàn)有的責任框架,無疑是一大挑戰(zhàn)。其次,如何確保AGI的決策過程具備透明性,也是一個有待解決的問題。由于AGI的決策?;趶碗s的算法和海量數(shù)據(jù),其過程往往難以解析和理解。因此,如何確保AGI決策的可審計性和可解釋性,是法律面臨的重要問題。最后,如何合法、安全地處理跨境數(shù)據(jù)傳輸是一個至關(guān)重要的問題。AGI的運作有賴于全球范圍內(nèi)的數(shù)據(jù)輸入,因此,對于跨境數(shù)據(jù)的傳輸、存儲和使用等方面,都需要明確的法律指引。
就當前而言,諸如GDPR和《中華人民共和國個人信息保護法》等法律條例都對數(shù)據(jù)處理者設定嚴格的法律責任,要求他們必須確保個人數(shù)據(jù)的安全和私密性,并且只能在明確、合法的目的下進行數(shù)據(jù)的收集和使用。這種法規(guī)對AGI的運作和發(fā)展提出了重大的挑戰(zhàn),因為AGI的功能發(fā)揮基本上依賴于對大量數(shù)據(jù)的處理和學習,這意味著AGI必須在嚴格遵守數(shù)據(jù)保護法規(guī)的前提下,才能進行有效的數(shù)據(jù)處理。值得一提的是,這些法律限制不僅關(guān)乎數(shù)據(jù)的處理,也涉及到AGI的具體應用,因此,需要進一步的法律和道德層面的探討。
AGI應用于心理學領域的相關(guān)建議
通用人工智能在心理學領域的應用既充滿機遇,也面臨挑戰(zhàn)。在推動技術(shù)進步的同時,我們要高度重視個人權(quán)益的保護以及公眾福祉的維護。通過對通用人工智能技術(shù)在心理學領域應用的相關(guān)問題進行深入探討,筆者提出以下建議。
建立和增強跨學科合作。隨著通用人工智能技術(shù)的日益發(fā)展和深化,其應用領域不斷擴展,心理學自然也囊括其中。但是,這種科技的前沿和復雜性使得單一學科難以全面深入地研究和應用AGI。例如,心理學家通常對AGI背后的計算機科學理念和技術(shù)不夠熟悉,而計算機科學家則可能缺乏對人類心理過程和行為的深入理解。此外,AGI的使用過程中可能涉及一系列法律問題,包括但不限于數(shù)據(jù)保護、隱私權(quán)以及責任歸屬等,需要法律專業(yè)人士的介入和指導。這一點在心理學領域的AGI應用中更為重要,由于涉及到大量的敏感個人數(shù)據(jù),如心理咨詢記錄、診斷信息、治療方案等,因此,有必要建立一種跨學科的合作機制,鼓勵和引導心理學家、計算機科學家和法律專業(yè)人士的全面參與。
建立和增強跨學科合作的預期目標是將各個領域的專業(yè)知識和技能有機結(jié)合,從而更好地研究和應用AGI在心理學領域的可能性。心理學家可以通過他們對人類心理過程和行為的深入理解來幫助計算機科學家構(gòu)建更為符合實際的模型和算法。例如,心理學可以提供有關(guān)心理疾病的診斷和治療方法,以及人類情緒、動機和行為等方面的研究成果,用以優(yōu)化AGI的心理治療程序。計算機科學家則可以利用這些理解來改善AGI的設計和運行,使其能夠更有效地處理和利用心理學數(shù)據(jù),從而提高其在心理治療中的應用效果。與此同時,法律專業(yè)人士可以為這種合作提供法律建議,解釋相關(guān)法規(guī),預防法律風險,以及在出現(xiàn)法律問題時提供解決方案。這樣的跨學科合作不僅能夠推動AGI在心理學領域的研究和應用,也有助于預防和解決可能出現(xiàn)的法律問題,從而確保AGI在法律上的合規(guī)性和在實際應用中的有效性。
明確界定AGI責任歸屬。隨著通用人工智能技術(shù)的快速發(fā)展和廣泛應用,其在諸如心理咨詢等領域引發(fā)的責任歸屬問題也越來越突出。具體來說,由于AGI系統(tǒng)具有自我學習和自我決策的能力,因此,在AGI的行為所導致的問題上,傳統(tǒng)“責任歸屬于制造商或用戶”的歸責模式可能無法完全適用。例如,如果一個AGI系統(tǒng)在提供心理咨詢建議的過程中犯了錯誤,是由制造商、程序員,還是用戶承擔責任?在一些復雜的情況下,比如,AGI系統(tǒng)基于用戶的輸入和環(huán)境的反饋進行自我學習與調(diào)整,進而導致問題的發(fā)生,該如何確定責任?這些都是目前面臨的挑戰(zhàn)。因此,我們需要建立一個新的、明確的責任框架,來應對AGI在心理咨詢等領域應用中可能出現(xiàn)的問題。
界定AGI開發(fā)和使用過程中的責任歸屬問題的預期目標,是確立一個盡可能明確的責任框架來幫助我們更好地理解和管理AGI的使用,特別是在諸如心理咨詢等涉及個人隱私和安全的領域。首先,這個責任框架可以為AGI制造商、程序員和用戶提供明確的指導,即在何種情況下需要承擔責任,從而可以更好地遵守法規(guī),并預防和管理風險。其次,明確的責任框架也有利于保護消費者和公眾的權(quán)益。如果AGI的行為導致問題的發(fā)生,消費者和公眾應該有權(quán)知道責任由誰承擔,并獲得相應的賠償。此外,明確的責任框架也有助于推動AGI的健康發(fā)展,因為制造商和程序員會更加重視AGI的設計和測試,以避免可能的責任風險。最后,為了實現(xiàn)上述目標,我們可能需要對現(xiàn)有的法律框架進行調(diào)整,以適應AGI的特性和能力??赡艿慕鉀Q方案包括設立特殊的法律實體來管理AGI的責任問題,或者設定一種新的責任歸屬模式,如共享責任。這些方案都亟需聯(lián)合立法機構(gòu)及各界人士進行深入的討論研究。
提高AGI透明度和可解釋性。通用人工智能的決策過程通?;趶碗s的深度學習模型,如神經(jīng)網(wǎng)絡等,并利用大規(guī)模數(shù)據(jù)進行訓練。這些深度學習模型的一個顯著特征是“黑箱”,即其決策過程往往難以理解和解釋。比如,當AGI在提供心理咨詢服務時,它可能根據(jù)患者的表述和歷史信息作出診斷和治療建議,但具體的決策過程(例如,AGI如何理解和解釋患者的表述、如何基于歷史信息作出決策等),通常難以追蹤和解釋。這種不透明性和不可解釋性不僅可能導致誤解和疑慮,也會不可避免地帶來法律和倫理問題。如果無法理解和解釋AGI的決策過程,那么確定責任可能會非常困難。因此,提高AGI的透明度和可解釋性是非常必要的。
提高AGI的透明度和可解釋性的預期目的是更好地理解與管理其決策過程,從而增加人們對AGI的信任,并降低可能的法律風險。具體來說,如果我們能夠理解AGI是如何作出決策的,那么當其決策出現(xiàn)問題時,我們就可以更容易地找出問題的原因。此外,透明和可解釋的決策過程也能夠增加人們對AGI的信任,人們可以更好地理解AGI是如何工作的,而不是簡單地接受其決策結(jié)果。為了實現(xiàn)這一目標,未來應當致力于研發(fā)新的工具和技術(shù),譬如,可解釋的機器學習算法,或者對AGI決策過程的可視化工具。這些工具和技術(shù)可以幫助人們理解AGI是如何作出決策的,從而增加人們對AGI的信任,并降低由于不透明決策過程帶來的法律風險。
完善數(shù)據(jù)處理和保護規(guī)定。通用人工智能的運作依賴于大量的數(shù)據(jù)輸入,因此,需要制定嚴格的數(shù)據(jù)處理和保護規(guī)定。在數(shù)據(jù)收集、存儲和使用的過程中,都必須尊重和保護個人隱私。此外,數(shù)據(jù)的使用必須在明確且合法的目的下進行,不能濫用個人數(shù)據(jù)。為了實現(xiàn)這一目標,一方面,需要借鑒和采納現(xiàn)有的數(shù)據(jù)保護法規(guī),例如,GDPR和《中華人民共和國個人信息保護法》;另一方面,雖然GDPR和《中華人民共和國個人信息保護法》等法律條例為數(shù)據(jù)的保護和使用提供了基本的法律框架,但它們并未針對AGI的特殊性進行詳細規(guī)定。AGI的功能及其在心理學領域的應用,使其對數(shù)據(jù)的需求和處理方式產(chǎn)生了特異性,這種特異性在現(xiàn)有的法律法規(guī)中并未得到充分的反映。比如,AGI在進行學習和優(yōu)化過程中,可能需要處理大量的個人心理健康數(shù)據(jù),這些數(shù)據(jù)往往具有極高的敏感性和隱私性。而現(xiàn)行的GDPR和《中華人民共和國個人信息保護法》均未詳細規(guī)定如何處理此類高度敏感的信息,以及如何在保護隱私的同時,確保AGI的有效學習和優(yōu)化。此外,AGI的決策過程通?;趶碗s的算法和模型,這意味著它的數(shù)據(jù)處理過程可能難以理解和解釋,這在現(xiàn)有的法律框架下也存在明顯的挑戰(zhàn)。譬如,GDPR中的“自動決策權(quán)”規(guī)定,個人有權(quán)不受完全基于自動化處理的決策的影響,然而,如何定義和執(zhí)行這一規(guī)定在AGI的應用中,尤其是在心理學應用中,仍然存在很大的不確定性和困難。
鑒于此,世界各國需要研究和制定一套針對AGI的數(shù)據(jù)處理和保護規(guī)定。這既需要深入理解AGI的運作機制和數(shù)據(jù)需求,又需要充分考慮數(shù)據(jù)主體的權(quán)益和社會公眾的利益。在該過程中,我們可以借鑒現(xiàn)行的數(shù)據(jù)保護法規(guī),但也不得不考慮對這些法規(guī)進行擴展和調(diào)整,以適應AGI的特殊性。具體來說,我們可能需要對如何處理高度敏感的個人心理健康數(shù)據(jù)進行明確規(guī)定,以及如何在復雜的AGI決策過程中確保透明度和可解釋性進行詳細的指導。這樣的規(guī)定不僅可以幫助我們保護個人隱私,也可以為AGI在心理學領域的應用提供法律依據(jù)和指引。
提倡AGI在心理學實踐中的倫理應用。隨著人工智能技術(shù)的發(fā)展,AGI將不可避免地應用到心理學實踐環(huán)節(jié)中。例如,一些基于AGI的心理治療系統(tǒng)可能在未來能夠高效、自動地為個體提供心理咨詢服務甚至是心理治療方案。然而,AGI系統(tǒng)的決策可能會受到訓練數(shù)據(jù)的影響,如果訓練數(shù)據(jù)存在偏見,那么AGI系統(tǒng)的決策也必然存在偏見。此外,由于AGI系統(tǒng)的決策過程是自動化的,因此,可能缺乏對患者自主性的尊重,以及對專業(yè)醫(yī)療和心理學標準的遵守。
提倡AGI倫理安全的預期目的是更好地保護患者的權(quán)益,預防倫理問題,以及提高AGI在心理學實踐中的應用質(zhì)量。具體來說,我們需要確保AGI系統(tǒng)的決策是在尊重患者自主性的基礎上進行的。這意味著AGI系統(tǒng)在提供心理咨詢和治療等服務時應該充分理解和尊重患者的意愿,如果患者不希望接受某種治療,那么AGI系統(tǒng)應該及時識別并終止該方案。此外,我們也需要確保AGI系統(tǒng)的決策是基于最新的科學證據(jù),并且符合專業(yè)的醫(yī)療和心理學標準。這意味著AGI系統(tǒng)在提供心理咨詢和治療服務時,應該根據(jù)最新的研究成果和臨床實踐標準,而不是僅僅依賴于訓練數(shù)據(jù)。為了達到這一預期,亟需建立一套具體的倫理準則和審查機制,以監(jiān)督AGI在心理學實踐中的應用。這套倫理準則和審查機制應該涵蓋AGI系統(tǒng)的設計、開發(fā)和應用各個階段,并且應該由專業(yè)人士進行監(jiān)督和審查,以確保AGI系統(tǒng)的決策真正符合倫理準則和醫(yī)療標準。
參考文獻
A. Veronese, A. Silveira and A. N. L. Espiñeira Lemos, 2019, "Artificial Intelligence, Digital Single Market and the Proposal of a Right to Fair and Reasonable Inferences: A Legal Issue Between Ethics and Techniques," UNIO – EU Law Journal, 5(2).
A. Gündo?ar and S. Niauronis, 2023, "An Overview of Potential Risks of Artificial General Intelligence Robots," Applied Scientific Research, (2)1.
N. Azam et al., 2023, "Data Privacy Threat Modelling for Autonomous Systems: A Survey From the GDPR's Perspective," IEEE Transactions on Big Data, 9(2).
U. A. Bhatti et al., 2023, "Deep Learning with Graph Convolutional Networks: An Overview and Latest Applications in Computational Intelligence," International Journal of Intelligent Systems, 28 February.
G. Bryce, 2022, "Privacy Without Persons: A Buddhist Critique of Surveillance Capitalism," AI and Ethics, 15 August.
D. A. Dourado and F. M. A. Aith, 2022, "The Regulation of Artificial Intelligence for Health in Brazil Begins with the General Personal Data Protection Law," Revista De Saúde Pública, 56.
G. Ella, 2022, "Ethical Regulation of Artificial Intelligence as a Factor of Financial and Banking Sector Security: China's Experience," Revista De Saúde Pública, 2.
F. Caccavale et al., 2022, To Be fAIr: Ethical and Fair Application of Artificial Intelligence in Virtual Laboratories, SEFI 50th Annual Conference of The European Society for Engineering Education, "Towards a New Future in Engineering Education, New Scenarios that European Alliances of Tech Universities Open up," Barcelona: Universitat Politècnica de Catalunya, pp. 1022-1030.
I. Kim et al., 2022, "Application of Artificial Intelligence in Pathology: Trends and Challenges," Diagnostics, 12(11).
J. G. Wolff, 2023, "The SP Theory of Intelligence, and Its Realisation in the SP Computer Model, as a Foundation for the Development of Artificial General Intelligence," Analytics, 2(1).
J. G. Mikkelsen et al., 2023, "Patient Perspectives on Data Sharing Regarding Implementing and Using Artificial Intelligence in General Practice - a Qualitative Study," BMC Health Services Research, 23(1).
Dubiński, 2022, "Evidence from Artificial Intelligence in General Administrative Procedure," Przegl?d Prawniczy Uniwersytetu im. Adama Mickiewicza, 14.
J. McCarthy, "What is AI? / Basic Questions," http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html.
J. Meszaros et al., 2022, "The Future Regulation of Artificial Intelligence Systems in Healthcare Services and Medical Research in the European Union," Frontiers in Genetics, 13.
M. S. Abdüsselam, 2023, "Qualitative Data Analysis in the Age of Artificial General Intelligence," Revista De Saúde Pública, 7(4).
N. K. Sørensen and U. Steen, 2022, "The Fundraiser's Transfer of Personal Data from the European Union to the United States in Context of Crowdfunding Activities," Nordic Journal of Commercial Law, 2.
P. A. Utami, Z. Zulfan and B. Bahreisy, 2022, "Enforcement of Restrictions on Community Activities (PPKM) for the Emergency Period of Covid-19 (Certificate of Vaccination Identification with Artificial Intelligence) in Terms of Indonesia's Criminal Justice System," Proceedings of Malikussaleh International Conference on Law, Legal Studies and Social Science (MICoLLS), 2.
S. Irshad, S. Azmi and N. Begum, 2022, "Uses of Artificial Intelligence in Psychology," Journal of Health and Medical Sciences, 5(4).
A. M. Turing, 2009, "Computing Machinery and Intelligence," In R. Epstein, G. Roberts and G. Beber, (eds.), Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Springer Netherlands, pp. 23-65.
T. Voloshanivska, L. Yankova and O. Tarasenko, 2022, "About Data Protection Standards and Intellectual Property Regulation in the Digital Economy: Key Issues for Ukraine," Baltic Journal of Economic Studies, 8(4).
T. Zhang and C. Fu, 2022, "Application of Improved VMD-LSTM Model in Sports Artificial Intelligence," Computational Intelligence and Neuroscience, 14 July; R. Woroniecki and M. L. Moritz, 2023a, "A Critical Reflection on Analytics and Artificial Intelligence Based Analytics in Hospitality and Tourism Management Research," International Journal of Contemporary Hospitality Management, (35)8.
R. Woroniecki and M. L. Moritz, 2023, "Investigating the Human Spirit and Spirituality in Pediatric Patients with Kidney Disease," Front Pediatr, 11.
J. Zhao et al., 2022, "Cognitive Psychology-based Artificial Intelligence Review," Front Neurosci, 16.
An Analysis of the Application of AGI in the Field of Psychology
Zhu Tingshao
Abstract: With great development and application potentiality, AGI still faces challenges from legal definition and supervision in law enforcement due to its inherent complexity and related uncertainty. To promote its application, interdisciplinary collaboration needs to be strengthened to fully explore the complementarity between AGI and psychology. Based on a well-defined responsibility of AGI, such measures should be adopted to improve its transparency and interpretability, to formulate strict data processing and protection regulations for its healthy, safe and efficient application in psychology.
Keywords: AGI, psychology, law, challenge