国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

醫(yī)學(xué)人工智能威脅論的哲學(xué)辨析*

2021-12-01 05:50:42趙亮英
醫(yī)學(xué)與哲學(xué) 2021年24期
關(guān)鍵詞:威脅論腦機醫(yī)學(xué)

趙亮英

2017年1月4日,在AlphaGo打敗世界圍棋冠軍柯潔前夕,四川成都進行了一場人類與醫(yī)學(xué)人工智能(artificial intelligence,AI)的另一場對戰(zhàn):463名超聲醫(yī)生對戰(zhàn)一個名為“安克偵”的甲狀腺腫瘤超聲輔助偵測軟件,結(jié)局是“安克偵”與醫(yī)生們打成平手;但業(yè)界認為在效率上,其實AI已經(jīng)超過了醫(yī)生。這一結(jié)果極大地促進了醫(yī)學(xué)AI的迅猛發(fā)展,但同時相關(guān)的爭論也越來越激烈,例如,AI將會取代人類醫(yī)生嗎?當(dāng)未來我們面對的醫(yī)生是AI時,我們該怎么辦?它可以信任嗎?它會不會只是把我們當(dāng)成和其他人無差別的“機器”又或者只是一堆“數(shù)據(jù)”來處理?經(jīng)過AI改造的人可能成為一種新人類嗎?等等。這些問題既是確定當(dāng)前醫(yī)學(xué)AI發(fā)展方向需要解決的問題,同時也是倫理學(xué)和哲學(xué)爭論的焦點。本文將從心靈哲學(xué)和道德哲學(xué)的角度對相關(guān)概念和問題加以厘清。

1 醫(yī)學(xué)AI威脅論的三種論點

近年來,隨著人工智能技術(shù)的飛躍性發(fā)展,大數(shù)據(jù)時代的醫(yī)學(xué)革命也將隨之到來。當(dāng)前醫(yī)學(xué)AI的運用幾乎已經(jīng)涉及醫(yī)學(xué)的所有領(lǐng)域,包括對疾病進行觀察、評估、治療和護理管理等,甚至有一些私人診所已經(jīng)出現(xiàn)了“AI醫(yī)生”。醫(yī)學(xué)AI的發(fā)展有利于共享醫(yī)療資源,促進醫(yī)療資源大眾化、公平化,對于提升人類整體的生命健康和福祉都是極為有利的;但是,通過運用AI增強人類的基因、身體能力,甚至是干預(yù)生命發(fā)展軌跡,也引起了諸多學(xué)者的不安和顧慮,進而激發(fā)了關(guān)于醫(yī)學(xué)AI威脅的各種論爭。厘清此中的種種論點,可以讓我們更加理性地理解和把握醫(yī)學(xué)AI的發(fā)展現(xiàn)狀和未來趨勢。

在詳細分析醫(yī)學(xué)AI對人類的威脅是否成立又或者在哪種程度上成立前,我們需要先了解關(guān)于AI的基本概念。美國哲學(xué)家約翰·塞爾(John R.Searle)[1]在20世紀(jì)60年代就提出了強AI的概念,并與弱AI相區(qū)別?,F(xiàn)代生活包括醫(yī)學(xué)領(lǐng)域使用的AI技術(shù),主要是通過算法程序使AI模擬人類的“心靈”系統(tǒng),讓其擁有多層次的復(fù)雜推理或?qū)W習(xí)功能,進而讓AI“自主”完成相關(guān)行為,這種技術(shù)被學(xué)界稱之為弱AI。社會各界對AI技術(shù)發(fā)展的擔(dān)憂,甚至認為AI將是人類社會的“掘墓人”,主要是來自對強AI的擔(dān)憂。一般而言,強AI是指可能像人類一樣具有自主意識和思維能力的AI,從而與弱AI有質(zhì)的區(qū)別。AI威脅論主要就是指這種具備像人類一樣具有自我意識和自由意志,又同時擁有了各種“超級能力”的AI會對人類造成怎樣的威脅?根據(jù)達爾文的生物進化論,強者生存,優(yōu)勝劣汰,這種強AI會不會對人類取而代之,成為一種新的物種?又或者使人類成為AI的附屬品甚至是奴隸等。這種AI威脅論的核心和實質(zhì)就是對AI具有了自我意識之后一系列問題的思考和擔(dān)憂,這也是醫(yī)學(xué)AI威脅論的來源之一。例如,會不會出現(xiàn)這種具有自我意識的AI醫(yī)生?如果出現(xiàn)了,它們是否可以完全替代人類醫(yī)生?人類能否控制這種全能的AI醫(yī)生?等等。

如果說具有人類“心靈意識”的AI醫(yī)生是否可能,是關(guān)于強AI的、未來的、“不可知”問題,因而不在一些學(xué)者和研究者的討論范疇內(nèi);但現(xiàn)實中各種醫(yī)學(xué)增強計劃的出現(xiàn)和相關(guān)研究成果地爆出,刺激并引發(fā)了新一輪關(guān)于醫(yī)學(xué)AI威脅論的爭論。例如,這幾年聲名大噪的特斯拉公司CEO埃隆·馬斯克(Elon Musk)的“腦機融合人”計劃,試圖通過醫(yī)學(xué)AI手段增強人類的各種能力,包括記憶、認知和運算等,不僅要增強人類的身體能力,還包括干預(yù)、塑造人類的思想意識。但是,這種“腦機融合人”還是自然人嗎?對于AI在這類領(lǐng)域的研究和運用會不會重新改寫人類物種的性質(zhì)?我們該如何對待腦機融合人引發(fā)的倫理、法律問題?等等。這是醫(yī)學(xué)AI威脅論的第二個來源,即通過醫(yī)學(xué)AI增強人類所帶來的威脅。

此外,在各種政策和世界潮流的刺激下,“AI+醫(yī)療”近年來受到了各國科技巨頭和企業(yè)的青睞,爭相涌入醫(yī)學(xué)AI的研究和實踐中。但是,當(dāng)前AI在醫(yī)學(xué)領(lǐng)域的運用和發(fā)展還是處在一個低水平和不完善階段,確切地說,還只是處于弱AI技術(shù)發(fā)展的起步階段,業(yè)界不僅沒有明確醫(yī)學(xué)AI的安全系統(tǒng)評估標(biāo)準(zhǔn),也沒有專門的法律法規(guī)規(guī)范醫(yī)生和AI技術(shù)人員的權(quán)責(zé),從而引發(fā)了對醫(yī)學(xué)AI服務(wù)的不信任;加上當(dāng)前因AI技術(shù)的不完善、數(shù)據(jù)偏差、數(shù)據(jù)泄露造成的隱私泄露和安全事故等問題頻頻出現(xiàn),進一步激發(fā)了業(yè)內(nèi)外對醫(yī)學(xué)AI發(fā)展的擔(dān)憂。這是關(guān)于醫(yī)學(xué)AI威脅論的第三種考量。

需要注意的是,以上三種AI威脅論的爭論要點不盡相同,要區(qū)別對待。第一種醫(yī)學(xué)AI威脅論的關(guān)鍵點在于:AI醫(yī)生是否可能具有人類的意識從而對人類造成威脅;這實際上是涉及哲學(xué)上的“意識難題”(the hard problem of consciousness )或強AI是否可能的問題,即如何用物理方法或科學(xué)方法來說明我們?yōu)槭裁淳哂兄饔^性的感受性和意向性意識的問題[2]。對這個問題更多的是哲學(xué)和科學(xué)理論上的論爭與碰撞。第二種AI醫(yī)學(xué)增強技術(shù)和第三種醫(yī)學(xué)AI運用威脅論,其關(guān)注點在于現(xiàn)實醫(yī)學(xué)AI的研究、運用和未來發(fā)展趨勢,涉及的是我們要如何運用AI技術(shù)以及當(dāng)前醫(yī)學(xué)AI要如何發(fā)展、向著哪里發(fā)展的問題,是現(xiàn)實的實踐問題。接下來,筆者將對這三種威脅論一一給出分析。

2 醫(yī)學(xué)AI威脅與意識難題

前面已經(jīng)提到,AI可以分為強AI和弱AI,所謂醫(yī)學(xué)AI威脅論首當(dāng)其沖就是有沒有可能出現(xiàn)像人類一樣具有自我意識和自由意志的AI醫(yī)生?隨后才有AI醫(yī)生是否可以信任,它是否會對人類醫(yī)生取而代之等系列問題。該威脅論的關(guān)鍵點就在于因強AI的出現(xiàn)而引發(fā)了對未來醫(yī)生命運甚至是人類命運的擔(dān)憂和恐慌。那么,強AI是否可能呢?也即是說,具有意識和自由意志的AI醫(yī)生可能嗎?這不僅是一個關(guān)于AI技術(shù)發(fā)展的科學(xué)難題,更是一個哲學(xué)問題。AI醫(yī)生能否產(chǎn)生“意識”,其實就是追問意識的本質(zhì),這是關(guān)于意識的“難題”;也即是要從哲學(xué)和科學(xué)的角度解釋清楚具有第一人稱特點的“意識”是如何產(chǎn)生的、與物理結(jié)構(gòu)(大腦)如何發(fā)生關(guān)系或作用的問題。倘若能夠論證純粹由物理結(jié)構(gòu)組成的AI醫(yī)生不可能產(chǎn)生具有第一人稱特點、生物性質(zhì)的感受性“意識”,那么就可以消解第一種醫(yī)學(xué)AI威脅論,具體分析如下。

當(dāng)今世界知名的心智和語言學(xué)家約翰·塞爾在現(xiàn)代物理學(xué)和生物進化論的理論基礎(chǔ)上,提出了心靈理論的生物自然主義立場(biological naturalism),把意向性(intentionality)看成是人類主要的心靈現(xiàn)象,從意向性的角度展開了對人類心靈意識的研究,進而形成了塞爾關(guān)于語言哲學(xué)和心靈哲學(xué)的意向性理論。對于意識的本質(zhì),塞爾[3]提出了兩點:首先意識是一種自然的生物現(xiàn)象,是低層神經(jīng)過程在大腦系統(tǒng)突現(xiàn)的一種特征,這是意識的物理基礎(chǔ)。部分物理主義者也正是根據(jù)這一點,認為隨著科技的發(fā)展,AI的物理結(jié)構(gòu)必定能夠與人類大腦的神經(jīng)網(wǎng)絡(luò)相媲美,進而可以模仿大腦神經(jīng)功能,以解決AI的“意識難題”。但是他們都忽略了意識本質(zhì)的第二個特征,即意向性意識與大腦的特殊因果作用。

塞爾[4]的意向性理論中指出,意向性意識與大腦之間存在因果作用,但是這種因果作用并不是傳統(tǒng)休謨式的因果關(guān)系假定,而是具有自我指稱性質(zhì)(self-referential)的 “意向性因果關(guān)系”(intentional causation);正是這種特殊的意向性因果關(guān)系使得內(nèi)在的、主觀的心靈意識具有關(guān)指外部世界的能力。那么,具體意識是如何在人類的大腦中產(chǎn)生的呢?塞爾談道:“意向性是心靈借以內(nèi)在地表征(represent)世界上的物體和事態(tài)的特征。但是,我們的心靈與世界處于經(jīng)常地因果聯(lián)系之中的。當(dāng)我們看到某一事物時,我們所看的物體引起我們對它們的視覺經(jīng)驗。當(dāng)我們回憶過去的事件時,那些過去的事件引起我們現(xiàn)在的回憶?!崩?,假設(shè)“你看到了一朵鮮花,心情非常好”,如果有人問:“是什么引起你具有關(guān)于那朵花的視覺感受?”那么自然而然的回答肯定是:“我看到了那朵花?!痹谶@里,視覺經(jīng)驗,即關(guān)于那朵花的感受性意識本身既是產(chǎn)生視覺經(jīng)驗的原因,同時它又表示了視覺經(jīng)驗的結(jié)果。

也即是說,意向性因果關(guān)系的自我指稱性質(zhì)使得意識既是產(chǎn)生大腦微觀神經(jīng)過程的原因,同時也是大腦微觀神經(jīng)過程產(chǎn)生的結(jié)果,原因和結(jié)果是意向性意識狀態(tài)一枚硬幣的兩面,同時發(fā)揮作用[5]。意向性因果關(guān)系的特殊性決定了意向性意識的特殊性。塞爾[6]認為,意識是一種主觀本體論的存在,是一種主觀的、內(nèi)在的、定性的感知(sentience)或覺識(awareness)狀態(tài),只有當(dāng)意識被“主體”經(jīng)驗到時,它們才是存在的;并且這些感知或覺識的經(jīng)驗本身,就是存在的意識,是第一人稱的主觀本體存在。此外,塞爾[7]進一步由此斷定,人類意識的主觀本體論地位和物理世界的客觀本體論地位一樣,是我們所在的這個唯一的客觀世界所存在的兩種不同性質(zhì)的本體論,都是這個世界的原初存在,因而主觀本體論不能還原為客觀本體論的實在,具有不可還原性。

換言之,一方面,意識的產(chǎn)生與大腦的物理結(jié)構(gòu)密切相關(guān),是整個大腦和人身體相結(jié)合在一起、經(jīng)過上億年進化而來的生物系統(tǒng)所突現(xiàn)的一個特征;另一方面,意識主觀性特征具有特殊性:我們“經(jīng)驗”到意識的同時也是客觀神經(jīng)作用的過程,意識的產(chǎn)生過程同時也是人類具有意識感受的過程,是一枚硬幣的兩面。此外,筆者認為,相對于人類而言,這種第一人稱的主觀性特點是意識的“靈魂”所在,即人類的“靈魂”所在。所謂意識的不可還原性,主要就是指意識感受的主觀性和私人性,只能以內(nèi)省的方式被覺知,而不能被任何第三人稱的觀點加以驗證或解釋,更不能還原為任何物理的因果關(guān)系。正如內(nèi)格爾[8]所談到的,我們永遠也無法得知“成為一只蝙蝠是什么感受”。物理世界不存在感受性,只有主觀的心理世界才存在感受性(意識)。AI作為一種科技成果,仍然是以第三人稱視角進行的研究;即使隨著科技的發(fā)展,出現(xiàn)了全仿真人腦神經(jīng)結(jié)構(gòu)的AI,也無法產(chǎn)生人類意識,因為物理結(jié)構(gòu)產(chǎn)生的AI無法產(chǎn)生具有自我指稱性質(zhì)的因果力,因而無法產(chǎn)生具有第一人稱、主觀本體論特征的意識“感受”,當(dāng)然也無法讓AI體驗到人類的“意識”感受。

如果說“意識”是AI醫(yī)生與人類醫(yī)生的分割線,那么,AI醫(yī)生就不可能對人類醫(yī)生的存在構(gòu)成威脅,因為它終究只是一個技術(shù)工具,盡管它很“智能”,可以為我們提供很多數(shù)據(jù)、策略,給出最優(yōu)方案,但它只會是醫(yī)生的最佳助手,人類醫(yī)生的自我意識和自由意志是不可還原的。也即是說,具有像人類一樣具有自由意志和意識的全能AI醫(yī)生不可能,AI醫(yī)生也不可能成為一個獨立的道德主體和行為主體,如此也就不存在AI醫(yī)生能否替代人類醫(yī)生的問題。這樣,就消解醫(yī)學(xué)AI的第一個威脅論點。

3 醫(yī)學(xué)AI增強功能威脅與自由意志

前面分析表明,雖然強AI在概念上是完備的,但是由于意識的不可還原性,具有人類意識和自由意志的全能AI醫(yī)生不可能存在,進而可以消解強AI醫(yī)生威脅論;因此,如果醫(yī)學(xué)AI的威脅真實存在,那么也應(yīng)該是來自弱AI,即來自當(dāng)前醫(yī)學(xué)AI的應(yīng)用和發(fā)展中的威脅。當(dāng)前醫(yī)學(xué)AI的發(fā)展和運用具有兩重目的:醫(yī)學(xué)治療和醫(yī)學(xué)增強。前面提及的第二種和第三種威脅論點主要和醫(yī)學(xué)AI的這兩種運用相關(guān)。接下來,先來看有關(guān)醫(yī)學(xué)增強的威脅論點,筆者認為這才是醫(yī)學(xué)AI發(fā)展的真正威脅所在。

隨著生命科學(xué)和神經(jīng)科學(xué)的發(fā)展,醫(yī)學(xué)AI已經(jīng)不僅僅是用于診斷和治療疾病,諸多科研團隊和公司的直接目標(biāo)導(dǎo)向是要通過AI技術(shù)增強人類的各種能力,即“醫(yī)學(xué)增強”功能。簡單地說,所謂“醫(yī)學(xué)增強”或者“生物醫(yī)學(xué)增強”(biomedical enhancement)是指,通過生物醫(yī)學(xué)技術(shù),在分子層面甚至是更微觀的層次,對身體和大腦進行深度干預(yù)、改造和設(shè)計,使之具有超越自然人本身的各種能力[9],如進行基因改造、記憶移植、知識填充等。例如,前面提到的特斯拉公司的CEO馬斯克,據(jù)說正是基于對前面提到的強AI的焦慮,甚至是恐懼,想要先發(fā)制人,強大人類自己,從而創(chuàng)辦了Neuralink公司,試圖用腦機接口技術(shù)(brain-computer interface,BCI)把人類變成超人類。雖然其創(chuàng)辦Neuralink公司的動機我們無法求證,但是在2020年8月29日,Neuralink公司發(fā)布了他們關(guān)于腦機接口的最新成果:將指甲蓋大的小芯片植入小豬的大腦,以探測小豬腦神經(jīng)元活動,讀取小豬的腦部信息,已經(jīng)通過實現(xiàn)腦機接口的融合對于治療人類的腦部疾病及其他衍生疾病問題,具有劃時代意義和價值。2021年4月9日,Neuralink公司又展示了一只9歲的猴子用意念玩電子乒乓球游戲的視頻,實現(xiàn)“半機械人”或“腦機融合”的超級人類指日可待。正是類似這種腦機融合的醫(yī)學(xué)增強技術(shù)的運用,引發(fā)了各界對醫(yī)學(xué)AI的擔(dān)憂和論爭:經(jīng)過深度腦機融合的人還是自然人嗎?腦機融合人與自然人有什么區(qū)別?超級人類的出現(xiàn)會不會加劇社會的分化?等等[10]。筆者認為,這是AI醫(yī)學(xué)增強技術(shù)的最大威脅所在。

馬斯克的“腦機融合人”計劃的關(guān)鍵點在于腦機融合技術(shù)或者說是腦機接口技術(shù),其大概原理就是要在人腦中植入一個芯片,這個芯片可以實時讀取人腦電波,無線對外傳輸,從而可以代替人類的各種器官,實現(xiàn)與外部世界的互動。例如,在自然人類中,當(dāng)人早晨起床餓了,大腦會將想要吃早餐的信號傳遞到我的手和腳,讓手去拿面包或走進廚房做早餐;或者傳遞給聲帶,說出“我要吃早餐”的語言,通過身體的外部行為或語言表達并實現(xiàn)自己的意圖。但通過這個腦機融合技術(shù),當(dāng)人的大腦發(fā)出“我餓了”的信號時,這個信號可以通過芯片連接的超級電腦把人的需求翻譯出來,并生成各種指令,讓連接的電腦、機器人或其他設(shè)備替代人完成以上的各種行為。也即是說,當(dāng)你感覺累了,不想動了,你都可以通過你的意念控制或連接的機器人(或電腦)幫你完成你想做成的事情。還需要提醒注意的是,用意念控制機器只是Neuralink公司腦機融合技術(shù)發(fā)展的第一步計劃,下一步是要通過芯片達到記憶、知識、技能的移植,甚至在短時間內(nèi)就可以讓腦機融合人獲得一般人類無法擁有的各種超能力。倘若第二步計劃真能夠?qū)崿F(xiàn),那么通過芯片改變?nèi)祟惔竽X的運行方式,甚至通過芯片給它植入任何“操作者”希望它擁有的道德觀念、政治立場、思想意識等,進而改造人類意識,都將是可能的;也即是說,倘若馬斯克的“腦機融合人”計劃順利實施,科幻電影中擁有各種超能力的“超人”、武俠電影中的“意念”交流都不再科幻,甚至玄幻小說中的“靈魂替換”也不再是玄幻故事,因為人類記憶、能力、信息的儲存和移植,這不就意味人類“靈魂”的移植嗎?

2021年5月,Science發(fā)表了一篇關(guān)于腦機融合技術(shù)研究進展的論文《Abrain-computerinterfacethatevokestactilesensationsimprovesroboticarmcontrol》,文章指出:當(dāng)前的腦機融合技術(shù)主要是通過視覺反饋來幫助四肢癱瘓患者進行功能性運動,但是僅僅依靠視覺反饋會使得行動緩慢而且笨重,可以通過雙向BCI系統(tǒng),模擬已知的感覺運動回路的工程方法,在一定程度上實現(xiàn)對觸覺的反饋,以提升患者AI肢體的性能[11]。那么,這是否意味著人類的感受性意識可以還原為神經(jīng)運動呢?筆者認為,答案是否定的。根據(jù)文章中對人工觸覺系統(tǒng)的說明可以推知,觸覺反饋仍然是一種功能結(jié)構(gòu)上的反饋或模擬,或者說就是通過傳感器對神經(jīng)運動的刺激記錄人類觸摸到各種物體的神經(jīng)運動過程,再通過BCI系統(tǒng)指引AI肢體行為,以達到類似健全人類的感知-神經(jīng)-行為效果。但是,這并不意味著四肢癱瘓患者就真的能通過AI“感受”到這個“軟軟”的物體,從而行為上會小心翼翼,害怕它受到傷害或破壞,而只是通過AI傳感器的反饋并從BCI神經(jīng)數(shù)據(jù)庫辨別了這是個軟軟的物體、容易被傷害,然后再做出相應(yīng)的行為反應(yīng)。

雖然目前對腦機融合技術(shù)的研究仍然還只是處于初級階段,但是其原理基本是一致的;因此,Neuralink公司倘若是想通過醫(yī)學(xué)AI的發(fā)展,對人類意識,包括情感、欲望、喜好等感受性意識的直接移植,這是不可能的,因為意識不可還原;但是作為存儲的知識輸入或移植則是可能的,即把一個自然人的記憶、認知、情感、欲望“說”出來后,存儲到“芯片”或其他介質(zhì)中,再通過醫(yī)學(xué)AI技術(shù)接入大腦,就像在大腦中裝了一個存儲了各種“意識”的數(shù)據(jù)庫,進而對被移植人的“意識內(nèi)容”進行干擾或誘導(dǎo),達到改造意識的目的,這是可能的。那么,這個被植入他人記憶、情感、欲望和認知信息的腦機融合人,他是誰?能夠被“操作者”隨意“修改”,甚至編造記憶,進而影響其行為能力的腦機融合人還是人嗎?如果是人,通過醫(yī)學(xué)AI增強的“腦機融合人”對我們這種沒有增強過的“自然人”會構(gòu)成威脅嗎?如果不是人,只是另一種有著人類軀體的“AI”,那么我們能夠控制它們嗎?雖然筆者也認同,作為一種有利于整個人類身體健康福祉的新科技,我們應(yīng)該以包容和積極的態(tài)度去認識它們,但是當(dāng)這種技術(shù)發(fā)展顯然威脅到人類的生命延續(xù)和人類命運時,我們就應(yīng)該提高警惕,直面以上問題。

究竟什么算作“人”?或者我們更直白一點問,通過記憶移植、擁有超強認知和各種技能的“腦機融合人”是不是人?在直覺上,作為一個正常的、普通的自然人,我們是拒絕承認的,甚至是反感、恐懼的。為什么呢?因為不論是在常識還是在哲學(xué)討論中,一個正常人的核心或者靈魂是擁有“自我意識”或“自由意志”,這也是我們在前面分析并提到的強AI醫(yī)生與人類醫(yī)生的分界線,也即是說,“腦機融合人”是不是人就在于確定其是否擁有自我意識或自由意志。

雖然對于什么是“自由意志”在學(xué)界有各種解釋,但是筆者認為,所謂“自由意志”就是“我”能夠完全自主掌握自己的思想和信念,可以根據(jù)自己的情感、欲望、偏好和認知,進而做出各種判斷和行為方式。雖然這種“自由”在一定程度上會受到現(xiàn)有社會歷史條件的限制,但是這種限制是一種非常寬泛的影響或限制,可以看成是整個人類歷史文化的積淀作為一個人意識網(wǎng)絡(luò)的“背景預(yù)設(shè)”而存在;例如,我們理解并知道面包是用來吃的、手機是智能通訊工具、汽車是交通工具等。除此之外,我們對自己的思想和認知擁有絕對的選擇權(quán),對于我是誰?我想做什么,我怎么做,在我的意識認知中都具有自主選擇權(quán)。

“腦機融合人”通過醫(yī)學(xué)AI增強,可以借助芯片或其他介質(zhì)間接擁有前輩的知識、信息和記憶,這些知識、信息和記憶當(dāng)然會可以進一步影響“腦機融合人”的情感、欲望和行為方式等;那么這樣的“腦機融合人”還會有“自我意識”嗎?這個“腦機融合人”到底是誰?是前輩還是自己?或許有人會說,“腦機融合人”可以把前輩的認知和記憶等當(dāng)成是一種教科書的知識儲存,通過分辨“這是移植給我的記憶、知識和能力……”和“這是我自己的經(jīng)驗和認知……”而擁有自我意識。可能嗎?筆者認為答案是否定的,因為這兩者是不可分辨的。可以想象一下,我們從小通過學(xué)校、家庭教育和生活實踐中學(xué)習(xí)到的知識、經(jīng)驗、價值取向等與自己的欲望、情感、認知能力是可分辨的嗎?進入人類思想意識的這些記憶和認知,即使一開始我們能夠分清這是在學(xué)習(xí)“知識”的過程,但是在各種生活實踐和社會實踐中,這些認知必定會與我們的自我意識相互影響,直到相互融合。也即是說,腦機融合人擁有了不屬于自己的各種記憶和認知,必定會與自己的記憶、情感、欲望和認知相融合,進而影響其價值判斷和行為方式;在這個意義上,筆者認為腦機融合已經(jīng)不具有自由意志,其擁有的自我意識已經(jīng)是融合了“操作者”給它植入的認知信息,不是一個完全意義上的“人”了。

其次,前面我們還提到的Neuralink公司的第二步計劃,這一計劃一旦實現(xiàn),就可以根據(jù)需要對“腦機融合人”的欲望、情感、認知和行為方式進行干預(yù)、修改,甚至是設(shè)定,而不僅僅是植入信息;雖然前面分析已經(jīng)表明意識是不可還原的,但通過其他介質(zhì)在“腦機融合人”的頭腦中植入大量的“設(shè)定”信息以干擾其意識,這是可能的。倘若如此,被修改、干預(yù)和設(shè)計了各種情感、欲望和認知內(nèi)容的“腦機融合人”實際上就完全失去了“自我意識”和“自由意志”,只是一個有著人類肉體的超級AI。其中所隱含的威脅就更加明確了,例如,操縱這些超級AI的“控制者”會不會凌駕于所有自然人類之上?這些超級AI會不會被不法分子利用?誰將會成為這種“超級AI”?超級AI會不會脫離控制,成為一種“新型物種”進而對自然人取而代之?所有種種,都將成為可能。而且這些威脅一旦成為現(xiàn)實,其對人類命運的毀滅性打擊將是不可逆的?;蛟S還有人會說,可以通過各種倫理法規(guī)來限制這種腦機融合技術(shù)的發(fā)展,讓自然人和“腦機融合人”和平相處;的確,當(dāng)前世界各國對AI討論如此之熱烈,就是在找尋最恰當(dāng)?shù)姆绞絹硪龑?dǎo)和規(guī)范相關(guān)的研究和運用;但在真正的威脅來臨之前,我們需要理性認識醫(yī)學(xué)AI的發(fā)展進度,保持警惕和關(guān)注。

4 醫(yī)學(xué)AI治療中的倫理和安全威脅

此外,還有醫(yī)學(xué)AI在運用過程中所帶來的第三種威脅,即在醫(yī)學(xué)診斷和醫(yī)學(xué)治療過程中的權(quán)利和責(zé)任、技術(shù)安全與醫(yī)學(xué)倫理方面的威脅,那么這些威脅是否存在呢?首先,在醫(yī)學(xué)診斷方面,傳統(tǒng)醫(yī)學(xué)診斷,如中醫(yī)診斷的基本方法是“望聞問切”,在西醫(yī)中則是借助各種影像醫(yī)療技術(shù),基本要求就是需要“看”到病人的癥狀?,F(xiàn)代醫(yī)學(xué)AI在這一領(lǐng)域的發(fā)展迅速,人類也從中獲益不少,如本文一開始就提到的“安克偵”與463名超聲醫(yī)生的對戰(zhàn)。AI通過完備的數(shù)據(jù)儲存和超強的計算能力,可以“看”得更仔細、更深入、更全面,從而得出更加可靠和全面的數(shù)據(jù)。并且,基于醫(yī)學(xué)AI技術(shù)上發(fā)展起來的各種“云診斷”“AI醫(yī)生”等可以使得看病問診變得更加便捷以及大眾化,有利于促進實現(xiàn)醫(yī)療資源的公平化,全面提升人類健康水平和生存狀態(tài)。但是,AI診斷的主要方向就是通過“大數(shù)據(jù)”和“云計算”來判斷疾病的來源及癥狀,進而“計算”出各種治療方案及其治療效果。這一技術(shù)的進一步深入發(fā)展,必然會涉及“問詢”或者直接大數(shù)據(jù)查閱病人的生活習(xí)慣、做過什么事情、去過什么地方、身體基因有什么問題、家族有什么遺傳疾病等信息,這便引發(fā)了對個人隱私保護及信息安全的問題;包括AI所依據(jù)的病例信息從何而來、就診患者的隱私信息從何而來、由誰保存、誰有權(quán)查閱、如何保證這些信息數(shù)據(jù)不被泄露等,這些都是醫(yī)學(xué)AI發(fā)展中必然要面對和解決的現(xiàn)實問題。

其次,我們知道,在中醫(yī)的“望聞問切”中,有望其精神氣,聞其音是怒、喜、清脆還是渾厚,聞其身是香還是酸腐臭等,即便在西醫(yī)看診中,也是需要與病人面對面察言觀色再輔以儀器;對于這些需要通過醫(yī)生“感受”的癥狀A(yù)I能夠診斷出來嗎?我們知道,當(dāng)前AI醫(yī)療診斷的原理是把人體“數(shù)字化”,即從大數(shù)據(jù)平臺把患者日常生活中的習(xí)慣、方式等可能引發(fā)的各種分散問題數(shù)字化,然后根據(jù)大數(shù)據(jù)計算出大多數(shù)情況患者會有什么癥狀和后續(xù)問題、大多數(shù)醫(yī)生或患者面對此類疾病時會如何選擇處理、相應(yīng)的風(fēng)險等,進而向患者提出個性化的治療方案。在這個過程中,AI所提供的“共享”的最優(yōu)治療方案都是基于理性的大數(shù)據(jù),給出的標(biāo)準(zhǔn)答案;也即是說,患者的自我價值、主觀情感或情緒意識等都不在AI的診斷能力范疇內(nèi),而只是或至多只能從復(fù)雜的數(shù)據(jù)中推測此類“意識”狀態(tài)可以接受的最佳治療方案。但是我們知道,患者的情感、意識對于治療是非常重要的,最極端的如:是選擇有尊嚴(yán)的死去還是活著,這將直接導(dǎo)致不同的治療方案。但是因為意識的不可還原性,人類的情感意識和感受性也不能還原為數(shù)據(jù),所以即使再“智能”的AI也無法通過精密的大數(shù)據(jù)和運算觀察到并理解病人的情感意識,因而其提供的醫(yī)療治療方案只能是“僅供參考”。從這個角度看,對AI的診斷是否可靠提出質(zhì)疑也是合理的。

最后,在醫(yī)學(xué)治療方面,在運用AI技術(shù)治療過程中,倘若是因為AI技術(shù)程序上的失誤而導(dǎo)致的醫(yī)療事故,責(zé)任應(yīng)該由誰承擔(dān)?這里便涉及到醫(yī)生和AI技術(shù)研發(fā)人員(部門)的權(quán)責(zé)以及醫(yī)生的職業(yè)道德等問題。我們知道,醫(yī)生在成為醫(yī)生的過程中,經(jīng)過了長達至少5年~10年的專業(yè)訓(xùn)練,其中不僅僅是醫(yī)學(xué)知識和醫(yī)學(xué)技術(shù)的學(xué)習(xí)與訓(xùn)練,還包括醫(yī)生職業(yè)道德的熏陶和塑造,如人道主義精神、尊重病人、嚴(yán)謹(jǐn)求實等。那么,在AI技術(shù)轉(zhuǎn)化為醫(yī)學(xué)運用過程前,AI技術(shù)的研發(fā)是否應(yīng)該植入專業(yè)的醫(yī)生職業(yè)道德,如何植入?醫(yī)學(xué)AI技術(shù)的研發(fā)可以遵循提升人類生命健康的目標(biāo),拋開各種利益因素的影響嗎?例如,在傳統(tǒng)醫(yī)學(xué)治療過程中,往往是醫(yī)生根據(jù)自己的經(jīng)驗,甚至是價值偏好,在與患者商量的情況下,采用相應(yīng)的“保守”或“激進”治療方案;所以在傳統(tǒng)醫(yī)學(xué)治療中,除去外在技術(shù)設(shè)備,醫(yī)生的認知能力、經(jīng)驗和判斷非常重要。也即是說,“為一個特定的患者選擇最佳的治療方法需要患者和醫(yī)生的價值判斷”,醫(yī)生需要根據(jù)患者的價值取向,進行相應(yīng)的選擇,所以有不同的醫(yī)療決定適合不同的人之說。也即是說,在醫(yī)學(xué)AI的研發(fā)中,當(dāng)然需要植入這種倫理價值;但是該如何植入?我們知道,AI醫(yī)生即使通過算法和程序具有一定的自主性,能夠在程序設(shè)定下模仿人類的道德和行為,但是它仍然只是一個代理器;植入的程序是否完善、合理直接影響其判斷和行為,那么這是否又意味著我們要對AI的研發(fā)人員進行醫(yī)學(xué)倫理價值培養(yǎng)?在當(dāng)前醫(yī)學(xué)AI技術(shù)的研發(fā)和使用過程中,我們需要仔細和全面考慮不同患者的情感意識和價值觀念以及如何讓AI在使用過程中更加“智能”地應(yīng)對這些問題。

以上已經(jīng)提及了當(dāng)前醫(yī)學(xué)AI治療運用中主要面臨的三種問題,但是筆者認為,我們只需要關(guān)注兩點:其一,像人類一樣具有自我意識的AI醫(yī)生不可能出現(xiàn),再智能的AI也不可能有自己的情感意識,因而也無法像人類醫(yī)生和患者之間的交流一樣來處理患者的情緒、情感和深層次的價值觀抑或是信仰問題;這同時也決定了醫(yī)學(xué)AI只能是人類醫(yī)生的高級助手,而不可能成為一個獨立自主的AI醫(yī)生,其診斷僅供參考,因而不構(gòu)成威脅。其二,通過AI醫(yī)學(xué)增強創(chuàng)造的超級人類或“腦機融合人”,存在著消除人類自我意識,把人類變成超級AI的危險,是我們需要真正面對和警惕的威脅。除此之外,以上提及的在醫(yī)學(xué)AI治療和發(fā)展過程中遇到的隱私安全、技術(shù)可靠與否、職業(yè)道德等各種問題,甚至還有關(guān)于醫(yī)學(xué)AI 的其他政治的、社會的、技術(shù)的等各方面的問題,我們終將可以通過法律和技術(shù)的不斷發(fā)展和完善,對之一一加以解決。這是一個通過時間和實踐可以逐步解決的問題,當(dāng)前世界各國不定期舉行的各種有關(guān)人工智能發(fā)展的會議也從側(cè)面反應(yīng)了人類的決心和能力,如此,第三種威脅論點也可以消解了。

5 結(jié)語

綜上分析,像人類一樣具有自我意識和自由意志的AI醫(yī)生不可能存在,因為人類的意識不可還原,通過純粹的物理結(jié)構(gòu)不可能制造出具有生物意識功能的AI,因而不構(gòu)成威脅。但是隨著醫(yī)學(xué)AI的發(fā)展,AI介入到人類身體、意識、生命過程中的方式越來越多,特別是腦機融合人的出現(xiàn),存在消除人類自我意識,把人類變成超級AI的威脅,這種技術(shù)一旦失控又或者被不法分子利用,將會給人類帶來不可逆轉(zhuǎn)的災(zāi)難,需要保持警惕。除此之外,隨著醫(yī)學(xué)AI技術(shù)的發(fā)展,其中各種倫理的、技術(shù)的、職業(yè)的問題,都可以隨著法律的完善和技術(shù)的發(fā)展逐步解決;無論醫(yī)學(xué)AI先進到哪種程度,都將只是人類醫(yī)生的高智能助手,是人類的福祉而不是威脅。

猜你喜歡
威脅論腦機醫(yī)學(xué)
驚世駭俗的“腦機接口”技術(shù)
基于ssVEP與眼動追蹤的混合型并行腦機接口研究
載人航天(2021年5期)2021-11-20 06:04:32
西方學(xué)者有關(guān)“人類命運共同體”的污名化論調(diào)、危害及其正確應(yīng)對
理論探索(2021年3期)2021-08-30 09:56:33
腦機結(jié)合的未來
醫(yī)學(xué)的進步
預(yù)防新型冠狀病毒, 你必須知道的事
祝您健康(2020年4期)2020-05-20 15:04:20
埃隆·馬斯克的新型腦機接口為何人開發(fā)?
英語文摘(2020年11期)2020-02-06 08:53:26
新一輪“中國威脅論”話語的形成、特點和反制
時代人物(2019年29期)2019-11-25 01:34:54
中國黑客的現(xiàn)狀、評估與治理
聲屏世界(2018年12期)2018-03-10 13:53:26
醫(yī)學(xué)
新校長(2016年5期)2016-02-26 09:29:01
偃师市| 泸定县| 张掖市| 吉木萨尔县| 岳普湖县| 屯留县| 思南县| 塔河县| 田阳县| 平塘县| 洪洞县| 贵阳市| 翼城县| 天长市| 闽清县| 进贤县| 东至县| 东乌珠穆沁旗| 马山县| 石首市| 汕尾市| 云安县| 招远市| 新沂市| 子长县| 宿松县| 丘北县| 庆安县| 台南县| 临清市| 临猗县| 广水市| 格尔木市| 蛟河市| 兴化市| 旺苍县| 永德县| 兴安县| 平顺县| 久治县| 枝江市|