周羅晶 邵 旸 張 瑞 李允水 寶 磊 徐道亮
在“健康中國2030”規(guī)劃的統(tǒng)籌推進下,醫(yī)療行業(yè)由傳統(tǒng)醫(yī)療轉(zhuǎn)變?yōu)閿?shù)字醫(yī)療、信息醫(yī)療,再由數(shù)字醫(yī)療轉(zhuǎn)變?yōu)橹腔坩t(yī)療?!吨袊斯ぶ悄茚t(yī)療白皮書》將人工智能在醫(yī)療領域的應用歸納為5大方面,即醫(yī)學影像、藥物研發(fā)、輔助診斷、健康管理和疾病預測,利用人工智能技術助力醫(yī)療發(fā)展成為社會的研究熱點。新冠病毒疫情期間,人工智能技術在健康管理、藥物研發(fā)、疾病預測和疫情防控等方面發(fā)揮了重要的作用。人工智能技術不斷發(fā)展,在重塑人類生活工作方式的同時,也給現(xiàn)代科技倫理學帶來了安全倫理、人權(quán)倫理、責任倫理等一系列倫理挑戰(zhàn)?!癆I+醫(yī)療”涉及的倫理問題也是現(xiàn)代醫(yī)學倫理學無法回避的重要議題。
從科技實踐層面來看,科技倫理既包括科學研究過程中應遵循的倫理規(guī)范,也包括科學技術應用過程中應遵循的倫理規(guī)范[1-2];既包括傳統(tǒng)科技的倫理規(guī)范,也包括各類新興科技(如人工智能、基因工程、大數(shù)據(jù)等)引發(fā)的新型倫理問題??萍紓惱碇卫?,是對科學技術負面效應的批判性審視,不僅要將這些倫理規(guī)范和價值準則應用于科學研究中,更要將其落實于具體的社會治理行動中,引導科技向善?!都訌娍萍紓惱碇卫淼囊庖姟分赋?,要加強科技倫理治理,有效防范科技創(chuàng)新可能帶來的倫理風險。目前,我國正處于建設面向2035的科技倫理體系關鍵時期,在此過程中,重視“AI+醫(yī)療”伴隨的倫理問題,不僅有利于完善人工智能應用的倫理原則、規(guī)范和體制機制,推動科技倫理體系建設,更有利于確保我國科技創(chuàng)新活動行穩(wěn)致遠,使科學技術更好地造福社會。因此,研究闡述了人工智能應用于醫(yī)療領域的現(xiàn)狀,深入分析面臨的倫理問題及其產(chǎn)生原因,并針對相關倫理問題提出治理建議,為完善“AI+醫(yī)療”倫理體系,促進“AI+醫(yī)療”規(guī)范化發(fā)展提供理論基礎。
人工智能(AI)誕生于1956年,其發(fā)展經(jīng)歷了多次低谷和高潮。20世紀前,國內(nèi)外對“AI+醫(yī)療”的研究集中在臨床知識庫上。最初的臨床知識庫運行需借助LISP設備,但由于LISP設備無法接連互聯(lián)網(wǎng)且造價昂貴,導致臨床知識庫應用受到限制。2000-2015年,國外逐步將人工智能應用于疾病救治,創(chuàng)造了手術機器人、電子病歷等新興產(chǎn)品。而中國致力于臨床知識庫深入研究,“AI+醫(yī)療”發(fā)展相對緩慢。2015-2017年,人工智能算法進一步優(yōu)化,其圖像識別準確率大幅提升,“AI+影像”進入快速發(fā)展階段?;谇捌谂R床知識庫的研究,用于疾病判斷的臨床決策支持系統(tǒng)(Clinical Decision Support System,CDSS)產(chǎn)品逐漸趨于成熟。2018年,我國發(fā)布了《關于促進“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的意見》,明確鼓勵在醫(yī)療保健領域大力發(fā)展人工智能等技術應用。在規(guī)劃推動下,中國“AI+醫(yī)療”進入快速發(fā)展階段,創(chuàng)造了智慧病案、智能導診等新產(chǎn)品,而國產(chǎn)手術機器人仍在培育期。
當前,將人工智能應用于醫(yī)院層面的服務有智能語音電子病歷、智能導醫(yī)問診、醫(yī)療質(zhì)量監(jiān)控、遠程醫(yī)療、智能手術機器人等[3]。某公司將人工智能與電子病歷結(jié)合,開發(fā)了一款語音病歷錄入系統(tǒng),極大縮短了醫(yī)生報告錄入的時間,提高了醫(yī)生的工作效率。有學者提出并研發(fā)的臨床AI+COVID-19診斷系統(tǒng),可以用于識別肺部CT影像,并精確診斷、量化和預測COVID-19肺炎?!懊钍諷”腹腔微創(chuàng)手術機器人、達芬奇外科手術機器人等外科手術機器人也廣泛應用于臨床治療。除此之外,人工智能還可用于體檢機構(gòu)的智能健康管理,基因檢測機構(gòu)的基因檢測,疾控機構(gòu)的傳染病防控和藥企的藥物研發(fā)等工作。
智慧醫(yī)療的發(fā)展產(chǎn)生了海量的醫(yī)療數(shù)據(jù),而“AI+醫(yī)療”正是通過大規(guī)模機器學習和深度學習等技術,處理和分析這些海量的醫(yī)療數(shù)據(jù),并從中挖掘有價值的數(shù)據(jù)信息,最后通過建立模型找到解決臨床問題的方案以及進行疾病預測等。人工智能在推動醫(yī)療健康產(chǎn)業(yè)迅速發(fā)展的同時,也帶來了一系列倫理問題。根據(jù)人工智能倫理問題的特征和產(chǎn)生方式的不同,可以從技術、數(shù)據(jù)和社會應用3個方面分析其產(chǎn)生的原因。
2.1.1 技術方面。算法與系統(tǒng)的安全問題、算法歧視問題、算法決策問題、算法的透明度問題等都是由人工智能技術引發(fā)的倫理問題[4]。算法與系統(tǒng)的安全問題,主要是指人工智能算法被惡意篡改,或系統(tǒng)的漏洞被攻擊和惡意利用的情況;算法歧視問題,主要是指研究人工智能算法的人員的認知偏見或者訓練數(shù)據(jù)不完善導致歧視性的決策結(jié)果;算法決策問題,是指人工智能得出的不可預見性結(jié)果;算法的透明度,主要是指算法的可解釋性和人類的知情同意。
2.1.2 數(shù)據(jù)方面。人工智能技術的發(fā)展離不開海量數(shù)據(jù)。隨著智能電子病歷、智能健康監(jiān)測等技術的廣泛應用,給平臺運營方提供了大量收集用戶信息的機會,數(shù)據(jù)收集、保存、提取、流通和利用的安全性,成為引發(fā)人工智能倫理問題的重要原因。
2.1.3 社會應用方面。人工智能算法的濫用或誤用引發(fā)了人工智能社會應用方面的倫理問題。由于算法濫用或誤用,人們在社會活動時容易出現(xiàn)使用目的、方式、范圍等偏差,從而導致不良的影響和后果[5]。以智能影像診斷為例,利用人工智能輔助影像診斷,可以提高醫(yī)生診斷效率,但是,如果由人工智能完全替代醫(yī)生診斷,則有可能診斷錯誤,進而導致醫(yī)療事故[6]。
2.2.1 醫(yī)生主體地位被削弱。人工智能最重要的核心是“數(shù)據(jù)算法”。人工智能通過收集海量的數(shù)據(jù)進行提取分析,并迅速得出相應的結(jié)論或觸發(fā)相應的操作。隨著算法的不斷完善和發(fā)展,人工智能被逐步應用于輔助或代替醫(yī)生做出診斷。從導診、檢查分析、病例錄入、手術和放療等都可見到人工智能的影子。隨著人工智能主體性的增強,醫(yī)生的主體性相對減弱。醫(yī)務人員是醫(yī)療活動中的主體,醫(yī)生通過學習和實踐掌握著豐富的診療經(jīng)驗和強大的風險掌控能力,使其能夠完成疾病的診斷與治療。然而,醫(yī)療大數(shù)據(jù)、人工智能的普及引發(fā)了醫(yī)生無用論的觀點?;颊咭惨驗閷茖W的信賴而偏向相信數(shù)據(jù)分析結(jié)果,這也導致醫(yī)生在醫(yī)療主體中的地位被逐漸削弱。當前,醫(yī)生的部分決策權(quán)已被人工智能取代,人工智能會提示醫(yī)生如何做出下一步?jīng)Q策。在此情形下,醫(yī)生對人工智能的依賴性增加,醫(yī)生的主體地位逐漸弱化。
2.2.2 數(shù)據(jù)或隱私安全風險增加。隨著谷歌公司“夜鶯計劃”等事件的曝光,人工智能隱私、安全問題受到世界各國的關注?!癆I+醫(yī)療”的數(shù)據(jù)涉及個體身份信息、家庭環(huán)境、病歷資料、個人生活習慣等,有些智能健康管理APP甚至可以收集個體的情緒變化、精神狀態(tài)、心理波動等數(shù)據(jù)。這些信息被實時上傳至數(shù)據(jù)庫,供研究機構(gòu)隨時調(diào)取分析,導致數(shù)據(jù)或個人隱私被泄露的風險急劇增加。同時,在大數(shù)據(jù)環(huán)境下,不法分子可能利用數(shù)據(jù)挖掘預測技術對碎片化的個人健康信息進行處理,以此推測出個人的核心隱私信息,個人數(shù)據(jù)或隱私的保護難度加大[7]。此外,“AI+醫(yī)療”的實施需要依托各類數(shù)字平臺的建設,數(shù)字平臺在存放或使用海量數(shù)據(jù)方面可能存在安全隱患[8]。一方面,平臺運營方掌握了大量醫(yī)患數(shù)據(jù),大數(shù)據(jù)下的云服務與精準推送可能造成醫(yī)患用戶被“數(shù)字控制”[9]。這不但包括控制醫(yī)患用戶的使用行為,還控制搭建數(shù)字平臺的底層技術。平臺運營方擁有海量的醫(yī)患用戶數(shù)據(jù),可能引發(fā)數(shù)據(jù)壟斷,相關數(shù)據(jù)會面臨較大安全風險。相關核心數(shù)據(jù)如果跨境流動,其潛藏的國家安全隱患更為巨大。另一方面,未來醫(yī)療機構(gòu)間、數(shù)據(jù)平臺間的聯(lián)合將更加緊密,數(shù)據(jù)在機構(gòu)間、平臺間的流通也存在一定安全風險。
2.2.3 醫(yī)患信任危機加劇。醫(yī)療服務長期具有醫(yī)患信息不對稱的特征,使得醫(yī)患信任危機成為醫(yī)學倫理學長期面臨的難題。隨著人工智能在醫(yī)療行業(yè)的普遍應用,雖然一定程度上為患者提供了方便快捷的咨詢、初診服務,緩解了看病貴、看病難以及誤診的問題,但人工智能算法結(jié)果的不確定性和利己性、過程的難理解性等可能在實際診療中給醫(yī)患信任帶來新的危機[10]。新的危機主要表現(xiàn):一是就醫(yī)環(huán)境智能化逐漸改變患者的行為方式。智能便攜設備時刻收集患者的數(shù)據(jù),并實時給予患者治療建議與運動提醒,日復一日改變了患者的就醫(yī)行為和價值選擇。一方面,人工智能在醫(yī)療領域的某些方面表現(xiàn)優(yōu)異,造成了患者的“科技迷信”,對醫(yī)生的診斷經(jīng)驗持懷疑態(tài)度。另一方面,大數(shù)據(jù)下的精準推送服務會投其所好,使患者更加相信網(wǎng)絡信息,而對醫(yī)生產(chǎn)生懷疑態(tài)度。二是人工智能挑戰(zhàn)了醫(yī)生的權(quán)威性和知識壟斷地位。傳統(tǒng)醫(yī)患關系中,醫(yī)生在醫(yī)學專業(yè)知識和信息資源中占權(quán)威和壟斷地位。醫(yī)療領域人工智能的誕生匯聚了海量的醫(yī)學知識,其知識存儲、讀取能力遠超于醫(yī)生,對部分疾病的診斷效率和精確度也大幅高于醫(yī)生,因此患者對人工智能給出的診療建議的信任程度超過醫(yī)生,由此對醫(yī)生的建議產(chǎn)生質(zhì)疑[11]。
2.2.4 醫(yī)療資源分配不均加劇。人工智能可以高效地完成各類醫(yī)療任務,如錄入病例、輔助診斷、遠程醫(yī)療等,其根本目的是使所有人從中受益,并非加劇醫(yī)療資源分配的不均。智慧醫(yī)療是IBM于2008年底提出,旨在緩解醫(yī)療資源分配不均的矛盾,提升衛(wèi)生服務可及性、公平性。然而,搭載人工智能的醫(yī)療儀器具有精密度高、造價昂貴、維護成本高等特點,使得“AI+醫(yī)療”難以全面推廣,擁有優(yōu)質(zhì)醫(yī)療資源的醫(yī)院門庭若市,而基層醫(yī)療機構(gòu)無人問津,一定程度上加劇了社會不公與資源分配不均。
2.2.5 事故責任界限模糊?;谌斯ぶ悄艿尼t(yī)療服務使得各種智能便攜設備、遠程醫(yī)療系統(tǒng)、遠程健康監(jiān)測系統(tǒng)、健康云平臺等參與其中,涉及的法律主體包括設備開放商、軟件系統(tǒng)開發(fā)商、醫(yī)療衛(wèi)生服務機構(gòu)、醫(yī)務人員、網(wǎng)絡運營商、服務提供商等。若在服務過程中發(fā)生意外事件,其責任界限模糊,加大了事故責任界定難度[12]。
強化醫(yī)生的主體地位是“AI+醫(yī)療”倫理治理的首要途徑。首先,要肯定醫(yī)生的獨立性。人工智能可以輔助醫(yī)生做出診斷,但不能完全取代醫(yī)務人員。當人工智能的決策結(jié)果與醫(yī)生的臨床經(jīng)驗發(fā)生沖突時,必須將最終決策權(quán)交給醫(yī)生,而人工智能的決策結(jié)果只能作為參考。其次,要肯定醫(yī)生的親歷性。醫(yī)生應親自參與患者診療的全過程,在非關鍵節(jié)點可以適當使用人工智能,以此提升診療效率,而在關鍵性節(jié)點,其最終的決策應由醫(yī)生完成。
我國目前關于保護醫(yī)療健康信息數(shù)據(jù)的規(guī)定多散見于各個法律制度,針對“AI+醫(yī)療”信息數(shù)據(jù)保護的法律法規(guī)較少。因此,政府及相關部門應建立健全“AI+醫(yī)療”信息數(shù)據(jù)保護制度,細化界定“AI+醫(yī)療”數(shù)據(jù)的保護標準和保護范圍。同時,政府應統(tǒng)籌制定隱私安全保護和監(jiān)督規(guī)范,醫(yī)療機構(gòu)、健康管理機構(gòu)以及各類與健康信息數(shù)據(jù)收集、管理有關的機構(gòu)應在政府規(guī)范的統(tǒng)領下,根據(jù)自身工作特點,制定相應的隱私安全保護規(guī)范,并安排專職人員進行監(jiān)督,確保信息數(shù)據(jù)安全性。政府可以建立專門的數(shù)據(jù)安全和保護平臺,定期對相關機構(gòu)開展數(shù)據(jù)安全性檢查和數(shù)據(jù)倫理學教育,加強其職業(yè)道德修養(yǎng),提升數(shù)據(jù)保護能力。
“AI+醫(yī)療”的誕生改變了醫(yī)患之間的倫理關系,針對“A I+醫(yī)療”中醫(yī)患信任缺失的倫理問題,其治理路徑應以增強患者對醫(yī)務人員的信任感為方向[13]。一方面,要強化醫(yī)患目標一致性意識。無論是否應用人工智能,醫(yī)生的最終目標都是希望治愈患者。因此,以醫(yī)生為主體、人工智能為輔,重建醫(yī)患間信任的橋梁,才能共同協(xié)作完成診療康復全流程。另一方面,要強化政府監(jiān)管職能。政府應完善相關政策法規(guī),對有關醫(yī)療機構(gòu)或企業(yè)進行監(jiān)督和規(guī)制,保證人工智能功能和性能的真實性與可靠性。同時,還應對各類違法違規(guī)的“AI+醫(yī)療”行為予以懲處,以此增強患者對醫(yī)務人員的信任感,有效化解醫(yī)患信任危機。
“AI+醫(yī)療”旨在提高醫(yī)療資源配置效率,在一定程度上緩解了醫(yī)療資源分配不均衡的問題。然而,搭載人工智能的儀器設備具有高端化的特點,使得普通民眾難以負擔得起智能醫(yī)學技術,醫(yī)療資源配置不均衡問題加劇。因此,政府應充分發(fā)揮其在資源配置中的引導性、彌補性作用,加大公共醫(yī)療資源供給力度,著力建成分工明確、運行高效的整合型醫(yī)療衛(wèi)生服務體系,切實提升醫(yī)療公平與公正。其次,政府應將“AI+醫(yī)療”納入社會保障體系,降低民眾的醫(yī)療負擔,保證全民享有智能醫(yī)療發(fā)展的紅利。
完善事故責任界定落實體系刻不容緩,政府應加強專項立法,出臺“AI+醫(yī)療”責任分配等相應法律法規(guī),建立人工智能應用審批體系,從法律層面規(guī)范“AI+醫(yī)療”的相關標準并進行有效監(jiān)管,明確人工智能應用于醫(yī)療過程中各法律主體的責任和義務,建立健全智慧醫(yī)療審查和風險規(guī)避制度。