黃 潔
(天津大學(xué)法學(xué)院,天津300072)
人工智能以其日益精確、高效等特點(diǎn),在各個(gè)行業(yè)運(yùn)用越來越廣泛,在醫(yī)學(xué)領(lǐng)域更是如此。目前人工智能與醫(yī)學(xué)技術(shù)融合,在很多領(lǐng)域改變了傳統(tǒng)的診療服務(wù)模式。例如,醫(yī)療人工智能在影像識(shí)別、治療、護(hù)理、疾病診斷及健康管理方面都發(fā)揮著重要作用。人工智能技術(shù)使醫(yī)療資源配置方式發(fā)生重大改變,診斷、治療效率明顯提升,隨之而來的診療成本也大幅降低。然而,人工智能并不只是單純的診療工具,其高超的自我學(xué)習(xí)和決策能力使其在臨床應(yīng)用中面臨特殊的風(fēng)險(xiǎn),各種醫(yī)療不良事件如診斷失誤、手術(shù)失誤層出不窮,帶來了巨大法律治理困境。例如,如何確定人工智能的民事法律地位?在定義人工智能的基礎(chǔ)上,當(dāng)醫(yī)療損害發(fā)生時(shí),如何進(jìn)行法律責(zé)任分配?另外,醫(yī)療人工智能的發(fā)展,尤其是醫(yī)療人工智能的健康管理和影像診斷,離不開大量患者的臨床醫(yī)學(xué)數(shù)據(jù)分享。醫(yī)療人工智能的精確度、個(gè)性化程度乃至整個(gè)服務(wù)質(zhì)量都與它所吸收的醫(yī)療數(shù)據(jù)體量成正相關(guān)。[1]這些醫(yī)療數(shù)據(jù)大部分是屬于個(gè)人隱私數(shù)據(jù),而且不乏敏感信息。如何從法律上對(duì)這些信息加以保護(hù)?毫無疑問,醫(yī)療人工智能這種數(shù)據(jù)共享的特性也對(duì)法律的適用提出了挑戰(zhàn)。
人工智能是人嗎?20年以前答案多半是否定的。在民法的范疇內(nèi),民事主體是指有民事行為能力并且可以承擔(dān)相應(yīng)民事責(zé)任的個(gè)人或者法人。人工智能的產(chǎn)生并非是自我意識(shí)的實(shí)現(xiàn),而是其創(chuàng)造者意志和智慧在機(jī)器上的投射,從這個(gè)角度,人工智能被看作工具和機(jī)器比較合理。然而,隨著人工智能的發(fā)展,尤其是應(yīng)用于醫(yī)療的高級(jí)人工智能,已能初步在實(shí)踐中形成自己的判斷。人機(jī)界限逐漸模糊成為人工智能發(fā)展的新特征。2016年開始,“電子人”的法律概念被歐盟法律委員會(huì)提出,證明弱人工智能的特征正在被強(qiáng)人工智能所替代。除了具備工具性的功能,強(qiáng)人工智能還能逐漸運(yùn)用人所特有的智慧對(duì)不同的智慧功能進(jìn)行融合。[2]在此基礎(chǔ)上,就不能將人工智能定義為機(jī)器。
目前,關(guān)于人工智能的法律定義,理論界和學(xué)術(shù)界主要有“肯定說”“否定說”和“折中說”三種觀點(diǎn)。持“肯定說”觀點(diǎn)的學(xué)者認(rèn)為,機(jī)器人獲得人類所具備的情感、智慧和思維,具備一定的表達(dá)能力和自我決定能力是一種應(yīng)然的狀態(tài)。[3]因此,它們可以也應(yīng)當(dāng)被認(rèn)為是“活著”從而享有相應(yīng)法律人格與法律地位?!胺穸ㄕf”觀點(diǎn)認(rèn)為,人工智能是為人所創(chuàng)造的并為人服務(wù)的一種存在,從而不可能有超越人現(xiàn)有經(jīng)驗(yàn)的經(jīng)驗(yàn),其依附于人的存在,而存在不具備獨(dú)立的法律人格。[4]持“折中說”觀點(diǎn)的學(xué)者則認(rèn)為人工智能包括機(jī)器人等,雖主要作為工具存在,但隨著發(fā)展具備了人的很多特性從而超越了工具的局限性,但這種發(fā)展又不足以達(dá)到智慧人感性與理性的高度,因此可以賦予人工智能有限的法律人格,作為一種略帶保守的創(chuàng)新方式以解決當(dāng)下的困境。[5]
醫(yī)療人工智能造成損害,一方面可能是使用過程中操作者及醫(yī)療人員的過錯(cuò)造成的,另一方面也有可能是人工智能制造者生產(chǎn)過程的缺陷或者銷售者在銷售過程中的過錯(cuò)所造成。要認(rèn)定醫(yī)療人工智能造成損害的責(zé)任分配,就必須清晰定位責(zé)任主體,分別討論。
1.使用者的法律責(zé)任
人工智能在醫(yī)療領(lǐng)域的使用目前主要集中于醫(yī)療影像診斷、治療和護(hù)理領(lǐng)域。在醫(yī)療影像診斷領(lǐng)域內(nèi),人工智能在輔助診斷方面起到的作用和核磁、CT、驗(yàn)血等輔助檢查項(xiàng)目一樣。最終決策者是醫(yī)師,醫(yī)師應(yīng)當(dāng)根據(jù)自己的經(jīng)驗(yàn)對(duì)人工智能的結(jié)論是否合理作出判斷,并提供給患者與其水平相稱的醫(yī)療服務(wù)。對(duì)于醫(yī)療人工智能給出了合理的建議與診療結(jié)果,而醫(yī)生出于某種過失沒有采納該結(jié)果為患者帶來損害的,醫(yī)師同樣應(yīng)該承擔(dān)責(zé)任。醫(yī)師責(zé)任承擔(dān)的認(rèn)定標(biāo)準(zhǔn)參照《侵權(quán)責(zé)任法》第54條和第57條,[6]在與過錯(cuò)相稱的范圍內(nèi)承擔(dān)責(zé)任。與此同時(shí),如果醫(yī)療人員在診療過程中嚴(yán)重不負(fù)責(zé)任,損害到患者的生命或嚴(yán)重侵害到他人的身體健康時(shí),應(yīng)當(dāng)依據(jù)刑法追究其刑事責(zé)任。[7]
2.制造者的法律責(zé)任
人工智能醫(yī)療系統(tǒng)的復(fù)雜性導(dǎo)致在制造過程中不可避免地產(chǎn)生一些缺陷。因此人工智能的制造者應(yīng)當(dāng)盡到相應(yīng)的告知和培訓(xùn)義務(wù),當(dāng)這種義務(wù)履行不到位時(shí),可以此認(rèn)定制造者的過失責(zé)任。傳統(tǒng)觀點(diǎn)依然認(rèn)為人工智能醫(yī)療屬于醫(yī)療器械的范疇,因機(jī)器本身的缺陷而導(dǎo)致就診人員受到損害時(shí),應(yīng)當(dāng)適用《侵權(quán)責(zé)任法》第41條關(guān)于產(chǎn)品缺陷的規(guī)定。[8]《刑法》第145條對(duì)于不合格產(chǎn)品也有相應(yīng)的規(guī)定。
人工智能醫(yī)療發(fā)展和完善的過程中,必然導(dǎo)致大規(guī)模的健康數(shù)據(jù)采集,如身高、體重、年齡、基本身體狀況等。這些患者信息數(shù)據(jù)涉及個(gè)人隱私,一旦泄露將造成就診人員權(quán)利侵害。在倫理層面上,對(duì)患者的隱私權(quán)保護(hù)體現(xiàn)在《希波克拉底誓言》,要求醫(yī)務(wù)工作者,無論是否有業(yè)務(wù)上的需要,均有義務(wù)維護(hù)患者診療過程中的隱私。[9]法律層面上,2016年6月1日起實(shí)施的《中華人民共和國(guó)網(wǎng)絡(luò)安全法》同樣對(duì)隱私保護(hù)作出了相關(guān)規(guī)定,在信息和數(shù)據(jù)收集使用方面要求任何個(gè)人和組織不得利用網(wǎng)絡(luò)和人工智能收集的數(shù)據(jù),行侵害他人名譽(yù)、隱私、知識(shí)產(chǎn)權(quán)和其他合法權(quán)益之事,醫(yī)療人工智能需要使用他人信息時(shí),應(yīng)當(dāng)征求當(dāng)事人同意。[10]
筆者認(rèn)為,人工智能能否被視作法律上的人這個(gè)問題不能一概而論。40年來人工智能在醫(yī)療上的發(fā)展日新月異,其不同階段有不同的特征,需根據(jù)階段特征是否滿足民事主體的定義具體而論。理論上,民法規(guī)定民事主體主要是自然人和法人,適格的民事主體具備民事行為能力并能獨(dú)立擔(dān)責(zé),具備實(shí)現(xiàn)其意志的能力并且在社會(huì)上可充當(dāng)特定的角色。以此觀之,將法人納入到民事主體范疇表明,法律不要求民事主體一定為人類。那么就醫(yī)療人工智能而言又該如何界定?
根據(jù)人工智能發(fā)展的水平不同,可分為弱人工智能和強(qiáng)人工智能。弱人工智能不具備人類的審美和情感,但早已進(jìn)入人類日常生活之中,比如世界聞名的柯潔和Alpha-Go的圍棋大戰(zhàn)里面應(yīng)用到的人工智能就是弱人工智能。弱人工智能同樣具備人的個(gè)別能力,比如深度持續(xù)學(xué)習(xí)的能力和一定范圍內(nèi)的創(chuàng)新能力。[11]但是筆者認(rèn)為弱人工智能不具備民事主體地位。理由如下:第一,弱人工智能沒有獨(dú)立的意識(shí),只能重復(fù)運(yùn)行人類為之設(shè)定的程序,更無法獨(dú)立表達(dá)自我意識(shí)、控制自我行為,從而也就無從判定弱人工智能是否具備承擔(dān)責(zé)任的能力,不具備民事主體的條件。第二,弱人工智能無法獨(dú)立地與人產(chǎn)生連接。無論是生產(chǎn)制造還是使用,弱人工智能無一不是按照人類的設(shè)定而與人產(chǎn)生連接,遑論與人產(chǎn)生情感上的連接。因此筆者認(rèn)為,弱人工智能不具備相應(yīng)的社會(huì)屬性從而被認(rèn)定為“社會(huì)上獨(dú)立的人”。
然而人工智能是在不斷發(fā)展和進(jìn)化的,弱人工智能若發(fā)展到全面達(dá)到人的智能就應(yīng)當(dāng)被認(rèn)定為強(qiáng)人工智能。[12]強(qiáng)人工智能的概念首次由美國(guó)著名哲學(xué)家羅杰斯提出,他認(rèn)為如果人工智能完善到一定的程度,智能計(jì)算機(jī)就不僅是一個(gè)工具,而完全具備等同于人類的智力和思考能力。強(qiáng)人工智能通常被認(rèn)為具備意志力,可以自由地與人交談,甚至具備與人類相同的記憶與情感。這種情景雖然現(xiàn)在看來仍較遙遠(yuǎn),但根據(jù)人工智能的發(fā)展速度,卻完全可能發(fā)生。強(qiáng)人工智能將來完全可能通過對(duì)患者的檢測(cè)診斷相關(guān)癥狀,運(yùn)用醫(yī)師的思維獨(dú)立思考,給出較為精確的診斷結(jié)論和合理的治療方案,而無需專業(yè)醫(yī)師的參與。此時(shí)人工智能和人類的界限逐漸模糊,應(yīng)當(dāng)賦予其法律權(quán)利和法律主體地位。
筆者認(rèn)為,醫(yī)療人工智能發(fā)展至今,因其“人工”制造特性,不能將其看做具備自主權(quán)的醫(yī)師,又因其具備“智能”的特點(diǎn),又不能等同于毫無主動(dòng)性的醫(yī)療工具。人工智能的特殊性使其具備不同于一般醫(yī)療侵權(quán)或者產(chǎn)品侵權(quán)的特點(diǎn),既不能將醫(yī)療人工智能的侵權(quán)單純地看作是醫(yī)療侵權(quán)同樣也不能單純地認(rèn)定為產(chǎn)品侵權(quán)。
1.醫(yī)療人工智能侵權(quán)特點(diǎn)
綜合來看,醫(yī)療人工智能侵權(quán)主要包含以下特點(diǎn):
第一,自主性。醫(yī)療人工智能的運(yùn)行程序雖然為人類所編寫,但是這套程序促使醫(yī)療人工智能具備一定的自主學(xué)習(xí)、自我決策的能力。比如,在醫(yī)療影像診斷的過程中,將影像傳輸給人工智能分析時(shí),人工智能會(huì)自主進(jìn)行分析,得出自己的判斷。又如,個(gè)別先進(jìn)國(guó)家使用人工智能機(jī)器人對(duì)患者進(jìn)行護(hù)理。這些機(jī)器人在護(hù)理的過程中,勢(shì)必會(huì)對(duì)患者的訴求與需要作出自己的判斷和回應(yīng)。因此,醫(yī)療人工智能具備一定的自主性。
第二,復(fù)雜性。不同代際、類型的醫(yī)療人工智能產(chǎn)品的自主性存在差異。[13]例如,同樣為外科手術(shù)機(jī)器人,達(dá)芬奇類型的手術(shù)機(jī)器人主要以其高清視線、仿真手腕等特色見長(zhǎng),在使用時(shí)主要由主刀醫(yī)師操控,而Acrobot機(jī)器人在由醫(yī)師對(duì)其操控的同時(shí),也對(duì)醫(yī)師的手術(shù)過程進(jìn)行監(jiān)督。Probot類機(jī)器人則被類比為自動(dòng)外科醫(yī)生,在特定條件和手術(shù)類型的情況下,幾乎不需要醫(yī)師的參與。醫(yī)療人工智能從生產(chǎn)到使用,從編碼程序的撰寫到診療數(shù)據(jù)的輸入,每一個(gè)環(huán)節(jié)都可能出現(xiàn)問題,因此醫(yī)療人工智能侵權(quán)類型較為復(fù)雜。[14]
2.侵權(quán)責(zé)任認(rèn)定
筆者認(rèn)為,侵權(quán)責(zé)任的認(rèn)定必定和具有可責(zé)難性的行為有關(guān),應(yīng)采用原因力與過錯(cuò)程度相結(jié)合的綜合判定方式。由上文可知,醫(yī)療人工智能的侵權(quán)原因復(fù)雜多樣,根據(jù)人工智能的特性以及其在影像診斷、治療、護(hù)理等方面的功用,損害的發(fā)生通常與下列情形有關(guān):程序開發(fā)過程中的缺陷;制造者在生產(chǎn)過程中失誤導(dǎo)致的產(chǎn)品質(zhì)量問題;銷售或者運(yùn)輸過程中操作不當(dāng)導(dǎo)致的質(zhì)量問題;培訓(xùn)不合格的工作人員不恰當(dāng)操作導(dǎo)致的問題;醫(yī)師對(duì)影像診斷的結(jié)果的不恰當(dāng)采納(包括影像診斷正確時(shí)不予采納和影像診斷錯(cuò)誤時(shí)的過失采納)造成的損害。[15]責(zé)任主體明晰的前提下,認(rèn)定侵權(quán)責(zé)任必須在公平的背景中,確認(rèn)違法行為與因果關(guān)系,從而厘定各方責(zé)任。在確定侵權(quán)責(zé)任和不當(dāng)行為之間的因果關(guān)系時(shí),應(yīng)當(dāng)制定合理的舉證框架。醫(yī)療工作人員作為人工智能的使用者和直接控制者,通常被認(rèn)為是損害發(fā)生的直接負(fù)責(zé)人,對(duì)被侵權(quán)人承擔(dān)賠償責(zé)任。如醫(yī)療機(jī)構(gòu)有確定證據(jù)證明是機(jī)器本身的缺陷,或者是第三方過錯(cuò)導(dǎo)致?lián)p害的發(fā)生,則可向第三方追償,這種處理模式也與我國(guó)現(xiàn)存的司法解釋觀點(diǎn)相一致。[16]
上述歸責(zé)機(jī)制在當(dāng)下弱人工智能占主導(dǎo)地位的情況下具有一定的優(yōu)勢(shì),舉證責(zé)任倒置的模式在大大降低患者訴訟難度的同時(shí),也為醫(yī)療機(jī)構(gòu)的訴訟舉證增加了壓力,因此醫(yī)療機(jī)構(gòu)在舉證時(shí),可將人工智能的通常表現(xiàn)納入考察標(biāo)準(zhǔn)。而在強(qiáng)人工智能可獨(dú)立進(jìn)行診療操作時(shí),在醫(yī)療人員盡到合理的監(jiān)督義務(wù)情況下,應(yīng)當(dāng)認(rèn)為醫(yī)務(wù)人員對(duì)人工智能有足夠的信賴,確信其具備對(duì)患者的診療能力。此時(shí)損害結(jié)果應(yīng)當(dāng)認(rèn)定為設(shè)計(jì)開發(fā)者與生產(chǎn)者的責(zé)任,并且由人工智能的設(shè)計(jì)者或者生產(chǎn)者承擔(dān)舉證責(zé)任。例如在強(qiáng)人工智能時(shí)代,在醫(yī)師監(jiān)督下使用智能機(jī)器人進(jìn)行闌尾手術(shù)已經(jīng)成為常規(guī),而在術(shù)前確認(rèn)狀態(tài)良好的機(jī)器人在手術(shù)過程中卻失控刺破動(dòng)脈導(dǎo)致患者大出血死亡。此種情況不能認(rèn)定為醫(yī)師的過錯(cuò),而應(yīng)歸結(jié)于開發(fā)者或制造者。
醫(yī)療人工智能的發(fā)展離不開大數(shù)據(jù),公民在享受醫(yī)療服務(wù)的同時(shí)都會(huì)不可避免地提供自己的健康數(shù)據(jù),構(gòu)成了個(gè)人的健康密碼,一旦泄露,除了對(duì)個(gè)人權(quán)利造成侵害,甚至可能對(duì)國(guó)家安全構(gòu)成威脅。比如,數(shù)據(jù)可能包含一國(guó)公民的特殊基因信息。我國(guó)法律規(guī)范及倫理準(zhǔn)則都對(duì)就醫(yī)過程中個(gè)人信息加以不同程度的保護(hù),情節(jié)嚴(yán)重且存在非正當(dāng)事由的甚至構(gòu)成刑事犯罪。[17]然而,在實(shí)踐中這些規(guī)范對(duì)高速發(fā)展的醫(yī)療人工智能并不能提供完善的規(guī)制機(jī)制。首先,根據(jù)我國(guó)立法程序,法律從提案到公布施行過程較為漫長(zhǎng),到施行時(shí)難免存在滯后和結(jié)構(gòu)單一等不足。其次,相對(duì)于法律的嚴(yán)厲性和懲罰性,很多輕微違法行為不足以被法律所懲戒,難以被現(xiàn)存的法律規(guī)制囊括,[18]因此現(xiàn)有法律在對(duì)人工智能醫(yī)療數(shù)據(jù)泄露的預(yù)防和救濟(jì)方面存在缺陷。
筆者認(rèn)為,建立防止醫(yī)療大數(shù)據(jù)在人工智能適用過程中泄露的軟規(guī)制極其重要。首先,將“安全”作為醫(yī)療人工智能使用過程中對(duì)數(shù)據(jù)保障法律規(guī)制的硬指標(biāo),建立公民健康資料的有限數(shù)據(jù)庫,比如,除了必要的影像數(shù)據(jù)資料以外,較為隱私、與醫(yī)學(xué)相關(guān)性不大而影響公民生活的數(shù)據(jù)不宜包含于醫(yī)療數(shù)據(jù)庫中,同時(shí)對(duì)敏感信息作脫敏的技術(shù)處理,盡可能防止或減輕醫(yī)療數(shù)據(jù)的泄露對(duì)個(gè)人產(chǎn)生不良后果。其次,加強(qiáng)道德層面的軟規(guī)制。不同于法律規(guī)制,道德是同一利益共同體的共同約定,相對(duì)靈活。[19]加強(qiáng)人工智能軟規(guī)制的主要措施是建立醫(yī)療數(shù)據(jù)行業(yè)自律體制、相應(yīng)的大數(shù)據(jù)適用技術(shù)規(guī)范和預(yù)防泄露的保密措施等,并給予違規(guī)行為一定處罰,最后,法律層面的保護(hù)主要體現(xiàn)在修訂相關(guān)的基礎(chǔ)醫(yī)療法律,加快相應(yīng)的立法和法律解釋工作,使法律的施行不過度落后于行業(yè)的發(fā)展。
人工智能進(jìn)入醫(yī)療診斷、治療、護(hù)理和健康管理等相關(guān)行業(yè),為醫(yī)療機(jī)構(gòu)帶來了更精準(zhǔn)、更快速的診療手段,也為患者帶來了前所未有的醫(yī)療服務(wù)。正如部分專家學(xué)者指出的那樣,人工智能在醫(yī)療方面的影響是巨大的,將會(huì)給醫(yī)療技術(shù)和醫(yī)療服務(wù)帶來深刻的變革,是未來醫(yī)療行業(yè)向前邁進(jìn)的巨大推動(dòng)力。[20]在展望未來的同時(shí),我們也不能忽略醫(yī)療人工智能發(fā)展所引發(fā)的社會(huì)問題和對(duì)現(xiàn)有法律規(guī)范產(chǎn)生的沖擊。法律作為社會(huì)的穩(wěn)定器,應(yīng)當(dāng)順應(yīng)潮流、面對(duì)挑戰(zhàn),厘清在人工智能進(jìn)化的各個(gè)階段的法律地位,明確各主體權(quán)責(zé),建立有效的解決糾紛的規(guī)則,更好地保障公民的合法權(quán)利,確保醫(yī)療人工智能始終在法律框架下良性發(fā)展。