王慧穎
(上海第二工業(yè)大學(xué),上海 201209)
如今,人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用還屬于初級(jí)階段,主要包括:醫(yī)療智能決策、醫(yī)學(xué)影像、新藥篩選、慢病管理、人機(jī)協(xié)同等[1]。而這一切醫(yī)學(xué)人工智能應(yīng)用都是以海量的醫(yī)學(xué)數(shù)據(jù)為基礎(chǔ)的,包括基因數(shù)據(jù)、就診病歷、住院病歷、疾病影像甚至包括可穿戴設(shè)備上的數(shù)據(jù)等。由于醫(yī)學(xué)人工智能對(duì)大量臨床數(shù)據(jù)和疾病診斷數(shù)據(jù)的深度挖掘與分析涉及了個(gè)人信息的采集、治理、應(yīng)用等一系列問(wèn)題,對(duì)海量數(shù)據(jù)的不斷挖掘與分析就會(huì)帶來(lái)個(gè)人隱私泄露的風(fēng)險(xiǎn)。
在醫(yī)學(xué)數(shù)據(jù)采集階段,一般醫(yī)學(xué)數(shù)據(jù)的采集方式是基于醫(yī)院HIS信息系統(tǒng)和接口導(dǎo)出?;颊呔歪t(yī)時(shí),很多個(gè)人隱私信息,包括:姓名、住址、身份證號(hào)、健康情況等都在就醫(yī)過(guò)程中被記錄到醫(yī)院的信息系統(tǒng)中。而醫(yī)院工作者所做的工作也只是記錄患者信息,并不會(huì)對(duì)這些包含了大量疾病、用藥、付費(fèi)等敏感信息的數(shù)據(jù)進(jìn)行保護(hù)。這大大增加了隱私數(shù)據(jù)的泄露的可能。
在醫(yī)學(xué)數(shù)據(jù)整理階段,數(shù)據(jù)整理是指對(duì)數(shù)據(jù)中的非結(jié)構(gòu)化的文本進(jìn)行分析與處理,實(shí)現(xiàn)表達(dá)形式上的轉(zhuǎn)換和一致性。包括檢查數(shù)據(jù)一致性、處理無(wú)效值和缺失值等,保證數(shù)據(jù)符合規(guī)范性、完整性、準(zhǔn)確性等質(zhì)量要求。對(duì)于敏感信息進(jìn)行脫敏和加密保護(hù)處理。然而當(dāng)脫敏后的這組數(shù)據(jù)與另一組數(shù)據(jù)結(jié)合起來(lái)分析可能仍會(huì)泄露患者隱私。
在醫(yī)學(xué)數(shù)據(jù)應(yīng)用階段,數(shù)據(jù)應(yīng)用是指將事先處理好的醫(yī)學(xué)數(shù)據(jù)通過(guò)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等處理,通過(guò)建模、分析來(lái)挖掘出具有醫(yī)療應(yīng)用價(jià)值的信息。然而經(jīng)過(guò)多元數(shù)據(jù)聚合分析,可能會(huì)帶來(lái)隱私信息重新識(shí)別的風(fēng)險(xiǎn)。并且在數(shù)據(jù)采集時(shí),數(shù)據(jù)的可信性并不能得到有效保障,這就導(dǎo)致在數(shù)據(jù)應(yīng)用階段會(huì)產(chǎn)生錯(cuò)誤的結(jié)論。
健康隱私泄露導(dǎo)致的問(wèn)題一般可以分為兩類:后果論和道義論。后果論關(guān)注的是在隱私泄露后,會(huì)給隱私人帶來(lái)不好的后果。比如:某人在招聘前被用人單位知道患有某種疾病或者從基因數(shù)據(jù)中看出他比常人更易患上某種疾病導(dǎo)致應(yīng)聘失敗,或者某人因醫(yī)學(xué)隱私泄露而導(dǎo)致個(gè)人保險(xiǎn)額度提高,這些都是不公平的。后果論的另一種情況不會(huì)直接帶來(lái)不好的后果,但是會(huì)被焦慮的情緒所困擾。比如:有人認(rèn)為現(xiàn)在可能會(huì)出現(xiàn)身份盜竊,擔(dān)心自己的隱私權(quán)受到侵犯,可能會(huì)使人焦慮、神經(jīng)緊張。
而道義論所關(guān)注的并不取決于經(jīng)歷了什么不好的后果。在此類別中,即使沒(méi)有人使用隱私人的相關(guān)隱私信息也沒(méi)有人受到傷害,或者該人甚至從未意識(shí)到自己已經(jīng)發(fā)生違規(guī)行為,也可能會(huì)受到隱私泄露的侵害。例如,某個(gè)組織無(wú)意中訪問(wèn)了某人存儲(chǔ)在智能手機(jī)上的數(shù)據(jù),在審查之后,該組織意識(shí)到這些數(shù)據(jù)對(duì)他們毫無(wú)價(jià)值并且刪除了記錄。那些審查數(shù)據(jù)的人在國(guó)外生活,絕不會(huì)在現(xiàn)實(shí)生活中遇到。很難說(shuō)這個(gè)人在結(jié)果論的角度受到了傷害,但他失去對(duì)自己數(shù)據(jù)的控制。所以入侵即使在沒(méi)有傷害的情況下也存在著道義上的問(wèn)題[2]。
在我國(guó)現(xiàn)有法律法規(guī)中,目前僅《民法總則》《侵權(quán)責(zé)任法》《執(zhí)業(yè)醫(yī)師法》《護(hù)士管理辦法》等部分法律就個(gè)人信息的權(quán)利和隱私保護(hù)有相關(guān)涉及條款,沒(méi)有形成以隱私權(quán)為獨(dú)立個(gè)體的系統(tǒng)化、專門(mén)化的法律條例,司法實(shí)踐上存在較大困難。伴隨著醫(yī)學(xué)人工智能的迅速發(fā)展,沒(méi)有健全的隱私保護(hù)法律體系便難以應(yīng)對(duì)人工智能時(shí)代的隱私風(fēng)險(xiǎn)。
美國(guó)關(guān)于隱私保護(hù)的立法較早,1996年通過(guò)了著名的HIPAA法案。HIPAA分為不同部分,每個(gè)部分解決醫(yī)療保險(xiǎn)改革中的一個(gè)獨(dú)特問(wèn)題。其中保護(hù)患者免受隱私泄露的最重要策略之一是通過(guò)刪除一組18個(gè)指定的標(biāo)識(shí)符(如姓名和電子郵件地址)來(lái)保護(hù)其數(shù)據(jù)。歐盟的數(shù)據(jù)隱私規(guī)則,《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR,簡(jiǎn)稱《條例》)經(jīng)過(guò)近兩年的討論修改,于2018年正式生效?!稐l例》明確調(diào)整對(duì)象、增強(qiáng)信息處理透明度、拓展用戶權(quán)利、禁止對(duì)個(gè)人敏感信息進(jìn)行自動(dòng)化處理、引入隱私設(shè)計(jì)理論[3]。參考美國(guó)和歐盟的隱私保護(hù)法,在我國(guó)的《個(gè)人隱私保護(hù)法案》中應(yīng)關(guān)注以下制度的建立。
1.對(duì)數(shù)據(jù)進(jìn)行多層次檢查
主要包括三方面對(duì)數(shù)據(jù)的監(jiān)管要求。首先公司有義務(wù)向國(guó)家管理機(jī)構(gòu)提供相關(guān)算法決策詳細(xì)解釋,或關(guān)于算法如何做出決定的資料。這主要是為了避免“歧視問(wèn)題”。其次是國(guó)家要求公司開(kāi)展的監(jiān)管,公司應(yīng)當(dāng)遵守讓人工介入AI的使用過(guò)程,可以審核任意算法決策。三是由個(gè)人提出的監(jiān)管要求,比如“擦除權(quán)”,即用戶如果認(rèn)為該公司的產(chǎn)品收集了個(gè)人數(shù)據(jù)并侵犯了隱私則可要求公司擦除涉及個(gè)人隱私的數(shù)據(jù)。
2.確定與侵犯隱私程度相對(duì)應(yīng)的刑法處罰
2018年5月28日?qǐng)?bào)道,F(xiàn)acebook和谷歌等美國(guó)企業(yè)成為GDPR法案下第一批被告。2019年7月8日,英國(guó)信息監(jiān)管局發(fā)表聲明說(shuō),英國(guó)航空公司因?yàn)檫`反《一般數(shù)據(jù)保護(hù)條例》被罰1.8339億英鎊(約合15.8億元人民幣)。刑法是調(diào)整社會(huì)關(guān)系的最后一道防線,讓侵犯隱私的人付出代價(jià)才能及時(shí)止損。
在我國(guó)沒(méi)有相關(guān)隱私保護(hù)法的情況下,大多數(shù)公司和企業(yè)都是采用技術(shù)的方法對(duì)相關(guān)隱私進(jìn)行保護(hù)。
在數(shù)據(jù)采集階段,首先需要提高醫(yī)務(wù)人員的隱私保護(hù)意識(shí),杜絕就診時(shí)有其他不相關(guān)人員在場(chǎng)的現(xiàn)象。其次是對(duì)數(shù)據(jù)進(jìn)行一定程度的脫敏處理,可以參考《HIPAA法案》中規(guī)定的18項(xiàng)健康信息對(duì)患者的隱私進(jìn)行脫敏保護(hù)。
在數(shù)據(jù)整理階段,首先做好隱私數(shù)據(jù)脫敏處理。在保證數(shù)據(jù)可用的情況下,降低黑客攻擊的風(fēng)險(xiǎn)。其次可以使用數(shù)據(jù)擾亂技術(shù),通過(guò)添加噪聲對(duì)敏感數(shù)據(jù)進(jìn)行擾亂同時(shí)保持?jǐn)?shù)據(jù)或數(shù)據(jù)屬性不變。HIS(醫(yī)院信息管理系統(tǒng))、EMR(電子病歷系統(tǒng))應(yīng)具有容災(zāi)備份能力。
在數(shù)據(jù)應(yīng)用階段,則重點(diǎn)考慮數(shù)據(jù)集相互關(guān)聯(lián)的情況下,最大化被匿名處理之后的數(shù)據(jù)使用效果,實(shí)現(xiàn)數(shù)據(jù)跨系統(tǒng)的共享與利用。一般使用平衡約束算法實(shí)現(xiàn)數(shù)據(jù)實(shí)用性和防止信息泄露的隱私保護(hù)之間的平衡。
侯瀅等人認(rèn)為:“智慧醫(yī)療的發(fā)展關(guān)系到每一位民眾的切身利益,其數(shù)據(jù)智能的發(fā)展必須符合正義原則”[4]。醫(yī)學(xué)人工智能本質(zhì)上是為每一位民眾提供更好更快的就診服務(wù),提高民眾就醫(yī)體驗(yàn)的技術(shù),不應(yīng)擴(kuò)大就醫(yī)人群的地位和權(quán)力的差距。劉洋[5]等人認(rèn)為有能力支付醫(yī)學(xué)人工智能治療方式的人占少數(shù)且人工智能也給老年人帶來(lái)不便,人工智能算法所基于的數(shù)據(jù)本身可能包含有意想不到的算法偏見(jiàn),不可控的產(chǎn)生年齡、性別、種族方面的歧視,加劇現(xiàn)有的社會(huì)不平等。筆者覺(jué)得醫(yī)學(xué)人工智能的廣泛應(yīng)用引起的公平問(wèn)題不僅僅體現(xiàn)在患者與患者之間,也體現(xiàn)在醫(yī)療機(jī)構(gòu)之間。在現(xiàn)階段大部分醫(yī)學(xué)人工智能都造價(jià)不菲,再加上平時(shí)的保養(yǎng)和管理的費(fèi)用,以及培訓(xùn)醫(yī)務(wù)人員使用人工智能的費(fèi)用,這一大筆開(kāi)銷使得能引進(jìn)醫(yī)學(xué)人工智能的醫(yī)院少之又少,且購(gòu)買(mǎi)人工智能設(shè)備都需相應(yīng)的資質(zhì)。這樣看來(lái),只有少數(shù)有實(shí)力有資金的大醫(yī)院才可引進(jìn)人工智能設(shè)備,長(zhǎng)此以往,醫(yī)療機(jī)構(gòu)之間的差距也會(huì)逐漸拉大。