劉榮
自人工智能出現(xiàn)以來,人工智能的安全問題就是一個長盛不衰的話題。在推廣“智能醫(yī)學(xué)”概念、介紹智能醫(yī)學(xué)發(fā)展?jié)撃艿臅r候,經(jīng)常會聽到人們對智能醫(yī)學(xué)安全問題的擔憂。究其原因,是因為醫(yī)療行為的受眾是人,準確地說,是所有的人,每個人都是潛在的患者,而醫(yī)學(xué)行為又直接關(guān)乎生老病死這些人生最本質(zhì)的問題;此外,當人工智能投入醫(yī)學(xué)應(yīng)用之后,人工智能將在很大程度上取代人類成為醫(yī)療行為的主體。因此,智能醫(yī)學(xué)的安全問題必然會引起人們廣泛的關(guān)注和討論。筆者在此對幾個智能醫(yī)學(xué)中涉及安全的熱點問題進行介紹和分析。
普遍最受人們關(guān)心的問題之一是,機器人是否會出于自身利益而傷害人類。在目前的技術(shù)條件下,所能實現(xiàn)的人工智能都在弱人工智能的范疇內(nèi)。弱人工智能只能完成人類賦予的特定任務(wù),也就是無論弱人工智能做什么,其貫徹的都是人類的目的。因此,弱人工智能是否會傷害人類,取決于賦予其任務(wù)的人類是否有傷害人類的目的。例如,某家科技公司制造了一款基于人工智能的“殺人無人機”,“殺人無人機”可以通過面部識別找到要擊殺的目標,通過靈活的走位躲避攔截,最終可以固定在人類頭部,通過引爆內(nèi)置的炸藥,來完成對目標任務(wù)的擊殺。
有人擔心在日常生活中會出現(xiàn)這樣的一種殺人武器,對自己的生命構(gòu)成威脅。但基于弱人工智能的原理,這是不會出現(xiàn)的,因為這個無人機執(zhí)行的是人類賦予的目標。它所要擊殺的目標,是由背后操縱機器的人指定的。只要控制住了給無人機指定目標的人,就可以控制無人機的行為;只要知道了賦予無人機目標的人,就可以對其進行相應(yīng)的懲罰。這樣的“殺人無人機”是可控的,是可以被限制住的。想要殺人的是人,而不是機器。換而言之,只要是在弱人工智能的技術(shù)范疇之內(nèi),我們就可以通過法律和規(guī)定,來控制人工智能的目標,進而保證人工智能的安全應(yīng)用。在此條件之下,人類的真正敵人是人類自身,人工智能是我們忠實的盟友。
值得注意的是,人工智能傷害人類的方式可能并不都是那么直接。例如,有一種協(xié)助人類對應(yīng)聘者進行篩選的人工智能系統(tǒng),在積累一定經(jīng)驗之后,會直接將女性應(yīng)聘者從備選者名單中剔除。人們指責這是人工智能對女性的性別歧視。但其實剔除女性備選者原因并不是模型“歧視”了女性,而是因為模型陷入了局部最優(yōu)解。局部最優(yōu)解是指對解決問題或達成目標的手段在一定范圍或限制內(nèi)最優(yōu)。例如在胰腺囊腺瘤的診斷中,漿液性囊腺瘤占兩者總量的80%以上,黏液性囊腺瘤則只有不到 20%。也就是說,如果一個模型將所有的胰腺囊腺瘤的患者全部診斷為漿液性,就可以獲得80% 以上的準確率。這樣的準確率是非??捎^的,但是這種模型在實際應(yīng)用中毫無意義,因為模型陷入了局部最優(yōu)解,沒有根據(jù)全局進行判斷。在招聘中,一名企業(yè)管理者的目的是為企業(yè)獲取最大的利益,所以在訓(xùn)練系統(tǒng)的時候,會根據(jù)情況給不同的訓(xùn)練標本打上標簽,讓模型根據(jù)這種標簽去進行訓(xùn)練。由于機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)維度很高,人類很難對如此高維的數(shù)據(jù)有感性的認識,可能管理者在給樣本打標簽的過程中并沒有意識到自己對女性存在偏見,或者是僅僅考慮到了經(jīng)濟利益而忽略了更廣泛的社會因素,最終根據(jù)這樣的數(shù)據(jù)就訓(xùn)練出了一個有著性別歧視傾向的模型。
這給我們敲響了警鐘,相較于招聘,醫(yī)療行為中的歧視是更無法被接受的。生理缺陷者、精神疾病患者、罕見疾病患者和傳染性疾病的感染者等特殊群體往往會遭受到不同程度的歧視。醫(yī)師在日常的醫(yī)療行為中,通常都會盡力去避免歧視,因為在醫(yī)療行為中這些群體恰恰是最需要關(guān)心的,對這些患者的歧視不能被容忍。然而,如果在對這些患者的診治過程中,出現(xiàn)了對患者的某些負面的反饋,就很有可能形成一種標簽,進而影響到患者的診斷和治療。這種情況會引起較大的爭議。因此,我們在模型訓(xùn)練的過程中應(yīng)通過平衡訓(xùn)練樣本數(shù)量等方法避免這種狀況的出現(xiàn),防止由于算法的歧視給患者利益帶來的損害。
醫(yī)療數(shù)據(jù)是智能醫(yī)學(xué)的基礎(chǔ)。醫(yī)療數(shù)據(jù)安全包括兩個方面。① 數(shù)據(jù)的存儲安全,就是要保證醫(yī)療數(shù)據(jù)在儲存的過程中不損壞、不丟失。這一問題隨著存儲介質(zhì)和云存儲技術(shù)的進步已經(jīng)基本得到了解決。② 數(shù)據(jù)的隱私安全,網(wǎng)絡(luò)的互聯(lián)互通為人們帶來便利的同時,也增大了個人數(shù)據(jù)泄露的風(fēng)險。用戶在線上填寫非保密個人信息的時候、智能裝備收集健康數(shù)據(jù)的時候、在地圖軟件上進行搜索的時候、使用約車軟件約車的時候……個人數(shù)據(jù)都會被源源不斷地上傳到網(wǎng)絡(luò)上。
與常規(guī)的數(shù)據(jù)相比,醫(yī)療信息涉及諸多深度的信息,因此被盜后的損失會更大。例如,利用智能裝備等實時收集的健康數(shù)據(jù)可以分析出某種疾病的發(fā)病風(fēng)險。但是獲得數(shù)據(jù)分析的硬件和軟件的方法對所有人都是一樣的。如果獲得數(shù)據(jù)的人通過這些數(shù)據(jù)分析出某種疾病的發(fā)病風(fēng)險,然后將相關(guān)結(jié)果出售給保險公司,那么保險公司就可以通過分析出來的某種疾病發(fā)病風(fēng)險的數(shù)據(jù)來增加高發(fā)病風(fēng)險人員的保費。這樣,保險公司就可以通過隱性的手段來謀取不正當利益。
智能醫(yī)學(xué)時代的到來使個人隱私的保護面臨尷尬的處境。① 對于人工智能,數(shù)據(jù)是人工智能的基石,數(shù)據(jù)的量和質(zhì)量直接決定其成敗。因此,如果希望人工智能在某一方面有所作為,就必然需要讓人工智能掌握相關(guān)的數(shù)據(jù)。② 將如此多的信息進行集中又會對我們的隱私造成極大的挑戰(zhàn)。如果希望網(wǎng)站對其內(nèi)容進行準確地推送,就必然需要網(wǎng)站知道用戶的瀏覽歷史記錄;如果想要零售商為我們推薦想要的產(chǎn)品,就必然要透露購買記錄;如果想得到更精準、個體化的醫(yī)療服務(wù),就必然要共享醫(yī)療記錄??梢约僭O(shè)兩種極端的情況,① 完全拋棄對于隱私的保護,所有數(shù)據(jù)都可以用來發(fā)展技術(shù)。② 絕對的保護隱私,無論這些數(shù)據(jù)可以帶來怎么樣的技術(shù)進步。顯然這兩種局面都不是我們所愿意看到的。更多人希望的是在兩者之間取一個平衡。對于不同的數(shù)據(jù)類型來說,這個平衡點可能也是完全不同的。比如,骨折患者對于醫(yī)療數(shù)據(jù)的泄露可能并不特別在意,會更愿意將數(shù)據(jù)貢獻出來發(fā)展新技術(shù);而乙肝患者可能就會比較擔心診斷數(shù)據(jù)的泄露會影響其就業(yè)和擇偶,就會更傾向于對自己的信息進行保密。
我們可以考慮保護數(shù)據(jù)隱私的可能方法:比如,利用數(shù)據(jù)加密的方法,將數(shù)據(jù)獲取端和數(shù)據(jù)使用端的信息隔開,數(shù)據(jù)分析端可以利用數(shù)據(jù)進行分析,但是使用的數(shù)據(jù)是經(jīng)過加密的數(shù)據(jù)。那么數(shù)據(jù)分析端的人員即使通過數(shù)據(jù)分析出了有價值的信息,也不知道該如何去利用這些信息。此外,吳軍在《智能時代:大數(shù)據(jù)與智能革命重新定義未來》一書中提到了一種應(yīng)對智能時代隱私泄露的方法,就是隱私數(shù)據(jù)獲取的“雙向性”,其思路是使被獲取隱私數(shù)據(jù)者也可以同時獲取對方相應(yīng)的隱私數(shù)據(jù),并清楚地知道對方使用自己的隱私數(shù)據(jù)做了什么事情,通過這種互相制約的方法來保證隱私數(shù)據(jù)的安全性。就好比一個人從門縫向門里偷窺另一個人,如果門里的人對此渾然不知的話,那么偷窺者就可以肆無忌憚;而如果偷窺者打開門后發(fā)現(xiàn)門里有雙眼睛在盯著自己,那么勢必就要自我約束行為了。這也是智能醫(yī)學(xué)時代保護個人隱私的一個可行之策。
現(xiàn)在智能醫(yī)學(xué)的發(fā)展趨勢,主導(dǎo)智能醫(yī)學(xué)發(fā)展的很多是業(yè)務(wù)跨度極大的高技術(shù)公司。比如,美國的IBM、谷歌,中國的阿里、百度等。這些公司無一例外的都不是專門的智能醫(yī)學(xué)公司,之所以能在智能醫(yī)學(xué)的發(fā)展中搶到先機,與其掌握著大量的用戶數(shù)據(jù)的關(guān)系密切。這無疑對技術(shù)的發(fā)展是有利的,但是這些公司都有著眾多其他業(yè)務(wù),在發(fā)展智能醫(yī)學(xué)的過程中獲取的數(shù)據(jù)也可以用于其他業(yè)務(wù)的發(fā)展。
例如,某家公司發(fā)現(xiàn)年齡、住院時間與出院后使用某些護理用品之間的關(guān)系,就可以針對這類客戶推廣相應(yīng)的產(chǎn)品;分析出胰腺手術(shù)后患者需要長期進行換藥、引流袋沖洗之類的醫(yī)療服務(wù),制作搜索引擎的公司就可以向這類患者推薦與其有合作關(guān)系的、收費較高的私立醫(yī)院,并向醫(yī)院收取宣傳費用。這種行為似乎從道義上說很不正確,但是其前提是公司投入資源進行智能醫(yī)學(xué)的技術(shù)研發(fā),在客觀上推動著技術(shù)的進步,很難說這種行為是對的還是錯的。
數(shù)據(jù)壟斷的問題,目前討論得比較少。壟斷者在市場上,能夠隨意調(diào)節(jié)價格與產(chǎn)量。數(shù)據(jù)在智能時代將會成為像水、電、石油一樣的“能源”,擁有巨大財力和社會資源的一家或幾家公司就可以通過資金完全或基本完全的掌握某行業(yè)的數(shù)據(jù)資源,進而獲得定價權(quán),以此謀利。
壟斷在歷史上是有跡可循的。人類文明史上發(fā)生過 3次信息載體領(lǐng)域的革命:第一次是語言,第二次是文字,第三次是數(shù)據(jù)。在文字作為主要信息載體的時代,由于書寫工具和文字載體普遍比較昂貴和專業(yè),因此在很大程度上成為了統(tǒng)治階級壟斷思想和文化的工具(中國,由于造紙術(shù)出現(xiàn)得很早,沒有出現(xiàn)這樣的情況)。例如在中世紀的歐洲,文字的載體是昂貴的羊皮紙,只有教會和貴族可以掌握,這就決定了以文字傳播的思想和知識就被限制在這兩個階層的范圍內(nèi),尤以教會階層為甚,這就是典型的信息載體壟斷。
一個醫(yī)療行業(yè)內(nèi)的現(xiàn)實例子。目前,世界范圍之內(nèi),成熟的機器人手術(shù)系統(tǒng)只有一家公司在生產(chǎn)。所以,這家公司現(xiàn)在掌握的幾乎是全球全部的機器人手術(shù)數(shù)據(jù),目前想開展機器人手術(shù)業(yè)務(wù)的醫(yī)院都必須購買該公司的產(chǎn)品。那么,在智能手術(shù)系統(tǒng)的開發(fā)過程中,這家公司所擁有的數(shù)據(jù)將構(gòu)成極大的先天優(yōu)勢和定價權(quán),這是其他公司所難以比擬的。
醫(yī)學(xué)數(shù)據(jù)是典型的高價值數(shù)據(jù),因此較一般的數(shù)據(jù),更容易形成壟斷。而醫(yī)療服務(wù)又是人們所必需的。試想,如果在智能醫(yī)學(xué)時代,智能影像診斷成為常規(guī)診斷方法的背景下,有某家公司從一種發(fā)病率較低的疾病入手,掌握了整個地區(qū)全部的該疾病的診斷相關(guān)數(shù)據(jù),那么該地區(qū)的所有這一疾病患者的診斷都要依賴于在這家公司擁有的數(shù)據(jù)的基礎(chǔ)之上建立的診斷模型。而我們知道,人工智能模型的質(zhì)量是與數(shù)據(jù)的質(zhì)和量直接相關(guān)的。因此,其他人很難在相關(guān)疾病的診斷質(zhì)量上超過這家公司,而醫(yī)療機構(gòu)為了獲取更高的診斷質(zhì)量,也會更加傾向于與該公司進行合作,為其提供數(shù)據(jù)并獲得智能診斷的產(chǎn)品。該公司就擁有了很大的市場定價權(quán)和話語權(quán),成為這一疾病診斷領(lǐng)域的“數(shù)據(jù)寡頭”,這無疑會對市場的公平性形成挑戰(zhàn)。
隨著人工智能技術(shù)的不斷進步,人工智能可以完成的任務(wù)也越來越多,但是人工智能所做的就真的一定是我們想要的么?有個希臘神話,邁達斯國王(佛律癸亞國王)貪戀財富,后來如愿以償,獲得了點石成金的能力;不過他所觸及之處都會變成金子;連他碰到的面包、他的女兒都變成了金子,他因為無法吃到事物,差點餓死。
這個希臘神話放到智能醫(yī)學(xué)的大背景下具有很強的現(xiàn)實意義。我們希望人工智能擴展技術(shù)的邊界,去實現(xiàn)人類的目標。但這是否真的對人類有利呢?可以設(shè)想,如果在人工智能、基因技術(shù)的協(xié)助下,人類獲得了永葆年輕的能力,那么會怎么樣呢?人口爆炸、資源匱乏是必然會出現(xiàn)的情況;更嚴重的是,人類會喪失進化的動力,最終被淘汰。而這些可怕的結(jié)局最初都是源于人類為了實現(xiàn)愿望所做的努力。因此,在人工智能的導(dǎo)向方面,是否真的要讓人工智能極盡所能的去完成人類的目標呢?實現(xiàn)這些目標是否真的會給醫(yī)療領(lǐng)域,或者給人類帶來進步呢?邁達斯國王的故事是一個很好的啟示。
智能醫(yī)學(xué)的安全應(yīng)用需要倫理框架和法律約束。電氣和電子工程師協(xié)會提出,要將人類社會的法律和道德規(guī)范融入到人工智能系統(tǒng)之中。在智能醫(yī)學(xué)的實現(xiàn)過程中,也要將醫(yī)學(xué)相關(guān)的法律法規(guī)和醫(yī)學(xué)倫理學(xué)的準則嵌入智能醫(yī)學(xué)的相關(guān)系統(tǒng)中。但是醫(yī)學(xué)倫理準則本身就存在著諸多爭議。例如在臨床工作中,對于是否應(yīng)該告知惡性腫瘤的患者本人病情就存在很大爭議?;颊弑救酥啦∏闀又匦睦碡摀坏侨绻贿M行告知,又侵害了患者的知情權(quán)。在歐美國家,普遍的共識是應(yīng)該尊重患者的知情權(quán),告知患者本人的病情。而在國內(nèi),則經(jīng)常為了不加重患者的心理負擔,不告知患者本人病情。兩者孰優(yōu)孰劣?很難說,因此人類自身就處于對醫(yī)學(xué)倫理的巨大爭論之中,又應(yīng)該將何種倫理框架加之與人工智能呢?
毋庸置疑,人工智能將會帶來很多安全方面的問題。這里討論的內(nèi)容只是可以預(yù)見的問題,還有更多的、無法預(yù)見的安全問題在智能醫(yī)學(xué)的路上等著我們。現(xiàn)在的智能醫(yī)學(xué)更多是工程師和少數(shù)醫(yī)師在參與,缺乏哲學(xué)、倫理學(xué)、法學(xué)等其他社會學(xué)科的參與。智能醫(yī)學(xué)的發(fā)展需要這些學(xué)科的加入,因為在某種意義上我們已經(jīng)不是在制造一個被動的簡單工具,而是在設(shè)計像人一樣具有感知、認知、決策等能力的事物,我們需要確保這樣的事物進入人類社會以后和我們所期待的醫(yī)療價值規(guī)范相一致,與醫(yī)療行為整體的目標相符合。良好的智能醫(yī)學(xué)的安全規(guī)范將是智能醫(yī)學(xué)發(fā)展的壓艙石。
(摘自《中華腔鏡外科雜志(電子版)》2018年第1期)