潘若琳,鄭秋瑩
(1 北京中醫(yī)藥大學(xué)護(hù)理學(xué)院,北京 100029,kotomituanzi@163.com;2 北京中醫(yī)藥大學(xué)管理學(xué)院,北京 100029)
2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,表明中國將人工智能視為促進(jìn)產(chǎn)業(yè)變革和經(jīng)濟(jì)轉(zhuǎn)型的關(guān)鍵,人工智能革新了人們的生產(chǎn)生活方式,開始向各行各業(yè)賦能[1]。近年來,人工智能技術(shù)與健康領(lǐng)域不斷加深融合,智能醫(yī)療應(yīng)用場景愈發(fā)豐富,人工智能已經(jīng)成為健康產(chǎn)業(yè)發(fā)展新的驅(qū)動力,在醫(yī)療、護(hù)理、健康、養(yǎng)老等方面得到了廣泛應(yīng)用。2017年,美國加州召開的“阿西洛馬會議”上,多位人工智能領(lǐng)域的專家聯(lián)合簽署了《阿西洛馬人工智能原則》,該原則倡導(dǎo):在全世界范圍,涉足人工智能領(lǐng)域的各方要共同遵守這些原則,保障人類的共同利益和安全[2]。人工智能技術(shù)日益成為醫(yī)療健康領(lǐng)域關(guān)注的核心,但由于缺乏統(tǒng)一倫理思想的指導(dǎo),其可能存在的倫理風(fēng)險(xiǎn)也愈發(fā)凸顯,2018年《未來基石——人工智能的社會角色與倫理》報(bào)告發(fā)布會上,微軟公司總裁施博德指出,在給予計(jì)算機(jī)更強(qiáng)大力量的同時(shí),也應(yīng)當(dāng)借助社會倫理對其進(jìn)行合理引導(dǎo)[3]。
健康產(chǎn)業(yè)作為關(guān)系人類健康福祉的重要產(chǎn)業(yè),更要認(rèn)清人工智能的內(nèi)在本質(zhì),分析其發(fā)展路徑,關(guān)注并找出人工智能可能帶來的倫理問題,并進(jìn)行合理規(guī)避。2019年3月4日,第十三屆全國人大二次會議上,大會發(fā)言人張業(yè)遂表示,人大常委會已將人工智能相關(guān)法律列入本屆五年立法規(guī)劃,努力為人工智能創(chuàng)新發(fā)展提供有力法治保障[4]。雖然現(xiàn)階段的人工智能尚處于弱人工智能階段,還不涉及強(qiáng)烈的倫理問題,但是面對飛速發(fā)展的科技,我們不得不防患于未然,健康產(chǎn)業(yè)是一個(gè)特殊的產(chǎn)業(yè),在人工智能這項(xiàng)敏感的技術(shù)面前,倫理思考一定要走在技術(shù)發(fā)展的前面,才能更好地解放生產(chǎn)力,解放人類智能。
健康產(chǎn)業(yè)兼具產(chǎn)業(yè)屬性與公益屬性融合的特征,屬于半公益性的經(jīng)濟(jì)活動,發(fā)展這一產(chǎn)業(yè)需要市場和政府協(xié)同作用,政策和技術(shù)在健康產(chǎn)業(yè)的發(fā)展現(xiàn)狀中起著舉足輕重的作用。
1.1.1 技術(shù)及應(yīng)用場景現(xiàn)狀
2016年被稱為“人工智能元年”,科技的躍遷,資本的活躍,移動互聯(lián)網(wǎng)的普及,物聯(lián)網(wǎng)時(shí)代的到來,為大數(shù)據(jù)的快速積累,設(shè)備運(yùn)算能力的提升,算法模型的演進(jìn)創(chuàng)造了條件,使得人工智能相關(guān)技術(shù)迅猛發(fā)展。從最初僅僅局限于掛號服務(wù)、信息查詢、輕問診,到電子病歷、醫(yī)療手術(shù)機(jī)器人、智能芯片,人工智能與健康產(chǎn)業(yè)的融合從邊緣的探索階段走進(jìn)核心發(fā)展階段。
根據(jù)對新華網(wǎng)及中國知網(wǎng)、萬方數(shù)據(jù)等期刊平臺相關(guān)信息的整理和比對,可以發(fā)現(xiàn)人工智能健康產(chǎn)業(yè)已經(jīng)孕育出多種產(chǎn)品(詳見表1)。目前,人工智能與健康產(chǎn)業(yè)結(jié)合方式豐富,技術(shù)方面包括語音識別、圖像處理、機(jī)器人技術(shù)、大數(shù)據(jù)分析、文獻(xiàn)搜集與分析推理;就診流程方面包括診前、診中、診后;適用對象方面包括醫(yī)院、醫(yī)生、患者、藥企等。
表1 人工智能健康產(chǎn)業(yè)應(yīng)用場景及應(yīng)用
注:本表為作者根據(jù) 新華網(wǎng).人工智能技術(shù)在醫(yī)療領(lǐng)域的應(yīng)用[EB/OL].(2018-09-25)[2019-03-08].http://www.xinhuanet.com/info/2018-09/25/c_137491303.htm.整理而成
美國軟件公司Nuance Communications研制的Dragon Medical人工智能助手可幫助醫(yī)生使用語音完成健康檔案編輯、患者病歷評估及處方填寫等任務(wù),科大訊飛云醫(yī)聲利用其全球領(lǐng)先的智能語音和人工智能技術(shù),收集患者資料以供醫(yī)生隨時(shí)查閱,還能將醫(yī)生說出來的醫(yī)囑直接整理成電子文檔;騰訊公司研發(fā)的騰訊覓影利用計(jì)算機(jī)視覺和深度學(xué)習(xí)技術(shù),輔助醫(yī)生診斷和完成重大疾病早期篩查等任務(wù);IBM沃森機(jī)器人,定位是“腫瘤專家顧問”,可以通過詢問患者的病征、病史,通過人工智能技術(shù)迅速給出診斷提示和治療意見,達(dá)芬奇手術(shù)機(jī)器人能夠幫助醫(yī)生為患者進(jìn)行微創(chuàng)手術(shù);Epicenter芯片通過植入人體獲取人的行為和健康信息,便利人們的生活;硅谷Atomwise利用其強(qiáng)悍的文獻(xiàn)搜集與數(shù)據(jù)處理能力,大大提高了藥物研發(fā)的效率。
1.1.2 政策現(xiàn)狀
現(xiàn)今我國衛(wèi)生健康服務(wù)需求提高、人口老齡化、疾病譜變化、醫(yī)療衛(wèi)生資源配置不均等問題都對衛(wèi)生體系和健康產(chǎn)業(yè)提出了新的要求。2016年6月,國務(wù)院公布《關(guān)于促進(jìn)和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導(dǎo)意見》,明確指出健康醫(yī)療大數(shù)據(jù)是國家重要的基礎(chǔ)性戰(zhàn)略資源[5]。2017年5月,科技部發(fā)布《“十三五”衛(wèi)生與健康科技創(chuàng)新專項(xiàng)規(guī)劃》,要求推進(jìn)醫(yī)學(xué)人工智能研究,支持智慧醫(yī)療發(fā)展[6]。2017年7月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,提出推廣應(yīng)用人工智能治療新模式新手段,建立快速精準(zhǔn)的智能醫(yī)療體系,探索智慧醫(yī)院建設(shè);加強(qiáng)群體智能健康管理,突破健康大數(shù)據(jù)分析、研發(fā)健康管理可穿戴設(shè)備,建設(shè)智能養(yǎng)老社區(qū)和機(jī)構(gòu)[7]?!兑庖姟贰兑?guī)劃》的出臺,表現(xiàn)出國家對人工智能發(fā)展的鮮明支持態(tài)度,明確了健康產(chǎn)業(yè)的發(fā)展路徑和發(fā)展目標(biāo),政策紅利的釋放,使市場對人工智能健康產(chǎn)業(yè)更加充滿了信心,隨著大量資本的注入,健康產(chǎn)業(yè)蓬勃發(fā)展。
論文發(fā)表量是反映學(xué)者研究興趣和學(xué)術(shù)熱情的重要指標(biāo)。據(jù)萬方數(shù)據(jù)庫統(tǒng)計(jì)顯示,2017年后,有關(guān)人工智能的文章數(shù)量呈井噴趨勢,僅2017年一年的文獻(xiàn)量就達(dá)到了9495篇,2018年更是達(dá)到10050篇之多,為本研究提供了豐富的素材。以篇名、關(guān)鍵詞、摘要、全文為檢索項(xiàng),“人工智能”and“健康”and“倫理”為檢索詞,于2019年3月,搜索中國知網(wǎng)、萬方,共檢出中文期刊文獻(xiàn)139篇,通過瀏覽篇名和摘要,排除與本主題明顯不符的文獻(xiàn),經(jīng)過篩選,共納入中文文獻(xiàn)31篇。
現(xiàn)有的關(guān)于人工智能倫理問題的文章多從社會和技術(shù)兩個(gè)層面出發(fā)來討論分析,而技術(shù)層面又多從算法和數(shù)據(jù)入手,如周吉銀等(2019)認(rèn)為人工智能的倫理問題主要由算法的自主學(xué)習(xí)能力所衍生,目前人工智能是否會傷害人類取決于賦予其任務(wù)的人類是否有傷害人的目的;劉榮(2018)認(rèn)為智能醫(yī)學(xué)中存在的倫理問題主要包括“數(shù)據(jù)歧視”和醫(yī)療數(shù)據(jù)安全;董青嶺(2018)認(rèn)為人工智能存在算法邏輯中的道德困境,在沒有或無法植入社會正義理念的情境下,有可能塑造社會新的陰暗面;而從社會角度出發(fā)審視人工智能倫理問題的則有伍敏敏(2018)認(rèn)為人工智能引發(fā)的倫理問題主要包括道德主體地位問題,責(zé)任倫理問題,隱私保護(hù)問題;郭建偉等(2018)認(rèn)為人工智能可能帶來的倫理問題主要體現(xiàn)在人類是否應(yīng)當(dāng)給予其一定的“人權(quán)”及如何解決人工智能在生產(chǎn)、生活中造成的過錯(cuò);陳默(2018)認(rèn)為在人工智能輔助醫(yī)療的醫(yī)患關(guān)系倫理機(jī)制建設(shè)中存在如何定義人工智能的身份、人工智能輔助醫(yī)療是否具有特殊性、為人工智能設(shè)計(jì)道德程序是否可行的問題;王銀春(2018)認(rèn)為對人工智能進(jìn)行道德判斷需要區(qū)分人工智能本身的道德評價(jià)問題及人工智能研發(fā)與應(yīng)用后果的善惡評價(jià)問題;王軍(2018)認(rèn)為人工智能的發(fā)展可能引起道德決策風(fēng)險(xiǎn),并在現(xiàn)實(shí)生活層面對環(huán)境、醫(yī)療、家庭產(chǎn)生影響,還可能導(dǎo)致人的異化;包桉冰等(2018)認(rèn)為醫(yī)療人工智能會對人的道德主體地位、責(zé)任認(rèn)定、隱私權(quán)保護(hù)帶來倫理風(fēng)險(xiǎn);羅誠等(2018)認(rèn)為基于圖像識別的人工智能主要存在數(shù)據(jù)質(zhì)量、患者隱私、監(jiān)管、政策法規(guī)方面的問題。
正如曾毅研究員所說,人工智能以往的發(fā)展是主要以技術(shù)驅(qū)動的,人工智能的研發(fā)者、管理者對于社會潛在的影響往往考慮不足。作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的新技術(shù),人工智能在技術(shù)發(fā)展,推動健康產(chǎn)業(yè)進(jìn)步的同時(shí),模糊了虛擬和現(xiàn)實(shí)、數(shù)字和個(gè)人的界限,并衍生出諸多復(fù)雜的倫理問題和法律問題?,F(xiàn)在,我們所要應(yīng)對不僅僅是弱人工智能,還有可能即將面對緊隨科技飛速發(fā)展而至的強(qiáng)人工智能乃至超人工智能,因此未雨綢繆,及時(shí)采取有效的應(yīng)對措施才能讓人工智能更好地發(fā)揮正面影響。本文擬從人工智能健康產(chǎn)業(yè)的發(fā)展現(xiàn)狀出發(fā),以人工智能技術(shù)層面的數(shù)據(jù)和算法作為切入點(diǎn),結(jié)合健康產(chǎn)業(yè)的特殊性以及一些國際上較有影響力的人工智能共識討論健康產(chǎn)業(yè)人工智能倫理問題的產(chǎn)生原因以及應(yīng)對措施。
3.1.1 數(shù)據(jù)效率與數(shù)據(jù)正義:數(shù)據(jù)質(zhì)量安全問題
人工智能技術(shù)發(fā)展主要依托于云計(jì)算和大數(shù)據(jù)技術(shù),數(shù)據(jù)是其發(fā)展的主要動力來源,大規(guī)模醫(yī)療數(shù)據(jù)能夠提高人工智能判斷的準(zhǔn)確性和拓寬其適用性,健康大數(shù)據(jù)的應(yīng)用是遠(yuǎn)程醫(yī)療發(fā)展的基礎(chǔ),是以低成本改善醫(yī)療資源分配不均問題,減少社會醫(yī)療支出的偉大技術(shù)進(jìn)步,國務(wù)院已在2016年6月將醫(yī)療大數(shù)據(jù)納入了國家大數(shù)據(jù)戰(zhàn)略的布局。
大數(shù)據(jù)能大幅提高人工智能技術(shù)的準(zhǔn)確性和有效性,人工智能在健康大數(shù)據(jù)的基礎(chǔ)上,通過“深度學(xué)習(xí)”,從海量病例中自動分析并獲得規(guī)律,繼而利用這些規(guī)律對未知數(shù)據(jù)進(jìn)行預(yù)測,達(dá)到對疾病的“未病先防,既病防變”。從技術(shù)發(fā)展的角度出發(fā),準(zhǔn)確地采集健康大數(shù)據(jù),加速醫(yī)療人工智能技術(shù)進(jìn)步,造福更多人,是發(fā)展的必然。然而這就構(gòu)成了一對矛盾,一方面,健康大數(shù)據(jù)對我們的健康狀況、經(jīng)濟(jì)條件、人際關(guān)系甚至生物基因等信息都進(jìn)行了詳細(xì)的記錄,允許大數(shù)據(jù)的無限采集和存儲,無疑為隱私信息的泄露埋下隱患,需要予以一定程度的規(guī)范和限制;另一方面,“健康大數(shù)據(jù)”這個(gè)詞本身就暗示著對諸多個(gè)人信息的無限采集和存儲,并且還要是準(zhǔn)確、沒有錯(cuò)漏地進(jìn)行存儲,因?yàn)閮?yōu)質(zhì)且海量的數(shù)據(jù)是醫(yī)療人工智能得以進(jìn)行“深度學(xué)習(xí)”的根本。醫(yī)療數(shù)據(jù)在采集過程中將如何保證數(shù)據(jù)的質(zhì)和量,在應(yīng)用過程中將如何保護(hù)個(gè)人隱私以及數(shù)據(jù)安全,這些問題一環(huán)扣一環(huán),已經(jīng)構(gòu)成了數(shù)據(jù)質(zhì)量安全問題群。
可以想象,如果采集到的數(shù)據(jù)可信度不高,將會影響到整個(gè)醫(yī)療大數(shù)據(jù)庫的建設(shè),甚至造成人工智能健康產(chǎn)品在應(yīng)用中出現(xiàn)誤診漏診等問題,現(xiàn)在個(gè)人的健康信息大多由醫(yī)生、護(hù)士或社區(qū)工作人員進(jìn)行采集,這種采集方式是否能完全保證數(shù)據(jù)的輸入沒有錯(cuò)誤尚且存疑,即便能保證采集過程中不出差錯(cuò),數(shù)據(jù)的“質(zhì)”能夠得到保證;那么,數(shù)據(jù)采集的“量”有無邊界,到達(dá)哪一個(gè)閾值將造成嚴(yán)重的隱私泄露又成了另外一大難題。健康大數(shù)據(jù)有其特殊性,它的失控所帶來的風(fēng)險(xiǎn)是我們難以承受的,如招聘單位、學(xué)校、醫(yī)院可能會通過個(gè)人健康狀況作為是否聘用、錄取、接診的重要參考,加劇艾滋病患者就業(yè)、就學(xué)、就醫(yī)的歧視;擁有大量用戶數(shù)據(jù)積累的企業(yè)一家獨(dú)大,造成壟斷等。而針對健康大數(shù)據(jù)所進(jìn)行的隱私保護(hù)也存在著種種問題,目前大多產(chǎn)品都帶有“服務(wù)協(xié)議”和“注冊協(xié)議”,然而它們大多只是取得了用戶“形式上的授權(quán)”,數(shù)據(jù)采集行為是否是患者自愿接受的?患者的健康信息應(yīng)該由誰來采集?患者醫(yī)療數(shù)據(jù)應(yīng)用有沒有合理的范圍限制?如果發(fā)生患者隱私數(shù)據(jù)泄露事件,該由誰來承擔(dān)責(zé)任?要解決這些問題任重而道遠(yuǎn),我們應(yīng)當(dāng)明確的是:在追求數(shù)據(jù)效率的同時(shí),不要越過數(shù)據(jù)正義的底線。
3.1.2 算法黑箱與算法的“法律”:工具理性與價(jià)值理性的平衡問題
基于大數(shù)據(jù)和人工智能的算法服務(wù)依靠精確描繪用戶畫像,精準(zhǔn)把握用戶需求,對其進(jìn)行針對性服務(wù),給人們帶來了良好的服務(wù)體驗(yàn),緩解了數(shù)字時(shí)代信息過載的壓力,該技術(shù)還能盡可能地減少人為錯(cuò)誤,充分發(fā)揮工具理性。但這并不意味著我們來到了理想的“算法烏托邦”。
醫(yī)療行為中,療法的選擇從來不是出于數(shù)字符號定量闡釋下的統(tǒng)計(jì)學(xué)上的經(jīng)驗(yàn)或智能算法的結(jié)果,在循證醫(yī)學(xué)的理念中,臨床決策的作出,就涉及最佳臨床研究證據(jù)、醫(yī)生個(gè)人經(jīng)驗(yàn)和患者價(jià)值觀及選擇性偏好三個(gè)基本要素[8],定量的數(shù)字符號并沒有辦法將這些要素量化為一個(gè)個(gè)的算法單元,而患者的健康行為選擇常常是以價(jià)值觀至上而非以效率至上的價(jià)值理性行為,是人依據(jù)自己的信念和要求所作出的行為,患者完全有可能因?yàn)槲幕叛龆唤邮苣撤N藥物或者療法。這種決策在以目的至上的“算法”看來或許有些“不可思議”,但這提示我們,在享受算法帶來的便利的同時(shí),我們不能忽視那些蘊(yùn)含于價(jià)值理性中的思想意識、義務(wù)、尊嚴(yán)、美、規(guī)訓(xùn)等信念,在健康產(chǎn)業(yè)中的人機(jī)交互中,我們應(yīng)當(dāng)注重工具理性與價(jià)值理性的平衡。
3.1.3 責(zé)任認(rèn)定問題
2018年,Uber公司開發(fā)的無人駕駛車在美國的一次道路測試中撞死了一名騎自行車的人,這再次將人工智能肇事的責(zé)任認(rèn)定問題擺到我們面前[9]。正如無人駕駛車不能永遠(yuǎn)游離在法律之外成為傷人的“利器”。醫(yī)療機(jī)器人也不能永遠(yuǎn)游離在制度與規(guī)則之外,成為害人的“法寶”。醫(yī)療機(jī)器人是人工智能技術(shù)的重大進(jìn)展,但我們卻不能忽視它潛在的倫理危機(jī),就在2018年7月,美國媒體報(bào)道稱IBM沃森機(jī)器人因?yàn)榻o出錯(cuò)誤的用藥建議而遭遇信任危機(jī),此后沃森項(xiàng)目接連受挫,先是失去了重量級客戶,大規(guī)模裁員,后是負(fù)責(zé)人黛博拉離職。
可以想見,如果手術(shù)機(jī)器人在手術(shù)過程中發(fā)生醫(yī)療事故,后果將不堪設(shè)想,而應(yīng)該承擔(dān)這次醫(yī)療事故責(zé)任的是開發(fā)者、醫(yī)生,還是機(jī)器人本身?隨著科技發(fā)展,當(dāng)我們面臨的或許未來已經(jīng)不只是弱人工智能,我們不得不思考,如果將來某一天超人工智能做出了超出開發(fā)者設(shè)計(jì)意圖的行為,其責(zé)任認(rèn)定問題該如何歸置?人工智能技術(shù)是否能無限開發(fā)?有無合理限制?因此有必要加強(qiáng)相關(guān)立法,明確開發(fā)者、醫(yī)生、患者、人工智能各方的權(quán)利,并針對人工智能建立健全相應(yīng)的倫理規(guī)范。
3.2.1 主體的復(fù)雜性
2017年,沙特阿拉伯首都的“未來投資倡議”大會上,機(jī)器人索菲亞被授予沙特公民身份,成為歷史上首個(gè)獲得公民身份的機(jī)器人,這是在法律意義上首次承認(rèn)機(jī)器人的公民身份,索菲亞的設(shè)計(jì)師漢森曾說:索菲亞的目標(biāo)就是像人類一樣生活,擁有同樣的意識、創(chuàng)造性和其他能力[10]。由此,激起了關(guān)于“機(jī)器人是否會取代人”的爭論。
從康德的“人是目的而非手段”這一觀點(diǎn)出發(fā),被設(shè)計(jì)出來用于種種用途的人工智能肯定是不能被認(rèn)定為道德主體的。然而,隨著醫(yī)療人工智能的發(fā)展,人工心臟、人工大腦、智能仿生眼球、智能假肢等智能生物輔助設(shè)備的出現(xiàn),人們必將陷入“忒休斯之船”的迷思,試想:如果人的這些生理組成要素都被智能生物輔助設(shè)備所替換,那么那個(gè)被“置換”后的人是否還是原來的那個(gè)人?它是否仍然擁有原來的人所擁有的一切社會關(guān)系?仍然承擔(dān)原來的人所承擔(dān)的社會責(zé)任[11]?
3.2.2 數(shù)字化生存:技術(shù)的負(fù)面效應(yīng)
目前,人工智能技術(shù)發(fā)展勢頭驚人,但其本身卻并不成熟,從2016年的“人工智能元年”走來,僅僅經(jīng)歷3年時(shí)間,人們還沉浸在這項(xiàng)革命性技術(shù)帶來的無限可能的暢想和喜悅之中,對其警惕略顯不足。歷史告訴我們,很多革命性技術(shù)的負(fù)面效應(yīng)需要時(shí)間才能得到檢驗(yàn),人工智能技術(shù)能達(dá)到什么程度尚且處于未知,然而這種唯數(shù)據(jù)和算法生存的模式卻可能會將人們的生活方式顛覆,正如尼葛洛龐帝所預(yù)言的:“人們的社會生存狀態(tài)變成了一種數(shù)字化的生存”,醫(yī)療健康數(shù)據(jù)的特殊性決定了它是一種典型的高價(jià)值數(shù)據(jù),因而比起普通的數(shù)據(jù)更容易形成壟斷,而醫(yī)療服務(wù)又是一種兼具公共性與公益性的服務(wù),是人們生存的必需品,如果由于技術(shù)和資源等方面的原因,這些重要的數(shù)據(jù)只集中在了少數(shù)組織或人手里,造成“數(shù)據(jù)獨(dú)裁”“算法專權(quán)”,就會引發(fā)一系列的社會問題,對市場的公平性形成挑戰(zhàn),對健康產(chǎn)業(yè)的品牌形象形成打擊。
3.2.3 社會規(guī)約的不足
目前越來越多重要的國際會議和論壇以及一些頗有影響力的人物都將人工智能作為重點(diǎn)關(guān)注議題,國內(nèi)也對人工智能進(jìn)行規(guī)范化建設(shè)作為工作重心,2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,主要強(qiáng)調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理八條原則,然而這些共識與健康產(chǎn)業(yè)結(jié)合的效果還有待時(shí)間的驗(yàn)證,目前健康產(chǎn)業(yè)社會資本非?;钴S,市場潛力巨大,但尚未形成有效持久的商業(yè)模式;人工智能倫理問題治理成果落地少,研究和討論多集中于美國和歐洲[12];各個(gè)國家研究熱情旺盛,但尚未形成人工智能全球治理的態(tài)勢;法律層面僅有一些與網(wǎng)絡(luò)安全、隱私相關(guān)的法律,尚未有專門針對人工智能的法律出臺;國內(nèi)關(guān)于人工智能的研究豐富,但尚未形成產(chǎn)學(xué)研用政府共動的局面。
人工智能的技術(shù)特性,決定了其自身發(fā)展依賴于對數(shù)據(jù)的廣泛精準(zhǔn)搜集和對算法指令的反復(fù)打磨深耕。然而,在將人工智能技術(shù)應(yīng)用于健康產(chǎn)業(yè)時(shí),健康數(shù)據(jù)泄露帶來的數(shù)據(jù)質(zhì)量安全問題,算法代替?zhèn)鹘y(tǒng)診斷流程帶來的工具理性與價(jià)值理性的平衡問題,弱人工智能、強(qiáng)人工智能與通用人工智能之間界限不清所帶來的責(zé)任認(rèn)定問題,成了懸在健康產(chǎn)業(yè)人工智能技術(shù)應(yīng)用上的三柄“達(dá)摩克利斯之劍”,而社會規(guī)約的不足則加劇了健康產(chǎn)業(yè)人工智能技術(shù)應(yīng)用的倫理風(fēng)險(xiǎn)。
目前諸多國際上較有影響力的人工智能共識,如《Open AI憲章》《道德準(zhǔn)則設(shè)計(jì)》《人工智能聯(lián)盟信條》都強(qiáng)調(diào)在人工智能的設(shè)計(jì)和使用中要把人類福祉放在首要地位,并且強(qiáng)調(diào)加強(qiáng)國際交流,促進(jìn)科研文化建設(shè)。這也為我們思考人工智能在健康產(chǎn)業(yè)應(yīng)用中如何規(guī)避倫理風(fēng)險(xiǎn)提供了參考,對于人工智能這樣一門涉及多學(xué)科、多領(lǐng)域,并有可能顛覆人們傳統(tǒng)生存方式的綜合性技術(shù),不僅需要國家、科研機(jī)構(gòu)和企業(yè)的探索努力,也需要社會公眾的積極參與,形成國家-社會-個(gè)人共動的態(tài)勢,而不是我們過去的“科學(xué)家發(fā)明,企業(yè)家出錢,政府蓋章,公眾嘗苦果,人文社科人員收拾殘局”的糟糕局面[13]。
首先,人工智能作為國家戰(zhàn)略的重要組成部分,應(yīng)有清晰的發(fā)展規(guī)劃,積極利用人工智能技術(shù)應(yīng)對當(dāng)下醫(yī)療資源分配不均、人口老齡化等問題,并提高倫理審查能力,對其應(yīng)用進(jìn)行嚴(yán)格監(jiān)管,確保責(zé)任歸屬明確后再投放市場;其次,應(yīng)提高健康產(chǎn)業(yè)利益相關(guān)者的倫理意識,推動嚴(yán)謹(jǐn)?shù)亩鄬W(xué)科合作,加強(qiáng)國際交流,探索人工智能智慧醫(yī)療新場景,加強(qiáng)安全技術(shù)研發(fā),保護(hù)患者隱私;最后,對于健康行業(yè)的傳統(tǒng)從業(yè)者,如醫(yī)生、護(hù)士等,要對自己有合理的定位,正如特魯多醫(yī)生所言:“有時(shí)去治愈,常常去幫助,總是去安慰”,我們不能忘記我們服務(wù)的對象是人,與患者之間的感情交流不能完全用人工智能來替代,而同時(shí)作為健康行業(yè)的專業(yè)從業(yè)者,“有勇氣來改變可以改變的事情,有胸懷來接受不可改變的事情,有智慧來分辨兩者的不同”是我們作為專業(yè)從業(yè)者的責(zé)任與擔(dān)當(dāng)。在新技術(shù)迅猛發(fā)展的當(dāng)下,規(guī)范健康人工智能應(yīng)用,保障患者權(quán)益,懷抱人文關(guān)懷的初心,與人工智能技術(shù)共促健康產(chǎn)業(yè)發(fā)展,是傳統(tǒng)從業(yè)者所要承擔(dān)的歷史使命[14]。