国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

涉及醫(yī)學(xué)人工智能研究的倫理審查要點(diǎn)分析

2021-04-03 15:32:08謝小萍何曉波張玲希高雅潔
關(guān)鍵詞:知情倫理醫(yī)學(xué)

謝小萍,何曉波*,張玲希,李 衛(wèi),高雅潔

(1 浙江醫(yī)院倫理辦公室,浙江 杭州 310030,920628092@qq.com;2 浙江醫(yī)院圖書館,浙江 杭州 310030)

2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,將發(fā)展新一代人工智能上升至國家戰(zhàn)略高度,使人工智能受到學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注。同時,大數(shù)據(jù)、算法和算力的發(fā)展,也為人工智能提供了豐富的數(shù)據(jù)資源,推動了人工智能的發(fā)展。近年來,醫(yī)學(xué)人工智能在預(yù)防醫(yī)學(xué)、醫(yī)學(xué)治療、醫(yī)學(xué)診斷、健康管理、醫(yī)學(xué)科研、醫(yī)學(xué)教學(xué)、醫(yī)院管理、藥物開發(fā)等醫(yī)學(xué)相關(guān)方面發(fā)揮重要作用。雖然我國已在人工智能領(lǐng)域具備了良好的基礎(chǔ),但整體發(fā)展水平仍落后于發(fā)達(dá)國家,尤其是適應(yīng)于人工智能發(fā)展的政策法規(guī)、標(biāo)準(zhǔn)體系亟待完善。現(xiàn)行的倫理審查法規(guī)指南已無法涵蓋涉及醫(yī)學(xué)人工智能研究提出的倫理和管理要求,涉及相關(guān)問題的實(shí)際審查工作缺乏可操作化的審查標(biāo)準(zhǔn)和程序指引。因此,本文通過對國內(nèi)外相關(guān)法律法規(guī)、文獻(xiàn)等資料進(jìn)行研究,對涉及醫(yī)學(xué)人工智能研究的倫理審查要點(diǎn)進(jìn)行探討,旨在為促進(jìn)涉及醫(yī)學(xué)人工智能研究的倫理審查規(guī)范提供一定的借鑒。

1 醫(yī)學(xué)人工智能研究的概念及特點(diǎn)

1.1 醫(yī)學(xué)人工智能研究的概念

人工智能產(chǎn)品是按照人設(shè)定的程序邏輯或軟件算法通過芯片等硬件載體來運(yùn)行或工作的,通過對數(shù)據(jù)的采集、加工、處理、分析和挖掘,形成有價(jià)值的信息流和知識模型,提供延伸人類能力的服務(wù),實(shí)現(xiàn)“智能行為”的模擬[1]。人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用研究主要包括輔助診療、影像識別、醫(yī)用機(jī)器人、虛擬助手、健康管理、醫(yī)院管理、疾病篩查與預(yù)測、藥物研發(fā)等多個方面。人工智能產(chǎn)品設(shè)計(jì)開發(fā)過程通??煞譃樾枨蠓治?、數(shù)據(jù)收集、算法設(shè)計(jì)、驗(yàn)證與確認(rèn)、軟件更新等階段[2]。目前,醫(yī)學(xué)人工智能研究主要按照學(xué)術(shù)性科研課題和產(chǎn)品研發(fā)注冊申請兩條線進(jìn)行管理。當(dāng)前市面上大部分的人工智能醫(yī)療產(chǎn)品按照醫(yī)療器械管理,主要分為人工智能獨(dú)立軟件(智能軟件)和人工智能軟件組件(智能硬件)兩種類型。根據(jù)原國家食品藥品監(jiān)督管理總局2017年9月發(fā)布的《醫(yī)療器械分類目錄》規(guī)定,僅有輔助診斷功能的軟件需申報(bào)二類器械,如果軟件能對病變部位進(jìn)行自動識別并提供明確診斷提示則按第三類醫(yī)療器械進(jìn)行管理[3]。截至2020年9月17日,經(jīng)國家藥品監(jiān)督管理局審查批準(zhǔn)的三類智能軟件產(chǎn)品共三款,分別是北京昆侖醫(yī)云科技有限公司生產(chǎn)的創(chuàng)新產(chǎn)品“冠脈血流儲備分?jǐn)?shù)計(jì)算軟件”、深圳硅基智能科技有限公司生產(chǎn)的創(chuàng)新產(chǎn)品“糖尿病視網(wǎng)膜病變眼底圖像輔助診斷軟件”,以及上海鷹瞳醫(yī)療科技有限公司生產(chǎn)的創(chuàng)新產(chǎn)品“糖尿病視網(wǎng)膜病變眼底圖像輔助診斷軟件”[4-5]。

1.2 醫(yī)學(xué)人工智能研究的特點(diǎn)

第一,醫(yī)學(xué)人工智能研究具有跨行業(yè)、跨機(jī)構(gòu)、多學(xué)科特點(diǎn)。

醫(yī)學(xué)人工智能研究因其包含基礎(chǔ)資源、技術(shù)體系、產(chǎn)品服務(wù)及應(yīng)用解決方案等多層次結(jié)構(gòu),具有跨行業(yè)、跨機(jī)構(gòu)合作的特點(diǎn)。從人工智能研究框架上看,涉及為人工智能系統(tǒng)提供計(jì)算能力支持的基礎(chǔ)設(shè)施提供者、原始數(shù)據(jù)資源和數(shù)據(jù)集的信息提供者、人工智能領(lǐng)域技術(shù)和服務(wù)的信息處理者和確保研發(fā)產(chǎn)品滿足整體要求的系統(tǒng)協(xié)調(diào)者等跨行業(yè)/機(jī)構(gòu)主體角色。從數(shù)據(jù)來源上看,人工智能使用的原始數(shù)據(jù)資源或數(shù)據(jù)集可能來自不同地區(qū)、機(jī)構(gòu)、系統(tǒng)、科室的結(jié)構(gòu)化或非結(jié)構(gòu)化數(shù)據(jù),涉及比傳統(tǒng)研究更多的利益相關(guān)者,如患者、研究人員、管理人員、醫(yī)療機(jī)構(gòu)、研究院所、商業(yè)公司等。從人工智能關(guān)鍵技術(shù)上看,包括機(jī)器學(xué)習(xí)、知識圖譜、自然語言處理、虛擬現(xiàn)實(shí)/增強(qiáng)現(xiàn)實(shí)等關(guān)鍵技術(shù)[1]。從學(xué)科領(lǐng)域看,醫(yī)學(xué)人工智能研究因其技術(shù)復(fù)雜性和應(yīng)用場景多樣性等特點(diǎn),完成整個研究過程需要多學(xué)科交叉合作,涉及醫(yī)學(xué)、生命科學(xué)、數(shù)學(xué)、軟件工程、計(jì)算機(jī)科學(xué)、倫理學(xué)、法學(xué)等學(xué)科。人工智能研究的跨行業(yè)、跨機(jī)構(gòu)、多學(xué)科特點(diǎn),導(dǎo)致目前開展研究存在法律法規(guī)和規(guī)范標(biāo)準(zhǔn)相對滯后、主體責(zé)任界定不清、相關(guān)復(fù)合型人才短缺等一系列問題,增加了倫理審查和監(jiān)督的難度,使得傳統(tǒng)模式無法滿足現(xiàn)實(shí)需求。

第二,醫(yī)學(xué)人工智能研究涵蓋多階段、多層次研究過程。

醫(yī)學(xué)人工智能研究不同于傳統(tǒng)臨床研究,其產(chǎn)品設(shè)計(jì)開發(fā)過程較復(fù)雜,通常可分為需求分析、數(shù)據(jù)收集、算法設(shè)計(jì)、驗(yàn)證與確認(rèn)、軟件更新等階段,涵蓋基礎(chǔ)研究、臨床前研究、臨床研究和臨床應(yīng)用的整個轉(zhuǎn)化醫(yī)學(xué)過程,包含基礎(chǔ)資源、技術(shù)體系、產(chǎn)品服務(wù)及應(yīng)用解決方案等多層次結(jié)構(gòu),并在產(chǎn)品的全生命周期過程中不斷經(jīng)過基于高質(zhì)量帶標(biāo)注的數(shù)據(jù)訓(xùn)練集、調(diào)優(yōu)集、測試集進(jìn)行產(chǎn)品研發(fā)與測試,正式上市須經(jīng)過產(chǎn)品定型、檢測、臨床試驗(yàn)、注冊申報(bào)、技術(shù)審評、行政審批六個步驟[6]。從數(shù)據(jù)收集上看,包含數(shù)據(jù)采集、存儲、挖掘、應(yīng)用、運(yùn)輸、傳輸、共享等環(huán)節(jié),并涉及服務(wù)器、存儲設(shè)備、網(wǎng)絡(luò)設(shè)備、基礎(chǔ)軟件等介質(zhì)。從數(shù)據(jù)集構(gòu)建與管理上看,包含數(shù)據(jù)集設(shè)計(jì)、數(shù)據(jù)收集、數(shù)據(jù)標(biāo)注、數(shù)據(jù)歸檔和數(shù)據(jù)管理等階段[7]。從數(shù)據(jù)使用階段看,即數(shù)據(jù)分析和處理,涉及模型訓(xùn)練過程和部署運(yùn)行過程,包括數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、測試驗(yàn)證、模型部署、實(shí)際數(shù)據(jù)處理、預(yù)測結(jié)果輸出等。從數(shù)據(jù)管理上看,包含數(shù)據(jù)集儲存、分發(fā)、使用、擴(kuò)容、更新、刪減等活動。醫(yī)學(xué)人工智能研究的多階段、多層次特點(diǎn),需要審批和監(jiān)管部門對其各個階段、層次的研究進(jìn)行獨(dú)立審查,并結(jié)合研究過程,開展適時、必要的跟蹤審查,以確保研究的科學(xué)性和倫理性。

第三,醫(yī)學(xué)人工智能研究涉及前沿未知倫理問題挑戰(zhàn)。

①數(shù)據(jù)相關(guān)倫理問題。

醫(yī)學(xué)人工智能研究離不開高質(zhì)量帶標(biāo)注的醫(yī)學(xué)數(shù)據(jù)集,其產(chǎn)品全生命周期過程中的數(shù)據(jù)集包括訓(xùn)練集、調(diào)優(yōu)集和測試集。根據(jù)數(shù)據(jù)收集的方式,可將研究分為前瞻性數(shù)據(jù)收集研究和回顧性數(shù)據(jù)收集研究[8]。當(dāng)前,人工智能醫(yī)療公司主要通過與醫(yī)療機(jī)構(gòu)合作科研項(xiàng)目、從公開數(shù)據(jù)集下載數(shù)據(jù)或通過公司購買數(shù)據(jù)等三種渠道獲取數(shù)據(jù)。大多數(shù)人工智能產(chǎn)品的訓(xùn)練樣本主要來自醫(yī)院患者的各類醫(yī)學(xué)影像數(shù)據(jù),少部分來自于人類行為信息的數(shù)字化記錄等[9]。數(shù)據(jù)作為醫(yī)學(xué)人工智能研究的重要基礎(chǔ)資料,數(shù)據(jù)質(zhì)量、數(shù)據(jù)安全、數(shù)據(jù)隱私、數(shù)據(jù)知情同意及二次使用授權(quán)等問題亟待審批和監(jiān)管部門采取必要措施加以規(guī)范化管理。一旦存在數(shù)據(jù)造假、數(shù)據(jù)偏倚、數(shù)據(jù)陳舊、數(shù)據(jù)不完整、數(shù)據(jù)樣本量過低等問題,將直接影響人工智能產(chǎn)品的有效性、安全性和風(fēng)險(xiǎn)性,嚴(yán)重的可能通過數(shù)據(jù)鴻溝造成算法歧視/偏見,擾亂社會倫理秩序,帶來新的不公平問題。大數(shù)據(jù)分析技術(shù)讓人的隱私無處可藏,越來越頻繁的數(shù)據(jù)流通削弱了個人對其數(shù)據(jù)的控制和管理。醫(yī)療數(shù)據(jù),因其涉及個體的健康、疾病、基因等關(guān)鍵信息,本身具有敏感屬性,一旦泄露,不僅關(guān)涉?zhèn)€人的隱私和尊嚴(yán),還可能侵害民族,甚至危害國家安全。如何界定和分配數(shù)據(jù)安全和隱私保護(hù)的責(zé)任,是當(dāng)前亟待解決的問題。醫(yī)學(xué)人工智能研究通過用戶提供、自動采集、間接獲取等方式采集大量訓(xùn)練數(shù)據(jù)和應(yīng)用數(shù)據(jù),用于訓(xùn)練模型或推斷預(yù)測,涉及個人敏感信息的數(shù)據(jù),存在數(shù)據(jù)采集合規(guī)性問題、數(shù)據(jù)采集與用戶授權(quán)不一致問題、用戶選擇退出權(quán)難以保障問題、匿名化數(shù)據(jù)被重識別等問題。需在最大化保留信息滿足研究需求的情況下,平衡數(shù)據(jù)主體的個人權(quán)益和社會公眾利益。

②算法相關(guān)倫理問題。

算法是人工智能實(shí)現(xiàn)應(yīng)用的核心,可以被簡單地理解為通過計(jì)算機(jī)語言實(shí)現(xiàn)的一種解決問題的方法,主要依賴于技術(shù)人員的主觀選擇和判斷,往往因?yàn)樯虡I(yè)機(jī)密、復(fù)雜性及專業(yè)性不被外界知曉。算法方面能夠引發(fā)人工智能研究倫理問題的主要包括算法透明度問題、算法安全性問題、算法公平性問題等。算法透明性通常包括可解釋性和可追溯性,讓用戶了解人工智能中的決策過程和因果關(guān)系,關(guān)乎用戶的知情權(quán)益和信任。但過度公開透明,可能為動機(jī)不良者擾亂系統(tǒng)、操縱算法提供機(jī)會,影響研發(fā)人員和企業(yè)的積極性,不利于技術(shù)創(chuàng)新和社會進(jìn)步。如何平衡公眾的權(quán)益和公司的機(jī)密,目前還沒有明確的標(biāo)準(zhǔn)。算法安全性問題,主要指算法可信賴、算法漏洞等帶來的安全風(fēng)險(xiǎn)問題。以深度學(xué)習(xí)算法為代表的機(jī)器學(xué)習(xí)算法為例,能夠自主地調(diào)整自身的操作參數(shù)和決策規(guī)則,因此會帶來極強(qiáng)的不確定性,產(chǎn)生的安全性問題一旦侵害人身權(quán)益,后果可能難以挽回[10]。算法公平性問題主要是由算法歧視或偏見造成,是指由于算法的設(shè)計(jì)者或開發(fā)人員對事物的認(rèn)知存在某種偏見,或者算法執(zhí)行時使用了帶有偏見的數(shù)據(jù)集等原因,造成算法產(chǎn)生帶有歧視性的結(jié)果[11]。一旦算法公平性存在問題,可能使得一些人占有技術(shù)成果,而另一些人被排斥、被剝削,嚴(yán)重破壞社會的公平公正。

③產(chǎn)品研發(fā)相關(guān)倫理問題。

我國人工智能技術(shù)發(fā)展迅速,醫(yī)學(xué)應(yīng)用產(chǎn)品層出不窮,但目前尚沒有統(tǒng)一的監(jiān)管醫(yī)學(xué)人工智能應(yīng)用的標(biāo)準(zhǔn),也沒有醫(yī)學(xué)人工智能產(chǎn)品審批通過的標(biāo)準(zhǔn),影響了對相關(guān)產(chǎn)品應(yīng)用的安全性風(fēng)險(xiǎn)的把控。醫(yī)學(xué)人工智能產(chǎn)品在正式上市之前,需經(jīng)過臨床試驗(yàn)。一方面,當(dāng)試驗(yàn)過程中出現(xiàn)錯誤的判定或結(jié)果導(dǎo)致受試者健康或權(quán)益受到損害,數(shù)據(jù)科學(xué)家、產(chǎn)品研發(fā)和設(shè)計(jì)者、生產(chǎn)商、醫(yī)生以及醫(yī)療機(jī)構(gòu)的風(fēng)險(xiǎn)分配和責(zé)任劃分問題,現(xiàn)有的法律制度體系規(guī)定尚存在不充足性和局限性;另一方面,很多互聯(lián)網(wǎng)企業(yè)在大眾認(rèn)識到數(shù)據(jù)的價(jià)值之前,就完成了對數(shù)據(jù)的積累,在沒有征得大眾的同意和授權(quán)的情況下便開始了對數(shù)據(jù)的分析和使用。個人數(shù)據(jù)貢獻(xiàn)者是否對數(shù)據(jù)資源享有所有權(quán)、開發(fā)利用權(quán)以及產(chǎn)品利益分享權(quán)等問題,相關(guān)法律界定仍缺失。

2 醫(yī)學(xué)人工智能研究的倫理審查依據(jù)

2.1 國外倫理審查現(xiàn)狀

在人工智能倫理問題研究方面,國外研究成果較豐富。美國、日本、韓國、英國、歐洲和聯(lián)合國教科文組織等國家或機(jī)構(gòu)相繼發(fā)布了相關(guān)的準(zhǔn)則、規(guī)范、指南和標(biāo)準(zhǔn)。其中以“阿西洛馬人工智能原則”和國際電氣電子工程師協(xié)會(institute of electrical and electronics engineers,IEEE)組織倡議的人工智能倫理標(biāo)準(zhǔn)在國際上影響最廣?!鞍⑽髀羼R人工智能原則”于2017年1月初在美國加利福尼亞州阿西洛馬展開的“有益的人工智能”(beneficial AI)會議上被提出,目前共23項(xiàng),其中涉及倫理方面的共13項(xiàng),主要為:安全性、故障透明、判決透明、職責(zé)、價(jià)值觀一致、人類價(jià)值觀、個人隱私、自由與隱私、共享利益、共享繁榮、人類控制、非顛覆、人工智能軍備競賽[11]。IEEE分別于2016年12月和2017年12月在全球范圍內(nèi)先后發(fā)布了第1版和第2版的《以倫理為基準(zhǔn)的設(shè)計(jì):人工智能及自主系統(tǒng)以人類福祉為先的愿景》。在第2版內(nèi)容中提出了五個核心倫理原則:人權(quán)、福祉、問責(zé)、透明、慎用[12]。

2.2 國內(nèi)倫理審查依據(jù)

我國自2016年開始圍繞人工智能在醫(yī)療健康領(lǐng)域的應(yīng)用頒布了《“互聯(lián)網(wǎng)+”人工智能三年行動實(shí)施方案》(2016)、《國務(wù)院辦公廳關(guān)于促進(jìn)和規(guī)范健康醫(yī)療大數(shù)據(jù)應(yīng)用發(fā)展的指導(dǎo)意見》(2016)、《“十三五”國家科技創(chuàng)新規(guī)劃》(2016)、《智能硬件產(chǎn)業(yè)創(chuàng)新發(fā)展專項(xiàng)行動(2016-2018)》(2016)、《“十三五”國家戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展規(guī)劃》(2016)、《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(2017)、《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計(jì)劃(2018-2020年)》(2017)、《國務(wù)院辦公廳關(guān)于促進(jìn)“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的意見》(2018)等旨在鼓勵人工智能研發(fā)和推廣的政策文件,對于醫(yī)學(xué)人工智能研究尚處于軟性監(jiān)管階段,并未上升到法律法規(guī)層面。

醫(yī)學(xué)人工智能研究如按照學(xué)術(shù)性科研課題進(jìn)行管理,屬于醫(yī)療領(lǐng)域研究,目前廣泛遵循原國家衛(wèi)計(jì)委2016年10月頒布的《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》。如涉及臨床應(yīng)用,還應(yīng)遵循《人工智能輔助診斷技術(shù)管理規(guī)范(2017年版)》《人工智能輔助診斷技術(shù)臨床應(yīng)用質(zhì)量控制指標(biāo)(2017年版)》《人工智能輔助治療技術(shù)管理規(guī)范(2017年版)》相關(guān)規(guī)定。如按照產(chǎn)品研發(fā)注冊申請進(jìn)行管理,則應(yīng)根據(jù)相關(guān)性,遵循由國家藥品監(jiān)督管理局發(fā)布的法規(guī)要求。目前作為醫(yī)用軟件的通用指導(dǎo)原則有三個,包括《醫(yī)療器械軟件注冊技術(shù)審查指導(dǎo)原則》《移動醫(yī)療器械注冊技術(shù)指導(dǎo)原則》及《醫(yī)療器械網(wǎng)絡(luò)安全注冊技術(shù)審查指導(dǎo)原則》。2019年6月,國家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評中心發(fā)布了《深度學(xué)習(xí)輔助決策醫(yī)療器械軟件的審評要點(diǎn)及相關(guān)說明》。

除此之外,國內(nèi)部分高校、研究院所、標(biāo)準(zhǔn)委員會、學(xué)會組織等也形成了一些共識原則和標(biāo)準(zhǔn)。2018年1月,在國家人工智能標(biāo)準(zhǔn)化總體組的成立大會上,《人工智能標(biāo)準(zhǔn)化白皮書(2018)》正式發(fā)布,該白皮書論述了人工智能的安全、倫理和隱私問題,認(rèn)為設(shè)定人工智能技術(shù)的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則[1]。2019年4月,國家人工智能標(biāo)準(zhǔn)化總體組發(fā)布了《人工智能倫理風(fēng)險(xiǎn)分析報(bào)告》,提出了人工智能2項(xiàng)倫理準(zhǔn)則:第一,人類根本原則,指人工智能應(yīng)以實(shí)現(xiàn)人類根本利益為終極目標(biāo);第二,責(zé)任原則,指在人工智能相關(guān)的技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系。2019年6月,科技部人工智能治理專家委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出人工智能發(fā)展應(yīng)遵循八項(xiàng)原則:①和諧友好;②公平公正;③包容共享;④尊重隱私;⑤安全可控;⑥共擔(dān)責(zé)任;⑦開放協(xié)作;⑧敏捷治理。2019年10月,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會發(fā)布了《人工智能安全標(biāo)準(zhǔn)化白皮書(2019版)》,提出人工智能安全原則包括三項(xiàng)原則:①以人為本原則;②權(quán)責(zé)一致原則;③分級分類原則。且人工智能的安全屬性應(yīng)考慮保密性、完整性、可用性、可控性、魯棒性、透明性和隱私。騰訊研究院和騰訊AI實(shí)驗(yàn)室、北京智源人工智能研究院、上海交通大學(xué)人工智能研究院等主流科技公司或研究機(jī)構(gòu)也紛紛就人工智能提出了各自的倫理原則。例如,騰訊在國內(nèi)率先提出“科技向善”的理念,將其與“用戶為本”一道作為新的使命愿景,并提出其人工智能研究與應(yīng)用需遵循“可用、可靠、可知、可控”原則[13]。北京智源人工智能研究院分別于2019年5月和2020年9月發(fā)布了《人工智能北京共識》和《面向兒童的人工智能北京共識》,提出人工智能的研究與開發(fā)應(yīng)遵循“造福、服務(wù)于人、負(fù)責(zé)、控制風(fēng)險(xiǎn)、合乎倫理、多樣與包容、開放共享”原則,社會各界應(yīng)高度重視人工智能對兒童的影響,維護(hù)兒童自由表達(dá)意見與意愿的權(quán)利,公平對待和服務(wù)于所有兒童,并優(yōu)先考慮增進(jìn)兒童的福祉[14-15]。

國內(nèi)現(xiàn)已頒布的多數(shù)法規(guī)條款都屬于基礎(chǔ)原則性條款,對醫(yī)學(xué)人工智能研究的規(guī)范只能起到框架性作用,缺乏具體可執(zhí)行的操作指引性。

3 醫(yī)學(xué)人工智能研究的倫理審查要點(diǎn)

涉及醫(yī)學(xué)人工智能的研究除需滿足傳統(tǒng)倫理審查的基本要求外,結(jié)合其研究自身特點(diǎn),倫理審查應(yīng)重點(diǎn)關(guān)注研究風(fēng)險(xiǎn)受益比、知情同意程序、數(shù)據(jù)安全與隱私保護(hù)措施、社會公平公正等內(nèi)容。

3.1 研究風(fēng)險(xiǎn)受益比

研究可能遭受的風(fēng)險(xiǎn)程度與研究預(yù)期的受益相比的合理性是評估研究能否開展的必要條件。涉及醫(yī)學(xué)人工智能的研究,其風(fēng)險(xiǎn)是對個人或社會或國家可能的傷害,應(yīng)對該風(fēng)險(xiǎn)的嚴(yán)重性、程度和發(fā)生概率,有無采取使風(fēng)險(xiǎn)最小化的方法進(jìn)行評估,而受益則包括對個體的受益和對社會的受益[16]。在具體實(shí)踐中,首先,應(yīng)對研究目的性質(zhì)是基于商業(yè)利益、公共利益還是國家利益進(jìn)行審慎評估。唯有研究具有重要的社會價(jià)值,且不會給參與者個人或所在群體帶來超過最小風(fēng)險(xiǎn)值的風(fēng)險(xiǎn)才能獲得倫理的辯護(hù)[17]。其次,進(jìn)一步評判從人工智能研究的數(shù)據(jù)層面、算法層面、應(yīng)用層面以及研發(fā)整個生命周期過程中相關(guān)基礎(chǔ)技術(shù)設(shè)備、平臺支撐、人員組織、制度流程等內(nèi)容的合理合法性。數(shù)據(jù)層面主要考慮數(shù)據(jù)來源的合規(guī)性,數(shù)據(jù)質(zhì)量的可靠性、數(shù)據(jù)安全的可控性、數(shù)據(jù)隱私的保密性等內(nèi)容。醫(yī)學(xué)人工智能研究所用數(shù)據(jù)集在數(shù)據(jù)質(zhì)量上應(yīng)符合樣本多樣、均衡、真實(shí)、完整、可用、時效、一致、可溯源等要求,能夠與實(shí)現(xiàn)人工智能產(chǎn)品的預(yù)期用途相匹配。數(shù)據(jù)隱私泄露是涉及醫(yī)學(xué)人工智能研究的主要風(fēng)險(xiǎn)之一,有些風(fēng)險(xiǎn)可能難以預(yù)測。研究人員應(yīng)對數(shù)據(jù)的收集和使用遵循最小必要原則,除非研究需要,盡可能少用可識別信息和敏感數(shù)據(jù),避免數(shù)據(jù)采集與數(shù)據(jù)主體授權(quán)不一致、過度采集數(shù)據(jù)等問題。數(shù)據(jù)使用過程中對數(shù)據(jù)采集、存儲、傳輸、處理、交換及銷毀等環(huán)節(jié)的數(shù)據(jù)安全要求要有明確嚴(yán)格的規(guī)定。算法層面主要圍繞算法模型的魯棒性、安全防護(hù)、可解釋性、可驗(yàn)證性、可預(yù)測性等方面進(jìn)行評估,對算法在運(yùn)用中的主觀意圖、價(jià)值取向、利益與風(fēng)險(xiǎn)分擔(dān)等展開系統(tǒng)深入的分析,使得其對相關(guān)群體和利害關(guān)系人可能出現(xiàn)的各種負(fù)面后果能夠得以充分揭示[10]。

3.2 知情同意程序

醫(yī)學(xué)人工智能研究的訓(xùn)練樣本目前主要來自于醫(yī)院患者的各類醫(yī)學(xué)數(shù)據(jù)。針對含有可識別個人信息的海量數(shù)據(jù)研究,傳統(tǒng)具體的知情同意方式已不足以應(yīng)對大數(shù)據(jù)時代的數(shù)據(jù)反復(fù)挖掘使用的特點(diǎn)[18]。在數(shù)據(jù)收集與使用階段,倫理審查委員會應(yīng)根據(jù)研究中所使用的數(shù)據(jù)的收集方式、涉密性、敏感性、研究預(yù)期目的、社會價(jià)值、重新獲取知情同意的難度以及管理措施,來判斷研究應(yīng)采取具體的知情同意、廣泛的知情同意、免除知情同意還是選擇退出程序以及知情同意的撤回形式。

第一,具體的知情同意:對于收集和儲存數(shù)據(jù)時已知道未來用途,無論是用于當(dāng)下特定的研究目的,還是用于未來尚未明確目的的研究,研究者均需從數(shù)據(jù)提供者處獲得具體的知情同意。同時,應(yīng)告知研究參與者所收集數(shù)據(jù)的將來處置措施,說明是否會儲存起來,如儲存起來是否可用于將來的其他研究等。當(dāng)涉及相關(guān)數(shù)據(jù)的研究方案、范圍和/或內(nèi)容發(fā)生變化時,并與原有知情同意內(nèi)容不相符,還應(yīng)再次獲取數(shù)據(jù)主體的知情同意。

第二,廣泛的知情同意:廣泛的知情同意不是“一攬子同意”,而是指對未來限定于某方面的研究進(jìn)行有限的知情同意。采用廣泛的知情同意形式應(yīng)該對以下內(nèi)容進(jìn)行具體規(guī)定:①數(shù)據(jù)收集的目的;②儲存的條件和期限;③數(shù)據(jù)使用規(guī)則;④數(shù)據(jù)占有或使用者的聯(lián)系方式,以及獲知數(shù)據(jù)未來使用的途徑;⑤數(shù)據(jù)可預(yù)見的用途,既包括已經(jīng)完全確定的研究,也包括部分未知或完全未知的研究;⑥數(shù)據(jù)使用的預(yù)期目標(biāo),是用于基礎(chǔ)研究、應(yīng)用研究,還是用于商業(yè)的目的;⑦出現(xiàn)未請求同意的研究發(fā)生的可能性以及相關(guān)處理措施。倫理審查委員會必須確保,提議數(shù)據(jù)的收集和儲存方案,以及知情同意程序,均符合以上規(guī)定。

第三,知情同意的選擇退出或撤回:醫(yī)學(xué)人工智能研究的數(shù)據(jù)采用由常規(guī)臨床情形下收集的數(shù)據(jù),除非數(shù)據(jù)主體一開始就明確表示反對,否則其數(shù)據(jù)被儲存并用于研究,即為知情同意的選擇退出。知情同意的選擇退出程序必須符合下列條件:①數(shù)據(jù)主體必須明確知道有這樣的程序存在;②研究者必須提供充分的信息;③必須告知數(shù)據(jù)主體可以撤回他們的數(shù)據(jù);④必須為數(shù)據(jù)主體真正提供反對的可能[17]。知情同意還應(yīng)能夠保證數(shù)據(jù)主體撤回繼續(xù)儲存和使用其個人數(shù)據(jù)的權(quán)利,知情同意的撤回包括以下方式:①不再聯(lián)系,即數(shù)據(jù)主體和數(shù)據(jù)使用者之間不再發(fā)生任何聯(lián)系或接受回訪;②不再獲得,即數(shù)據(jù)主體不再為數(shù)據(jù)使用者提供相關(guān)數(shù)據(jù)資料;③不再使用,即數(shù)據(jù)主體聲明退出研究,其原有相關(guān)數(shù)據(jù)按相關(guān)流程全部銷毀,不應(yīng)繼續(xù)使用。

第四,免除知情同意:醫(yī)學(xué)人工智能研究的數(shù)據(jù)采用以往因診療、研究或其他目的而收集和保存的數(shù)據(jù),同時又沒有獲得數(shù)據(jù)提供者對數(shù)據(jù)的未來研究的知情同意。免除知情同意的條件必須同時滿足以下三個條件:①研究具有重要的社會價(jià)值;②研究對參與者個人或所在群體的風(fēng)險(xiǎn)不超過最小風(fēng)險(xiǎn);③不免除知情同意,研究不可能或不可行[19]。

倫理審查委員會在判斷研究應(yīng)采取何種形式的知情同意時,還應(yīng)關(guān)注研究是否符合公共利益,以及如何促進(jìn)公眾參與和透明度等內(nèi)容[19],并不是完全聽從數(shù)據(jù)主體的自由選擇,而是在平衡數(shù)據(jù)主體和數(shù)據(jù)使用者等多方主體利益的基礎(chǔ)上,推動個人健康數(shù)據(jù)有序流通和增值使用的同時,最大化保障數(shù)據(jù)主體的合法權(quán)益[20]。

3.3 數(shù)據(jù)安全與隱私保護(hù)措施

醫(yī)學(xué)人工智能產(chǎn)品的研究離不開患者的個人健康信息和病歷信息,倫理審查委員會應(yīng)根據(jù)數(shù)據(jù)所含個人可識別信息和敏感信息等特點(diǎn)來審慎評估醫(yī)學(xué)人工智能研究過程中須采取的數(shù)據(jù)安全與隱私保護(hù)措施。通過對研究所涉及的人員資質(zhì)、基礎(chǔ)設(shè)施、權(quán)限控制技術(shù)、數(shù)據(jù)流通規(guī)則等內(nèi)容的審查來確定研究者是否采取恰當(dāng)?shù)拇胧┙档碗[私泄露風(fēng)險(xiǎn)。首先,因醫(yī)學(xué)人工智能研究過程中可能涉及的對象包括個人、醫(yī)護(hù)人員、醫(yī)院管理者、政府行政管理部門、數(shù)據(jù)工程師、產(chǎn)品研發(fā)和設(shè)計(jì)人員等,倫理審查委員會應(yīng)針對研究過程中可能直接接觸研究資料的人員組織資質(zhì)、基礎(chǔ)設(shè)施、權(quán)限控制技術(shù)、數(shù)據(jù)流通規(guī)則等方面進(jìn)行嚴(yán)格審查。通過對可接觸研究資料的人員的背景審查、信息安全和倫理培訓(xùn)情況,保密協(xié)議簽署情況,隱私政策法規(guī)掌握情況等資質(zhì)的審查評估,對不同類型的人員對數(shù)據(jù)的收集、存儲和使用權(quán)限進(jìn)行分類分級管理,并明確數(shù)據(jù)安全責(zé)任主體,確保研究過程中的數(shù)據(jù)層、算法層及應(yīng)用層的安全和隱私保護(hù)可控,一旦發(fā)生數(shù)據(jù)的違規(guī)使用、濫用和泄露等能夠溯源追責(zé)到個人;其次,涉及醫(yī)學(xué)人工智能的研究,包含數(shù)據(jù)采集、存儲、挖掘、應(yīng)用、運(yùn)輸、傳輸、共享等環(huán)節(jié),并涉及服務(wù)器、存儲設(shè)備、網(wǎng)絡(luò)設(shè)備、基礎(chǔ)軟件等介質(zhì),數(shù)據(jù)隱私保護(hù)措施應(yīng)貫徹于全流程和全介質(zhì),因此,倫理審查委員會應(yīng)關(guān)注數(shù)據(jù)載體應(yīng)用的工具和設(shè)備的安全可靠性和數(shù)據(jù)全生命周期的一切行為的可追溯性;最后,倫理審查委員會還應(yīng)關(guān)注研究數(shù)據(jù)是否有訪問控制技術(shù)、數(shù)據(jù)顯示限制技術(shù)、數(shù)據(jù)加密技術(shù)、數(shù)據(jù)使用共享限制技術(shù)等隱私保護(hù)的關(guān)鍵技術(shù)和數(shù)據(jù)使用場景,對數(shù)據(jù)隱私保護(hù)措施的合規(guī)性進(jìn)行評估,來進(jìn)一步規(guī)范涉及醫(yī)學(xué)人工智能研究過程中的數(shù)據(jù)利用。

3.4 社會公平公正性

醫(yī)學(xué)人工智能的研發(fā)與應(yīng)用應(yīng)以促進(jìn)人類向善、增進(jìn)人類福祉為目的,避免通過算法歧視和算法偏見等進(jìn)一步加劇或固化社會不公平不公正現(xiàn)象。算法歧視/偏見產(chǎn)生的原因主要?dú)w結(jié)于數(shù)據(jù)輸入和算法技術(shù)兩個方面,算法的設(shè)計(jì)又是技術(shù)人員的主觀選擇和判斷[21]。因此,倫理審查委員會應(yīng)審慎評估醫(yī)學(xué)人工智能研究中的價(jià)值設(shè)計(jì)是否公平公正地將道德規(guī)則和法律寫進(jìn)程序,避免算法繼承了研發(fā)人員或數(shù)據(jù)的偏見。采取多種措施加強(qiáng)對訓(xùn)練數(shù)據(jù)和算法的審查和測試,確保研究數(shù)據(jù)真正具有代表性,能夠代表多元化的人群,促進(jìn)人工智能在廣泛人群中的可及性和可負(fù)擔(dān)性。

猜你喜歡
知情倫理醫(yī)學(xué)
《心之死》的趣味與倫理焦慮
醫(yī)學(xué)的進(jìn)步
預(yù)防新型冠狀病毒, 你必須知道的事
祝您健康(2020年4期)2020-05-20 15:04:20
護(hù)生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
知情圖報(bào)
小演奏家(2016年5期)2016-05-14 15:11:12
醫(yī)學(xué)
新校長(2016年5期)2016-02-26 09:29:01
淺析知情同意在藥物臨床試驗(yàn)中的實(shí)施
靜??h人大常委會組織知情觀察
天津人大(2015年9期)2015-11-24 03:26:13
醫(yī)學(xué)、生命科學(xué)類
醫(yī)改莫忘構(gòu)建倫理新機(jī)制
高唐县| 洱源县| 定兴县| 开封县| 芜湖市| 皋兰县| 南乐县| 河北区| 金寨县| 家居| 新民市| 正安县| 宁强县| 西贡区| 绥宁县| 大理市| 察雅县| 尼玛县| 蒲江县| 资兴市| 平乐县| 鹤峰县| 齐齐哈尔市| 江达县| 麻栗坡县| 梓潼县| 汕头市| 南宫市| 疏勒县| 自治县| 东安县| 钦州市| 鄂温| 溧阳市| 庄浪县| 界首市| 石门县| 沿河| 德兴市| 利津县| 许昌县|