(錦州醫(yī)科大學(xué),遼寧 錦州 121002)
隨著人工智能廣泛開始在醫(yī)療健康領(lǐng)域的應(yīng)用,人工智能為人類的醫(yī)療健康行業(yè)提供了強(qiáng)有力的技術(shù)支撐,人類健康水平的提升越來越離不開人工智能,但是由于它是新興的技術(shù),在醫(yī)療領(lǐng)域的應(yīng)用時(shí)間還不長,在其發(fā)展過程中也引發(fā)了各種倫理問題。本文旨在分析醫(yī)療人工智能產(chǎn)生的倫理問題的基礎(chǔ)上探尋相應(yīng)的解決措施。
依托信息技術(shù)等現(xiàn)代科技,人工智能被廣泛應(yīng)用到醫(yī)療領(lǐng)域。在就醫(yī)流程方面包括診前、診中、診后;適用對(duì)象方面包括醫(yī)院、藥企、檢驗(yàn)機(jī)構(gòu)等,覆蓋了醫(yī)療產(chǎn)業(yè)鏈條上的診療、輔助診斷、醫(yī)藥研發(fā)、醫(yī)保等環(huán)節(jié),醫(yī)療工作在給人們便捷、快速、精確服務(wù)的同時(shí),在應(yīng)用中也帶來了一系列倫理問題。
1.隱私問題屢遭詬病。近年來,隨著大數(shù)據(jù)、無線傳感器等在醫(yī)療人工智能領(lǐng)域廣泛應(yīng)用,患者的隱私權(quán)問題成為醫(yī)療人工智能應(yīng)用中存在的明顯問題。在醫(yī)療領(lǐng)域,人工智能輔助醫(yī)療要通過大量的數(shù)據(jù)積累才能完成,因此,文字、影像的各種各樣的醫(yī)療數(shù)據(jù)正以史無前例的速度不斷被采集應(yīng)用到醫(yī)療人工智能當(dāng)中。隱私泄露是一段時(shí)間以來醫(yī)療人工智能頻頻被人詬病的一個(gè)問題。隨著人工智能的發(fā)展,各種各樣的信息泄露事件頻頻發(fā)生。
疾病診斷記錄、病人用藥效果、基因數(shù)據(jù)、家庭病史、行為數(shù)據(jù)甚至社會(huì)環(huán)境狀況數(shù)據(jù)等以及各種醫(yī)療機(jī)構(gòu)、科研機(jī)構(gòu)、政府機(jī)構(gòu)的醫(yī)學(xué)信息需要交流與共享。由于這些醫(yī)療數(shù)據(jù)需要外包給供應(yīng)商,導(dǎo)致醫(yī)療隱私泄露的概率很大。2017 年,一家醫(yī)療服務(wù)機(jī)構(gòu)意外泄露大約47GB 醫(yī)療數(shù)據(jù),泄露的內(nèi)容包括姓名、驗(yàn)血結(jié)果和家庭住址等個(gè)人信息,這些文件至少涉及15 萬病人。此次泄露的PDF 文件中有很大一部分來自每周都要接受檢查的病人。很顯然,此次數(shù)據(jù)曝光是一場(chǎng)嚴(yán)重的隱私泄密事件,也嚴(yán)重侵犯了病人及相關(guān)人員的隱私權(quán)。
此外,無線傳感器在醫(yī)療衛(wèi)生健康領(lǐng)域被大量地應(yīng)用,被用于遠(yuǎn)程監(jiān)護(hù)和監(jiān)測(cè),病人在家就可享受相關(guān)的醫(yī)療服務(wù),給患者帶來方便。但是,患者被這些無線射頻識(shí)別和視頻監(jiān)控等設(shè)備跟蹤和定位卻毫無所知。這些設(shè)備自動(dòng)收集患者的數(shù)據(jù),患者不知道這些數(shù)據(jù)什么時(shí)候、在哪里、哪些信息被搜集,這些數(shù)據(jù)傳送給誰,用做什么用途,患者也一無所知,這些都是在患者不知情的情況下進(jìn)行的。有些數(shù)據(jù)還被暗箱操作,倒賣給第三方。
2.醫(yī)療公平有待關(guān)注。在醫(yī)療領(lǐng)域,所謂公平,就是在醫(yī)患之間、患者與患者之間、醫(yī)生與醫(yī)生之間以及在醫(yī)療領(lǐng)域的各種相互關(guān)系中保持主客雙方的公正、平等,主要表現(xiàn)為就診的機(jī)會(huì)平等,接受診療服務(wù)的質(zhì)量平等,診療形式的選擇機(jī)會(huì)平等,藥物的使用平等,享受醫(yī)療保健和醫(yī)療保險(xiǎn)的內(nèi)容平等。然而,醫(yī)療人工智能在擴(kuò)大醫(yī)療服務(wù)范圍,宏觀上降低醫(yī)療成本的同時(shí),甚至給醫(yī)療領(lǐng)域的公平原則帶來新的挑戰(zhàn)。醫(yī)療人工智能的使用和推廣加大了醫(yī)療資源的差異。例如,以達(dá)芬奇機(jī)器人為例,一臺(tái)達(dá)芬奇機(jī)器人價(jià)格高達(dá)2 000 萬人民幣,機(jī)器人的機(jī)械臂是一種高值耗材,機(jī)械臂的價(jià)格大概每條10 萬人民幣,每條機(jī)械臂使用10 次后便不能繼續(xù)使用,每年還需要花費(fèi)高昂的機(jī)器維護(hù)費(fèi)用。這種高額的費(fèi)用不是每所醫(yī)院都能支付的。購買這種設(shè)備需要相應(yīng)的資質(zhì),即使有錢,卻不一定有資格購買。
當(dāng)前,整個(gè)世界正在進(jìn)入老齡化社會(huì),科技可以讓人類活得更長久,也可以讓人類活得更健康。誰能享有這樣的技術(shù)?顯然是社會(huì)的精英階層,他們不但能支付得起昂貴的費(fèi)用,因?yàn)閾碛行畔⒌葍?yōu)勢(shì),還會(huì)優(yōu)先擁有技術(shù)使用的權(quán)利,而社會(huì)上的絕大多數(shù)人因?yàn)橘Y金等的制約,無法享有這樣的先進(jìn)技術(shù)。大腦植入是一種神經(jīng)科學(xué)方面治療的新手段,可是只有有能力支付的人才能被提供這種治療方式。另外,醫(yī)療人工智能給老年人帶來很多不便。眾所周知,人工智能被普遍應(yīng)用于醫(yī)院的掛號(hào)環(huán)節(jié),這就需要患者具有使用電腦的知識(shí)和能力,老年人既是患者隊(duì)伍中占有比例較大的群體,又是電腦應(yīng)用技術(shù)較差的群體。對(duì)于設(shè)置在醫(yī)院的電子設(shè)備,他們不懂也不會(huì)使用,對(duì)他們?cè)斐珊艽蟮木歪t(yī)障礙。可見,醫(yī)療人工智能并不能全面適用于老年患者群體。此等情況,必然引發(fā)社會(huì)不公。
此外,人工智能算法所基于的數(shù)據(jù)本身可能包含有意想不到算法偏見,不可控的產(chǎn)生年齡、性別、種族方面的歧視,加劇現(xiàn)有的社會(huì)不平等。
3.醫(yī)療安全不保證。醫(yī)療安全是醫(yī)療人工智能用于診療過程中,要確?;颊呱】蛋踩馐芨鞣N傷害和損害,這是醫(yī)學(xué)倫理學(xué)中不傷害原則的基本要求。
醫(yī)療人工智能可能引發(fā)醫(yī)療事故。醫(yī)務(wù)人員在通過醫(yī)療人工智能完成外科手術(shù)的過程中,主要是通過遠(yuǎn)程控制,通過感應(yīng)器將手術(shù)的實(shí)時(shí)信息反饋給醫(yī)生。機(jī)器人和人類之間存在很大不同,醫(yī)療機(jī)器人,特別是手術(shù)機(jī)器人不同于外科醫(yī)生,是基于機(jī)械驅(qū)動(dòng),在認(rèn)知和行動(dòng)方面通常存在限制。在應(yīng)用中需要醫(yī)務(wù)人員與機(jī)器相互配合,機(jī)器通常無法充分理解一個(gè)場(chǎng)景,在做手術(shù)時(shí)沒有思考,更沒有自我意識(shí),即使有醫(yī)師操作,操作者手稍微抖一下,就有可能引起機(jī)器運(yùn)作的差錯(cuò),就不排除引發(fā)醫(yī)療事故的可能。醫(yī)療人工智能也存在程序錯(cuò)誤或者因病毒的發(fā)作造成醫(yī)療事故的風(fēng)險(xiǎn)。根據(jù)一項(xiàng)涉及機(jī)器人設(shè)備和技術(shù)的醫(yī)療程序中死亡率的新研究,機(jī)器人手術(shù)還遠(yuǎn)不完美?!案鶕?jù)美國FDA 的記錄,機(jī)器人手術(shù)師在2000 年至2013 年間共涉及到144 人的死亡?!倍翌^部、頸部、心胸手術(shù)的風(fēng)險(xiǎn)幾乎10 倍于其他形式的手術(shù)。
此外,在傳統(tǒng)的臨床決策支持系統(tǒng)中,疾病診斷依據(jù)主要由醫(yī)學(xué)專家們提出,完全基于循證原則。而機(jī)器學(xué)習(xí)行為取決于它在訓(xùn)練過程中所獲得的數(shù)據(jù),當(dāng)機(jī)器學(xué)習(xí)系統(tǒng)現(xiàn)有數(shù)據(jù)不能完全匹配患者的疾病現(xiàn)狀時(shí),系統(tǒng)的準(zhǔn)確性將受到影響。沃森腫瘤是IBM 在醫(yī)療人工智能領(lǐng)域的重要產(chǎn)品,能夠根據(jù)患者病歷等信息提供包括乳腺癌、肺癌、直腸癌、結(jié)腸癌等多種癌癥的治療方案。美國健康醫(yī)療媒體披露,在對(duì)假想情形進(jìn)行試驗(yàn)時(shí),沃森制定了危險(xiǎn)的治療方案,為一個(gè)有可能嚴(yán)重出血的患者,推薦使用了引發(fā)出血的藥物。
4.道德主體性不清。醫(yī)療人工智能是否可以成為醫(yī)療領(lǐng)域的道德主體。一般情況下,人們所說的主體,無外乎是有意識(shí)、有行為能力的自然人。但是,當(dāng)人工智能普遍參與醫(yī)療活動(dòng)的時(shí)候,人工智能獨(dú)立地完成掛號(hào)、指導(dǎo)用藥,甚至幫助患者進(jìn)行手術(shù)的時(shí)候,人工智能已經(jīng)具有了獨(dú)立意識(shí)、獨(dú)立的行動(dòng)能力,那么,人工智能是否具有人的責(zé)任能力呢?人工智能可以像自然人一樣,遵循醫(yī)學(xué)倫理道德,弘揚(yáng)“醫(yī)者仁心”的美德嗎?對(duì)于這些問題的回答,核心在于醫(yī)療人工智能是否為合格主體。尤其是當(dāng)醫(yī)療人工智能發(fā)展到像“索菲亞”一樣完全具有了人的特征,甚至超出人的完美的時(shí)候,他們是否應(yīng)該具有人類的高尚的道德境界。
醫(yī)療人工智能造成的醫(yī)療損害誰來承擔(dān)責(zé)任,究竟誰是醫(yī)療人工智能的法律責(zé)任人;人工智能的主體是使用醫(yī)療人工智能服務(wù)于患者的醫(yī)生?是管理和使用醫(yī)療人工智能的醫(yī)院?還是醫(yī)療人工智能的研發(fā)者、生產(chǎn)者?這些問題直接關(guān)系到與醫(yī)療人工智能有關(guān)的事故的處理。誰對(duì)醫(yī)療人工智能承擔(dān)管理、使用、維修負(fù)責(zé)?醫(yī)療人工智能應(yīng)用于整個(gè)醫(yī)療過程,不同科室的醫(yī)療人工智能技術(shù)要求不同,需要不同的專業(yè)人員在熟練醫(yī)療技術(shù)的同時(shí),能夠熟練人工智能的應(yīng)用,才能保證醫(yī)療人工智能發(fā)揮作用。然而,任何人工智能都是由人研發(fā)、創(chuàng)制和使用的,必然存在使用過程中的各種風(fēng)險(xiǎn),誰來為醫(yī)療人工智能應(yīng)用中的各種風(fēng)險(xiǎn)買單?單純地由醫(yī)生作為醫(yī)療人工智能的主體顯然是不恰當(dāng)?shù)?。比如,醫(yī)療人工智能不屬于醫(yī)生的私人物品,可以由自己進(jìn)行養(yǎng)護(hù)和維修,醫(yī)療人工智能的養(yǎng)護(hù)和維修的責(zé)任一般都在醫(yī)院相應(yīng)的管理部門,由于醫(yī)療人工智能的醫(yī)療過程中出現(xiàn)的各種傷害和損失,是由醫(yī)生和醫(yī)院承擔(dān)責(zé)任;即使醫(yī)院和醫(yī)生的責(zé)任明確之后,人工智能應(yīng)用過程中還存在設(shè)計(jì)缺陷、算法問題,生產(chǎn)質(zhì)量問題等諸多隱形風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)的責(zé)任也不能完全推到醫(yī)院和醫(yī)生身上,而是需要設(shè)計(jì)者和生產(chǎn)者為此買單。這種復(fù)雜的情況下,對(duì)于醫(yī)療人工智能的應(yīng)用責(zé)任主體就變得更加復(fù)雜,究竟由誰承擔(dān)醫(yī)療責(zé)任事故和損害的責(zé)任,需要從倫理道德上加以明確。例如,最近的神經(jīng)技術(shù)可以使得大腦信號(hào)變成輸出設(shè)備執(zhí)行所需動(dòng)作的命令。在這種框架下,當(dāng)不確定性風(fēng)險(xiǎn)發(fā)生時(shí),責(zé)任主體應(yīng)該如何判定?一個(gè)主要由設(shè)備產(chǎn)生的行為的責(zé)任是否應(yīng)該最終歸于人類?如此種種,給我們提出了道德主體性問題。
醫(yī)學(xué)從問世的那一天,就是為關(guān)注人的生命、關(guān)愛人的健康而存在的。于是,倫理就成為醫(yī)學(xué)的本質(zhì)屬性之一。當(dāng)下,醫(yī)療人工智能以馬力驚人的速度向前發(fā)展,隨著技術(shù)的進(jìn)步,也使醫(yī)學(xué)發(fā)展充滿更多的不確定性。這其中,需要多方面采取措施,解決醫(yī)療人工智能所面臨的倫理問題,使其能夠在健康的軌道運(yùn)行。
1.重視保護(hù)患者的隱私。個(gè)人疾病屬于個(gè)人隱私,是一個(gè)很敏感的問題。個(gè)人的醫(yī)療信息關(guān)系到患者的人格與尊嚴(yán),個(gè)人是否提供涉及隱私的醫(yī)療數(shù)據(jù),必須尊重個(gè)人意愿?;颊邿o論是在醫(yī)療機(jī)構(gòu)還是在家,采集的數(shù)據(jù)都是個(gè)人的隱私,都應(yīng)受到尊重。其一,數(shù)據(jù)使用必須透明。醫(yī)療人工智能需要使用個(gè)人健康信息來完成學(xué)習(xí),提高診斷和治療能力,醫(yī)療人工智能所需的個(gè)人健康信息是典型的醫(yī)療大數(shù)據(jù)。因此,要實(shí)施數(shù)據(jù)使用透明化原則,無論數(shù)據(jù)做何種用途,使用的一方必需告知本人。其二,患者必須知情同意。在利用醫(yī)療大數(shù)據(jù)時(shí),對(duì)于可能涉及人格和尊嚴(yán),不論是基于對(duì)數(shù)據(jù)提供者的人格尊重,還是基于保護(hù)其利益,都應(yīng)取得患者同意。只有在患者理解并同意的情況下,保障當(dāng)事人的合法權(quán)益,才能研發(fā)和應(yīng)用。其三,完善法律規(guī)范。健全保護(hù)數(shù)據(jù)隱私的法律是降低隱私泄露的重要措施。目前,我國對(duì)患者醫(yī)療數(shù)據(jù)還缺乏監(jiān)管,對(duì)個(gè)人信息保護(hù)的法律法規(guī)尚不完善。我們要像歐美一些國家學(xué)習(xí),建立比較完善的數(shù)據(jù)保密法規(guī),如美國的《健康保險(xiǎn)隱私及移植責(zé)任法案》要求各機(jī)構(gòu)在進(jìn)行數(shù)據(jù)管理和分析時(shí),姓名、住址、電話、身份證號(hào)碼等涉及關(guān)鍵的隱私信息必須打上馬賽克。
2.遵循公平公正原則。公平公正是指以形式公正和內(nèi)容公正的有機(jī)統(tǒng)一為依據(jù)分配和實(shí)現(xiàn)醫(yī)療和健康利益的倫理原則,即具有同樣醫(yī)療需要以及同等社會(huì)貢獻(xiàn)和條件的患者應(yīng)得到同樣的醫(yī)療待遇。公正原則強(qiáng)調(diào)在基本醫(yī)療保健需求上保證公正的絕對(duì)性。
供給與需求之間的不匹配是中國醫(yī)療人工智能應(yīng)用過程中的核心痛點(diǎn)。人是生而平等的,應(yīng)該擁有平等的使用醫(yī)療人工智能產(chǎn)品的機(jī)會(huì)。醫(yī)療人工智能在給人們帶來先進(jìn)技術(shù)的同時(shí),與之相伴的就是高額的費(fèi)用。目前,醫(yī)療人工智能的費(fèi)用較高,先進(jìn)的設(shè)備和技術(shù)多集中在經(jīng)濟(jì)發(fā)達(dá)地區(qū),在發(fā)達(dá)地區(qū)也多數(shù)集中在大醫(yī)院,地區(qū)發(fā)展不平衡,資源分配不均衡的狀況還顯著存在。動(dòng)輒成百上千萬甚至過億元的設(shè)備和網(wǎng)絡(luò)鋪設(shè)費(fèi)用,不是一般的醫(yī)院能支付得起的,隨之而來的高昂的檢查和治療費(fèi)用,也讓家庭貧困的患者望而卻步。所以說先進(jìn)的智能技術(shù),現(xiàn)在還滿足不了每個(gè)應(yīng)該使用的患者都能享有這種醫(yī)療服務(wù)。面對(duì)這些,我們應(yīng)該采取適當(dāng)?shù)拇胧┫龜?shù)字鴻溝和“信息貧富差距”,防止“資本的邏輯”或者“技術(shù)的邏輯”造成的不平等。
3.建立技術(shù)標(biāo)準(zhǔn)保障安全。即便算法透明之路異常艱難,我們?nèi)孕柰黄浦刂卣系K,找到解決算法之規(guī)制。2017 年,美國“阿西洛馬醫(yī)療人工智能原則”的第11 條,規(guī)定了醫(yī)療人工智能的技術(shù)方向:“應(yīng)設(shè)計(jì)和操作醫(yī)療人工智能系統(tǒng),以符合人類尊嚴(yán)、權(quán)利、自由和文化多樣性的理想?!逼浯_定了醫(yī)療人工智能的發(fā)展方向,維護(hù)人類的利益。
人工智能廣泛應(yīng)用的算法技術(shù)越來越復(fù)雜,對(duì)決策的影響越來越重大。由于人工智能具有復(fù)雜性和不確定性,導(dǎo)致人們難以審查人工智能的運(yùn)行原理,這是醫(yī)療人工智能產(chǎn)生安全問題的重要原因。
由于算法的不透明性,算法的基礎(chǔ)技術(shù)和應(yīng)用對(duì)于我們來說,仍是一個(gè)未知領(lǐng)域。人們對(duì)自主決策系統(tǒng)提出質(zhì)疑,因?yàn)檫@一系統(tǒng)一般僅僅輸出一個(gè)數(shù)字,從未提供做出這一決策所依據(jù)的材料和理由,它的具體運(yùn)算過程無從知曉,無法預(yù)測(cè),更無法掌控,由此給人們帶來倫理的挑戰(zhàn),這是包括醫(yī)療人工智能在內(nèi)的人工智能應(yīng)用中面臨的共性難題。如何避免算法偏見、歧視是醫(yī)療機(jī)器人應(yīng)用過程中不容回避的挑戰(zhàn)。
未來需要對(duì)算法進(jìn)行監(jiān)管。監(jiān)管內(nèi)容包括增加代碼的透明性,要公布性能、設(shè)計(jì)、責(zé)任標(biāo)準(zhǔn)等等。如果用自動(dòng)化手段進(jìn)行決策,則需要告知使用方,使用方有知情權(quán),要增加算法決策透明性,并且在必要時(shí)要向使用方提供一定的解釋。此外,要制定嚴(yán)格的審批制度。在醫(yī)療人工智能產(chǎn)品投入市場(chǎng)之前,監(jiān)管部門要進(jìn)行事先審批。不經(jīng)過審批,就不允許投向市場(chǎng)。目前,國家藥品監(jiān)督管理局已經(jīng)出臺(tái)了相關(guān)指導(dǎo)規(guī)范,并已啟動(dòng)了對(duì)醫(yī)療人工智能的認(rèn)證流程。根據(jù)國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》,到2025 年,中國要初步形成人工智能安全評(píng)估和管控能力。
4.明確道德主體。隨著醫(yī)療人工智能在醫(yī)療領(lǐng)域的廣泛應(yīng)用,人類面對(duì)智能帶來的風(fēng)險(xiǎn)與挑戰(zhàn)也將會(huì)更多。對(duì)于防范醫(yī)療人工智能已知的或潛在的風(fēng)險(xiǎn),將這些風(fēng)險(xiǎn)控制在一定的范圍之內(nèi),讓機(jī)器與人類各司其職,共同面臨智能時(shí)代的“倫理大考”。其一,要明確醫(yī)療人工智能的工具屬性。機(jī)器和人腦具有很大不同,人類通過抽象思維和邏輯思維進(jìn)行分析判斷,從而對(duì)核心信息進(jìn)行分析,達(dá)到解決問題的目的。醫(yī)療人工智能雖然在影像診斷方面的準(zhǔn)確率要高于人類,但現(xiàn)在還是初級(jí)階段,還不具有和人類完全一樣的思維和情感。計(jì)算機(jī)處理問題的方式是串行處理,速度很快,但是在同一時(shí)間只能處理一個(gè)問題,對(duì)解決充滿矛盾的問題往往“力不從心”,不能夠達(dá)到真正的智能。其二,肯定人類的道德主體地位。醫(yī)療人工智能只是有限的道德主體,無權(quán)作為一個(gè)獨(dú)立的道德體存在,更不能作為責(zé)任的承擔(dān)主體。醫(yī)學(xué)領(lǐng)域人工智能的目的是為人類健康服務(wù)的,技術(shù)本身是中性的,它的威脅根源還是要回到設(shè)計(jì)者和制造者本身,是他們無視道德和風(fēng)險(xiǎn),在沒有驗(yàn)證產(chǎn)品的安全使用性能前就開始投入使用,這種不嚴(yán)謹(jǐn)、不科學(xué)的做法產(chǎn)生的后果應(yīng)由人類負(fù)責(zé),而不能由醫(yī)療人工智能負(fù)責(zé)。現(xiàn)階段,醫(yī)療人工智能沒有達(dá)到強(qiáng)人工智能階段,還不具備獨(dú)立的思考能力,不具備道德地位,沒有資格代替醫(yī)生在醫(yī)療行為中的角色,更不應(yīng)該對(duì)產(chǎn)生的危害負(fù)責(zé)。其三,完善侵權(quán)責(zé)任承擔(dān)制度。目前,對(duì)于醫(yī)療人工智能的責(zé)任劃分以及認(rèn)定各方都在探討,消費(fèi)者、制造商、受害者三方利益在劃定侵權(quán)責(zé)任時(shí)要充分平衡,既不能讓制造商承擔(dān)過重,也不能讓消費(fèi)者承擔(dān)過多,否則會(huì)阻礙技術(shù)進(jìn)步和創(chuàng)新,同時(shí)又要充分保障受害者的權(quán)益不受侵害。因此,最好的解決辦法是建立一套綜合救濟(jì)體系,以責(zé)任保險(xiǎn)制度為核心,充分考慮各方利益。
醫(yī)療人工智能給人類帶來的利益大于傷害,今天社會(huì)各方面已經(jīng)有基本共識(shí)。但是,我們?nèi)匀灰接戓t(yī)療人工智能領(lǐng)域的倫理問題,目的在于理性、正確地認(rèn)識(shí)醫(yī)療人工智能的應(yīng)用,不斷在思考中解決問題,促使其健康發(fā)展。
錦州醫(yī)科大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2020年3期