黃崑 徐曉婷 黎安潤澤 徐峰
關(guān)鍵詞:人工智能;倫理;圖書情報(bào);內(nèi)容分析
1問題提出
人工智能(Artificial Intelligence,簡稱AI)興起于20世紀(jì)50年代,研究和制造能夠模擬人類智能活動的智能機(jī)器或智能系統(tǒng),用來延伸和擴(kuò)展人類的智能。人工智能技術(shù)發(fā)展驅(qū)動了新一輪產(chǎn)業(yè)變革和第四次科技革命。美國、日本、英國等國家(地區(qū))都已出臺相關(guān)政策對人工智能技術(shù)的發(fā)展予以支持,我國政府也高度重視,相繼出臺《新一代人工智能發(fā)展規(guī)劃》(2017年7月)、《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計(jì)劃(2018-2020)》(2017年12月)、《關(guān)于促進(jìn)人工智能和實(shí)體經(jīng)濟(jì)深度融合的指導(dǎo)意見》(2019年3月)等多項(xiàng)戰(zhàn)略規(guī)劃和行動計(jì)劃。然而,技術(shù)的健康發(fā)展離不開倫理研究的同步發(fā)展。2018年,習(xí)近平總書記在主持中共中央政治局第九次集體學(xué)習(xí)時,指出“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會問題研究”。在國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中,提出到2025年“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”??梢?,在人工智能技術(shù)發(fā)展過程中,倫理研究至關(guān)重要。倫理泛指“道德”,狹義上常用來表示某一特定傳統(tǒng)、群體或個人的道德原則,表現(xiàn)為人與社會、人與自然和人與人關(guān)系的思想與行為準(zhǔn)則。在人工智能時代倫理的內(nèi)涵,指在一定社會歷史條件下,通過制定相關(guān)原則、規(guī)范和標(biāo)準(zhǔn),促進(jìn)人、社會、自然和人工智能機(jī)器的和諧共處。
新技術(shù)的發(fā)展及其社會影響是圖情學(xué)科重要的內(nèi)容之一。人工智能是一個新興的交叉學(xué)科,應(yīng)用領(lǐng)域廣泛。圖情學(xué)科現(xiàn)有的情報(bào)分析方法,可能在處理人工智能倫理問題研究上,還需要結(jié)合新的理論視角和研究手段,這也有助于推進(jìn)圖情學(xué)科在處理交叉學(xué)科問題上研究方法的探索。不僅如此,圖情學(xué)科對信息生命周期的管理研究,各類信息系統(tǒng)、信息技術(shù)的創(chuàng)新研究,都存在著道德倫理的風(fēng)險(xiǎn),也需要對倫理問題進(jìn)行思考并應(yīng)對。洞察國際圖情領(lǐng)域所關(guān)注的倫理風(fēng)險(xiǎn)情境和應(yīng)對,不僅可以用于分析與計(jì)算機(jī)、哲學(xué)等不同學(xué)科關(guān)注的聯(lián)系和差異,也可以為我國圖情學(xué)科研究者進(jìn)入這一領(lǐng)域提供參考和借鑒。
根據(jù)對國內(nèi)圖情CSSCI期刊的論文調(diào)研可以看到,研究者們已經(jīng)從隱私保護(hù)、數(shù)據(jù)安全等問題角度進(jìn)行探討,還有研究者從國際角度,對人工智能倫理問題研究進(jìn)行分析,如劉鴻宇等、汪玉蘭等都運(yùn)用CiteSpace工具,對人工智能倫理領(lǐng)域文獻(xiàn)研究論文研究的主題、經(jīng)典文獻(xiàn)與重要作者等進(jìn)行了分析。王晰巍等則利用CiteSpace工具,對國內(nèi)外圖情領(lǐng)域在人工智能問題上的研究論文進(jìn)行分析,指出國內(nèi)外研究者主要圍繞人工智能在信息檢索、社交媒體內(nèi)容分類、情感分析、知識問答、網(wǎng)絡(luò)輿情分析等方面。雖然倫理問題研究并非當(dāng)下圖情領(lǐng)域在人工智能方面研究關(guān)注的熱點(diǎn),但是.人工智能技術(shù)對隱私與安全的影響等相關(guān)倫理問題被認(rèn)為是未來研究趨勢中重要的方向之一。
可見,國內(nèi)圖情領(lǐng)域已經(jīng)開始關(guān)注人工智能倫理問題,為了進(jìn)一步推動圖情領(lǐng)域的研究關(guān)注和力度,本研究選取了近5年圖情學(xué)科SSCI期刊發(fā)表的相關(guān)論文,利用內(nèi)容分析法對這些研究探討的倫理風(fēng)險(xiǎn)問題情境、應(yīng)對策略進(jìn)行編碼和分析,力圖為我國圖情領(lǐng)域同行開展研究提供參考和借鑒。
2研究設(shè)計(jì)
2.1研究問題
本研究通過分析國際圖書情報(bào)領(lǐng)域人工智能倫理研究文獻(xiàn),探究圖書情報(bào)領(lǐng)域人工智能倫理研究現(xiàn)狀,具體研究問題如下:
1)研究了哪些主題的人工智能倫理問題?
2)提出了哪些倫理風(fēng)險(xiǎn)應(yīng)對的策略?
2.2編碼設(shè)計(jì)
本研究采取內(nèi)容分析法,從問題層次、應(yīng)用領(lǐng)域、對策3個方面,對收集到的論文進(jìn)行編碼。其中,問題層次又分為數(shù)據(jù)、算法和人工智能系統(tǒng)3類。應(yīng)用領(lǐng)域根據(jù)《中國圖書館分類法》中的21個大類(去掉z綜合性)進(jìn)行編碼。在對策層面,借鑒Hagendorff T提出的社會方法和技術(shù)方法分類方式,如表1所示。編碼過程由兩位編碼員進(jìn)行,在編碼分歧時進(jìn)行討論,最終取得一致后完成編碼工作。
2.3數(shù)據(jù)收集
為了收集圖情領(lǐng)域相關(guān)論文,根據(jù)Web of Sci.ence(WOS)數(shù)據(jù)庫圖書情報(bào)學(xué)科類目下進(jìn)行檢索。一方面,綜合兩種策略檢索人工智能主題,如表2所示。第一,使用“人工智能”或人工智能系統(tǒng)載體的“機(jī)器人”為主題詞;第二,根據(jù)人工智能相關(guān)發(fā)展報(bào)告,將人工智能領(lǐng)域的相關(guān)技術(shù)作為主題詞。
另一方面,確定“倫理”或“道德”作為倫理主題的檢索詞。
因此,最終確定的檢索式為TS=(“ArtificialIntelligen”O(jiān)R AI OR Robot。OR“Machine Learn-ing”O(jiān)R“Deep Learning”O(jiān)R“Natural LanguageProcessing”O(jiān)R“Image Recognition”O(jiān)R“FaceRecognition”O(jiān)R“Computer Vision”O(jiān)R“VirtualAssistant”O(jiān)R“Visual Search”O(jiān)R“Text Analysis”O(jiān)R“Semantic Search”O(jiān)R“Predictive Analysis”O(jiān)R“Intelligent System”O(jiān)R“Semantic Web”、AND TS=(Ethic OR Moral),并限定WOS類別為圖書情報(bào)(INFORMATION SCIENCE LIBRARYSCIENCE),文獻(xiàn)類型為學(xué)術(shù)論文(Article,Re.view,Proceedings Paper),在2015年1月1日一2019年12月31日期間發(fā)表,檢索到43篇論文。其中4篇無法獲得全文,最終分析的論文數(shù)為39篇。自2015年起,逐年發(fā)表論文數(shù)為4、7、3、10和15,整體呈現(xiàn)上升趨勢。
對文獻(xiàn)來源出版物進(jìn)行統(tǒng)計(jì),共有14個來源期刊。發(fā)表在期刊《Ethics and Information Techn01.ogy》的論文占61%,如表3所示,該期刊是圖書情報(bào)學(xué)科類目下發(fā)表人工智能倫理研究文獻(xiàn)的主要刊物。該期刊的出版商為Springer Nature,出版年份可追溯到1999年,出版頻率為每年出版4期,2019年期刊影響因子為2.06。根據(jù)WOS的學(xué)科分類,該期刊同時歸類在圖書情報(bào)學(xué)和倫理學(xué)學(xué)科,辦刊宗旨是推動道德哲學(xué)與信息通信技術(shù)領(lǐng)域之間的對話。
從論文作者機(jī)構(gòu)來看.這39篇論文共計(jì)涉及83位作者,來自18個國家(地區(qū)),其中,美國、英國和荷蘭的作者發(fā)表文獻(xiàn)最多,分別有11篇、8篇和6篇研究文獻(xiàn):意大利和丹麥研究者分別發(fā)表了3篇文獻(xiàn)。我國研究者發(fā)表了1篇相關(guān)研究。
3數(shù)據(jù)分析
3.1基本情況
根據(jù)編碼結(jié)果,39篇論文分為兩類,一類在論文標(biāo)題中就出現(xiàn)“倫理或道德”,主要探究或解決某一類倫理問題,如無人機(jī)在人道主義領(lǐng)域應(yīng)用中的道德反思、人工智能產(chǎn)品與人權(quán)問題、機(jī)器人、生物特征識別等數(shù)字化應(yīng)用帶來的社會倫理問題。第二類在關(guān)鍵詞或摘要內(nèi)容中出現(xiàn)“倫理或道德”,通常將倫理作為研究分析或討論的視角之一。如探討人工智能在公共部門服務(wù)領(lǐng)域的應(yīng)用和發(fā)展問題時涉及了將人工智能政策和倫理納入應(yīng)用各層面的觀點(diǎn)。在訪談圖書館館長、圖書館評論員等人員探究人工智能對高校圖書館潛在影響時提及,人工智能應(yīng)用的倫理問題是圖書館面臨的挑戰(zhàn)之一。
在應(yīng)用領(lǐng)域上.共計(jì)出現(xiàn)9類領(lǐng)域,醫(yī)藥衛(wèi)生領(lǐng)域出現(xiàn)最多,如圖1所示。
在問題層次上,數(shù)據(jù)、算法和人工智能系統(tǒng)層面?zhèn)惱韱栴}研究各有14篇、11篇和31篇??梢姡瑢θ斯ぶ悄芟到y(tǒng)層面的關(guān)注度更高。下面,結(jié)合問題層次、應(yīng)用領(lǐng)域進(jìn)行分析。
3.2數(shù)據(jù)層面
數(shù)據(jù)層面?zhèn)惱韱栴}研究涉及的應(yīng)用領(lǐng)域如圖2所示。
關(guān)于醫(yī)藥衛(wèi)生領(lǐng)域,主要探討護(hù)理和醫(yī)療中的數(shù)據(jù)采集、共享中的倫理風(fēng)險(xiǎn)。針對護(hù)理數(shù)據(jù)的采集,護(hù)理機(jī)器人24小時監(jiān)視、記錄并傳遞護(hù)理對象的身體狀況,這些數(shù)據(jù)包含護(hù)理對象日常行動的大量信息,如洗澡或尚未穿好衣服等時刻被監(jiān)視或記錄,這些信息如果在未征得護(hù)理對象許可情況下被收集、觀看甚至利用,會威脅到護(hù)理對象的隱私。針對醫(yī)療數(shù)據(jù)的共享,不同醫(yī)療機(jī)構(gòu)之間的共享數(shù)據(jù)有助于增加數(shù)據(jù)樣本的容量和多樣性,大量訓(xùn)練數(shù)據(jù)可以促進(jìn)醫(yī)療記錄監(jiān)測和醫(yī)學(xué)治療改善,但是共享過程容易因?yàn)閿?shù)據(jù)保護(hù)不當(dāng)而侵犯患者的健康隱私。
關(guān)于政治領(lǐng)域,主要探討公共服務(wù)中公民數(shù)據(jù)利用產(chǎn)生的倫理風(fēng)險(xiǎn)。Sousa w G等提出公共部門應(yīng)用人工智能技術(shù)時要避免數(shù)據(jù)被一些追求個人利益的人破壞和利用。針對公民數(shù)據(jù)利用,Lindgren I等指出應(yīng)用人工智能技術(shù)生成或分析大量公民數(shù)據(jù)時,結(jié)果可能用于監(jiān)視公民線上或線下行為而限制其行為活動.對公民數(shù)據(jù)隱私造成影響。
關(guān)于地球科學(xué)領(lǐng)域.主要探討地理文本分析的數(shù)據(jù)標(biāo)注可能引發(fā)的倫理問題。McDonough K等分析了跨越歷史的地理文本給地理信息檢索帶來的挑戰(zhàn),認(rèn)為常用地名詞典由于缺少鏈接到歷史地名形式的時間元數(shù)據(jù),造成地名歷史被遺忘、殖民時期地名永久化,從而引發(fā)殖民時期地名歷史延續(xù)、當(dāng)?shù)孛麣v史文化遭破壞等一系列社會倫理問題。
關(guān)于工業(yè)技術(shù)領(lǐng)域.主要探討家居產(chǎn)品應(yīng)用中的倫理風(fēng)險(xiǎn)。如智能家居產(chǎn)品收集用戶個人信息和產(chǎn)品使用等數(shù)據(jù),雖然智能產(chǎn)品提供了隱私協(xié)議,但人們通常不能完全理解協(xié)議內(nèi)容,或者由于產(chǎn)品的使用限制和隱私協(xié)議的閱讀時間過長而習(xí)慣性選擇“同意”,這給隱私安全帶來威脅。
在經(jīng)濟(jì)、軍事、交通運(yùn)輸?shù)阮I(lǐng)域,數(shù)據(jù)層面的問題也主要集中在數(shù)據(jù)生命周期的不同階段,如在數(shù)據(jù)組織階段,Iliadis A提出應(yīng)用本體對軍事情報(bào)、社會計(jì)劃和經(jīng)濟(jì)學(xué)等領(lǐng)域的數(shù)據(jù)進(jìn)行組織分析時,需要關(guān)注錯誤識別社會實(shí)體可能產(chǎn)生的倫理道德風(fēng)險(xiǎn)。
此外,表情數(shù)據(jù)采集問題也受到關(guān)注。表情數(shù)據(jù)采集不僅存在常見的數(shù)據(jù)泄露的隱患,還會帶來精神層面的隱私侵犯形式。如面部識別軟件可以自動發(fā)現(xiàn)人們不自覺的面部微表情.揭示人們視為隱私的情緒。又如機(jī)器人教師可以通過情緒探測器和傳感器識別學(xué)生的情緒,然而這些個人情緒識別信息在存儲和傳輸過程中可能會侵犯到學(xué)生的隱私,帶來新的隱患。情緒識別技術(shù)通過檢查人們在無意識發(fā)出的非語言信息(如面部表情、走路方式),可能因?yàn)樾孤度藗冊鞠M[藏的心理狀態(tài)或情緒而侵犯人的“精神隱私”。
3.3算法層面
算法層面?zhèn)惱韱栴}研究涉及的應(yīng)用領(lǐng)域如圖3所示。
關(guān)于經(jīng)濟(jì)領(lǐng)域,主要探討區(qū)域經(jīng)濟(jì)分析、社會就業(yè)、金融信貸和商業(yè)銷售等應(yīng)用情境中應(yīng)用人工智能算法產(chǎn)生的倫理問題。具體包括:①在區(qū)域經(jīng)濟(jì)分析中,運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)識別高分辨率衛(wèi)星圖像的特征,據(jù)此分析地方經(jīng)濟(jì)發(fā)展,進(jìn)而確定各地區(qū)的經(jīng)濟(jì)水平,但這可能造成因地區(qū)經(jīng)濟(jì)水平差異產(chǎn)生的差別對待;②在就業(yè)機(jī)會分配時,由于現(xiàn)有的工作數(shù)據(jù)中男性和女性的工作情況存在差異,基于這些數(shù)據(jù)進(jìn)行算法模型訓(xùn)練,容易延續(xù)數(shù)據(jù)中的性別歧視給男性提供更具經(jīng)濟(jì)優(yōu)勢的工作機(jī)會;③在金融信貸中,運(yùn)用人工智能技術(shù)幫助金融機(jī)構(gòu)決定提供貸款的對象,算法運(yùn)行結(jié)果可能產(chǎn)生地域、種族和性別上的偏見。此外,金融機(jī)構(gòu)根據(jù)信用預(yù)測算法的結(jié)果確定提供貸款的對象雖然有助于規(guī)避貸款風(fēng)險(xiǎn),但同時也可能加大良好信用群體與信用有風(fēng)險(xiǎn)群體之間信用評分的差距,加劇不平等現(xiàn)象;④在商業(yè)銷售中,Ien.ca M提到面部識別算法識別非裔美國人始終比白種人效果差,產(chǎn)生諸如面部識別等技術(shù)應(yīng)用的社會受益不平等問題。
關(guān)于政治領(lǐng)域,主要探討在競選活動和公共部門服務(wù)中使用算法可能會引發(fā)的倫理問題。在競選活動中,人工智能算法根據(jù)選民搜索行為預(yù)測選擇偏好,通過改變搜索結(jié)果順序影響選民偏好,對選舉的民主造成威脅。同時,信息技術(shù)創(chuàng)造的更智慧算法會有意或無意地“懲罰”某些群體或減少他們獲得某種機(jī)會的可能性,破壞低水平的消費(fèi)者享有某些服務(wù)的公平機(jī)會。這些算法偏見或歧視會進(jìn)一步侵犯人類原有的自我決策權(quán),公共部門在應(yīng)對算法偏見帶來的不利影響時,存在法律問責(zé)的困難。
關(guān)于法律領(lǐng)域,主要探討犯罪預(yù)測中算法應(yīng)用產(chǎn)生的倫理問題。Vetro A等提到法官用來評估被告再犯概率以防止累犯行為的算法存在對黑人被告的偏見,該算法使他們普遍呈現(xiàn)更高的犯罪風(fēng)險(xiǎn).加劇現(xiàn)實(shí)社會的種族歧視,帶來社會不安定因素。Rahwan I也提到警務(wù)預(yù)測中使用AI會使得一些人很難擺脫遭受歧視的惡性循環(huán)。
在文化科學(xué)領(lǐng)域,主要討論新聞傳播中使用人工智能算法可能引起的倫理問題。運(yùn)用機(jī)器學(xué)習(xí)算法.通過用戶的瀏覽和點(diǎn)擊等行為預(yù)測他們的偏好選擇,并據(jù)此推薦新聞內(nèi)容,在用戶對推薦算法不知情或不理解的情況下.將他們閱讀的新聞內(nèi)容朝著算法預(yù)測的方向引導(dǎo).這可能限制了用戶對新聞內(nèi)容的自主選擇權(quán)利。
3.4人工智能系統(tǒng)層面
人工智能系統(tǒng)層面?zhèn)惱韱栴}研究涉及的應(yīng)用領(lǐng)域如圖4所示。
在社會科學(xué)領(lǐng)域,主要討論機(jī)器人在人類社會活動中引發(fā)的倫理問題。如聊天、陪伴等社交機(jī)器人通過模仿人類行為觸發(fā)用戶的情緒反應(yīng),可能讓用戶投入情感并建立一種新的社會關(guān)系。對于認(rèn)知水平有限的用戶,可能會降低他們參與真正社會互動的意愿,造成道德傷害。又如機(jī)器人擁有的道德能力引發(fā)的倫理問題.包括機(jī)器人是否應(yīng)該有自主性、是否應(yīng)該總是聽從人類的命令、是否應(yīng)該被允許在一定情境下殺害人類、是否應(yīng)該享有被保護(hù)權(quán)利等。人們很容易將機(jī)器人使用中產(chǎn)生的問題歸咎于機(jī)器人本身或?qū)C(jī)器人負(fù)有責(zé)任的代理人,但機(jī)器人往往不滿足被迫責(zé)的條件或者不適合成為被追責(zé)的責(zé)任主體.由此可能導(dǎo)致道德替罪羊的出現(xiàn),削弱公眾對法治的信心。
在醫(yī)藥衛(wèi)生領(lǐng)域,主要探討護(hù)理機(jī)器人引發(fā)的倫理問題。機(jī)器人在喂食、搬運(yùn)等行為時不能像人一樣對照料對象提供關(guān)愛,因而被照料者可能會感覺自己被當(dāng)作物體來對待,個人尊嚴(yán)受到傷害。Draper H等提到使用機(jī)器人為老年人提供家庭護(hù)理服務(wù)時,機(jī)器人的監(jiān)視可能干擾老人的行動,剝奪他們自主選擇權(quán)。Tuisku O等也指出機(jī)器人無法代替人類的聲音和手.機(jī)器人的使用會減少護(hù)理中的人際接觸,造成人類關(guān)懷的喪失。Rodog.no R探究陪伴型機(jī)器人與老年人的關(guān)系時指出,為了獲得護(hù)理機(jī)器人的積極情感交流,老年人可能夸大悲傷經(jīng)歷而變得更加多愁善感。Wynsberghe AV也指出.設(shè)計(jì)護(hù)理機(jī)器人應(yīng)重視“關(guān)懷倫理”,其核心元素為關(guān)系、角色和責(zé)任,強(qiáng)調(diào)護(hù)理機(jī)器人的道德水平不只是關(guān)注照顧效率和隱私保護(hù),還需要考慮對被照料者的道德品格的影響。
在軍事領(lǐng)域.主要討論軍用武器系統(tǒng)應(yīng)用人工智能技術(shù)的倫理問題,包括對人的尊嚴(yán)的影響和武器系統(tǒng)自主決策的道德責(zé)任問題。自主武器系統(tǒng)使用傳感器獲取目標(biāo),會在人類難以直接干預(yù)決策情況下進(jìn)行自主攻擊。Sharkey A認(rèn)為目前自主武器系統(tǒng)無法理解或尊重生命的價(jià)值,使用武器系統(tǒng)做出殺人的決定是對生命不負(fù)責(zé)任的行為。因此,自主武器系統(tǒng)或軍用機(jī)器人的使用需要在最大限度減少間接傷害和實(shí)現(xiàn)軍事優(yōu)勢間進(jìn)行權(quán)衡。然而,一旦發(fā)生不必要的平民傷亡,明確追責(zé)或進(jìn)行懲罰都變得相當(dāng)困難。
在政治領(lǐng)域,主要關(guān)注在人道主義援助和國家安全中應(yīng)用人工智能技術(shù)產(chǎn)生的倫理問題。在人道主義援助方面,針對政治避難和移民的臨時收容所.利用無人機(jī)收集收容中心場地?cái)?shù)據(jù),盡管可以檢查中心的生活條件,但也減少了人與人之間的互動.如果未考慮無人機(jī)使用的潛在危害,可能傷害到受援助對象的尊嚴(yán)。在國家安全方面,相關(guān)研究中提到國家安全機(jī)構(gòu)或其他政府機(jī)構(gòu)部署監(jiān)視系統(tǒng)用于控制和約束公民,引發(fā)了侵犯公民自由權(quán)利的爭論。
在文化科學(xué)領(lǐng)域,主要關(guān)注在文化服務(wù)、教育中使用機(jī)器人產(chǎn)生的倫理問題。如機(jī)器人可以代替圖書館工作人員進(jìn)行書籍訂購、分類以及咨詢等工作,使相關(guān)人員感受到就業(yè)環(huán)境威脅,甚至產(chǎn)生心理健康問題。機(jī)器人教師、同伴在兒童教育中的應(yīng)用,可能因?yàn)殚L時間陪伴和相處讓學(xué)生產(chǎn)生情感依戀,減少與人的相處.影響他們社交能力的發(fā)展。
在交通運(yùn)輸領(lǐng)域,主要對自動駕駛汽車應(yīng)用產(chǎn)生的倫理困境進(jìn)行探討。自動駕駛汽車在即將發(fā)生交通事故時需要做出決策,在駕駛員、乘客、行人安全以及其他相關(guān)因素之間進(jìn)行權(quán)衡,面臨類似于人類社會的“電車難題”.自動駕駛汽車做出決定會使交通事故的責(zé)任歸屬變得更加復(fù)雜.引起道德責(zé)任主體與承擔(dān)方式的爭議。此外,自動化使得人們高度依賴技術(shù).一旦自動化生產(chǎn)機(jī)器不能正常工作,工人缺乏替代機(jī)器進(jìn)行生產(chǎn)工作的能力,主管作為管理者同樣缺乏相關(guān)的專業(yè)知識和手工技能,使生產(chǎn)鏈的脆弱性增加。
3.5對策層面
研究中針對人工智能技術(shù)應(yīng)用的倫理問題提出的解決方法,根據(jù)借助的工具類型不同,將其分為社會方法和技術(shù)方法。
3.5.1社會方法
社會方法倡導(dǎo),將道德原則、法律法規(guī)等有助于規(guī)避倫理風(fēng)險(xiǎn)的社會規(guī)范融人人工智能技術(shù)設(shè)計(jì)與應(yīng)用場景,使個人或組織在社會環(huán)境中更負(fù)責(zé)任地使用人工智能技術(shù)。
一方面,根據(jù)道德原則建立技術(shù)規(guī)范要求,盡可能降低人工智能技術(shù)應(yīng)用中的倫理道德風(fēng)險(xiǎn)。例如,針對機(jī)器學(xué)習(xí)可能產(chǎn)生的偏見風(fēng)險(xiǎn).可以通過強(qiáng)調(diào)公正和尊重的道德原則來構(gòu)建公平、非歧視的社會,通過社會數(shù)據(jù)處理前的倫理分析或道德審查規(guī)避風(fēng)險(xiǎn)。同時,人工智能程序設(shè)計(jì)需要兼顧人工智能的“理性代理”與“對社會負(fù)責(zé)的代理”角色,設(shè)計(jì)高效且尊重人類社會的人工智能應(yīng)用。針對人工智能技術(shù)可能破壞人類社會的民主、自由和公平,可以構(gòu)建一種介于嚴(yán)格監(jiān)管和自由放任之間的、積極主動的技術(shù)民主化方法,對技術(shù)設(shè)計(jì)和應(yīng)用進(jìn)行規(guī)范化。此外,還可以建立適用于自主機(jī)器人開發(fā)的公司或組織的道德責(zé)任規(guī)范體系,通過安全協(xié)議事先明確責(zé)任歸屬。更多推廣“以關(guān)懷為中心的價(jià)值敏感設(shè)計(jì)”方法,將倫理維度納入機(jī)器人設(shè)計(jì)和實(shí)現(xiàn)框架,這種方法目前主要應(yīng)用于醫(yī)療保健領(lǐng)域,通過設(shè)計(jì)過程的價(jià)值觀反思性評價(jià),規(guī)范機(jī)器人的護(hù)理實(shí)踐步驟。
另一方面,使用約束力更強(qiáng)的法律法規(guī)應(yīng)對人工智能技術(shù)應(yīng)用的倫理問題。例如,為了確保公共價(jià)值觀和人的基本權(quán)利在人工智能技術(shù)應(yīng)用中得到保障,Royakkers L等提出設(shè)計(jì)人員需要認(rèn)識并遵循國際條約中大數(shù)據(jù)監(jiān)管和算法透明度的有關(guān)規(guī)定。Vamplew P等提到設(shè)計(jì)自主軍事系統(tǒng)時應(yīng)保證機(jī)器的行動符合《戰(zhàn)爭法》和《交戰(zhàn)規(guī)則》的有關(guān)規(guī)定。Ransbotham S等提到針對算法偏見和歧視問題,應(yīng)參考國家法院《民權(quán)法案》中相應(yīng)的法律原則,在美國《民權(quán)法》第七章中就提到了有關(guān)的歧視案件的法律條文。
3.5.2技術(shù)方法
技術(shù)方法是從技術(shù)操作層面思考解決方法,以降低人工智能技術(shù)應(yīng)用的倫理風(fēng)險(xiǎn)。
在數(shù)據(jù)操作方面,根據(jù)數(shù)據(jù)生命周期探討不同階段的倫理風(fēng)險(xiǎn)規(guī)避。例如,從數(shù)據(jù)采集來看,Robinson L等提出對機(jī)器人收集的信息進(jìn)行分類.建立各類信息合法獲取和使用的標(biāo)準(zhǔn),可以保護(hù)個人隱私信息。從數(shù)據(jù)處理來看,Hagendorff T提到通過刪除敏感、受保護(hù)屬性,或者修正訓(xùn)練集消除倫理隱患。但是,非敏感屬性同樣存在產(chǎn)生歧視的可能,而且對訓(xùn)練數(shù)據(jù)集的修正可能降低數(shù)據(jù)分析的質(zhì)量和有用性。從數(shù)據(jù)組織來看,McDonoughK等提出使用擴(kuò)展命名實(shí)體標(biāo)注具有歷史跨越的地理文本,綜合考慮地理空間位置和非地理空間或時間的多樣性信息,提高對空間歷史的解釋力度。從數(shù)據(jù)共享來看,Kuo T T等提出將隱私保護(hù)的學(xué)習(xí)模型與區(qū)塊鏈技術(shù)結(jié)合起來開發(fā)通用的保護(hù)隱私的預(yù)測模型共享框架,為機(jī)構(gòu)間數(shù)據(jù)共享時的隱私保護(hù)提供幫助。
在算法模型方面,Ananny M提到開發(fā)“非監(jiān)督式學(xué)習(xí)”算法來識別數(shù)據(jù)集中可能導(dǎo)致歧視的模式或結(jié)構(gòu),避免總是基于一種假設(shè)而扭曲數(shù)據(jù)集。Marlies V D V等構(gòu)建了一個道德決策模型,針對不同的人機(jī)關(guān)系進(jìn)行不同道德模式的響應(yīng),輔助人工智能系統(tǒng)做出恰當(dāng)?shù)牡赖聸Q策。
在智能系統(tǒng)結(jié)構(gòu)方面.Arnold T等提出通過倫理核心應(yīng)對人工智能系統(tǒng)的道德威脅,倫理核心在智能系統(tǒng)的體系結(jié)構(gòu)中,位于硬件(或最小操作系統(tǒng)層)與虛擬機(jī)層之間,由場景生成,仿真引擎以及最小關(guān)閉3種機(jī)制組成。Malle B F提出通過賦予機(jī)器人道德能力來解決倫理問題.包括強(qiáng)化對道德詞匯的監(jiān)測、編寫道德規(guī)范和道德事件評估的程序、建立道德推理和溝通的能力。
4討論
綜前所述,圖情SSCI期刊有關(guān)人工智能倫理問題的研究在研究內(nèi)容的廣泛性、領(lǐng)域的結(jié)合性上主要體現(xiàn)了如下特點(diǎn):
第一,研究內(nèi)容涉及醫(yī)藥衛(wèi)生、文化教育、軍事、政治等多個領(lǐng)域,較為全面地涵蓋了從數(shù)據(jù)、算法到人工智能系統(tǒng)的不同層次.并以人工智能系統(tǒng)層面的問題研究數(shù)量最多。
數(shù)據(jù)層面研究主要圍繞數(shù)據(jù)生命周期,探討采集、加工、組織、共享等過程中的隱私侵犯隱患和風(fēng)險(xiǎn)。如數(shù)據(jù)采集、傳播時采集原則解釋說明缺失或者不充分、數(shù)據(jù)標(biāo)注的不當(dāng)都可能帶來侵犯數(shù)據(jù)采集對象的隱私.給相關(guān)社會實(shí)體帶來傷害,引發(fā)社會倫理問題。此外,數(shù)據(jù)的二次使用或再利用也會加大數(shù)據(jù)知情同意的實(shí)施和數(shù)據(jù)保護(hù)的困難而引發(fā)倫理問題。
算法層面的研究結(jié)合算法的特性,探討人工智能算法在具體應(yīng)用中引發(fā)的歧視、偏見、影響人類自主權(quán)等問題。過度依賴人工智能算法結(jié)果會影響人的自主選擇。同時,根據(jù)算法的統(tǒng)計(jì)結(jié)果進(jìn)行決策可能導(dǎo)致某些歧視性的決定,從而延續(xù)甚至加深人類社會的偏見。如地區(qū)經(jīng)濟(jì)水平的識別、信用資質(zhì)的評估、就業(yè)機(jī)會的分配等。
人工智能系統(tǒng)層面主要從智能系統(tǒng)對人的尊嚴(yán)和權(quán)利,以及社會關(guān)系的影響角度進(jìn)行分析。例如探討人工智能系統(tǒng)與人類形成的社會關(guān)系對人類社會的影響、在醫(yī)藥衛(wèi)生行業(yè)對護(hù)理治療對象的心理和精神的影響以及自動駕駛汽車、自主軍事武器等代替人類進(jìn)行決策對于人類生命和社會秩序的影響等。因?yàn)檫@些問題的存在,研究者們也對機(jī)器倫理道德的設(shè)計(jì)方面進(jìn)行了探討,以及對智能機(jī)器的道德地位進(jìn)行討論.分析人工智能體是否享有道德權(quán)利或承擔(dān)道德責(zé)任等問題。
第二,研究視角覆蓋人本主義觀和技術(shù)主義觀,包括積極倫理和消極倫理兩類觀點(diǎn)傾向。消極倫理觀點(diǎn)更多考慮到人工智能技術(shù)帶來的倫理危機(jī),希望通過規(guī)則的制定讓問題回歸傳統(tǒng)倫理規(guī)范。積極倫理觀點(diǎn)則更多關(guān)注人工智能技術(shù)帶來的促進(jìn)與機(jī)遇。
在人本主義觀視角下,以人與人類社會為中心,探討人工智能技術(shù)的應(yīng)用對社會中的個體以及整體產(chǎn)生的倫理影響。研究中探討較多的是人的隱私、平等、自主、自由、尊嚴(yán)等以及社會的歷史文化和社會聯(lián)系。如具有歷史和文化敏感性的數(shù)據(jù)組織不當(dāng)可能對社會的歷史文化帶來沖擊.影響到個人或群體的尊嚴(yán)。推薦系統(tǒng)對特定人種的傾向可能導(dǎo)致偏見、不平等。而醫(yī)療護(hù)理、娛樂陪伴等應(yīng)用中智能機(jī)器人對人際社會關(guān)系的影響也會對人們的心理和精神層面產(chǎn)生影響。
在技術(shù)主義觀視角下,以數(shù)據(jù)、算法和智能體為中心,更多從數(shù)據(jù)化、算法和智能系統(tǒng)的應(yīng)用出發(fā),考慮數(shù)據(jù)化的重要性、算法的公平性,尤其是智能體的道德地位。如Miao z通過文獻(xiàn)調(diào)研討論人工智能技術(shù)應(yīng)用中的人權(quán)倫理困境。又如,從機(jī)器人角度,探討機(jī)器的社會道德地位和機(jī)器人是否成為道德主體、擁有道德權(quán)利、承擔(dān)道德責(zé)任等問題。對于機(jī)器道德地位問題的探討主要是運(yùn)用對比分析的方法,將智能機(jī)器與人或動物等社會實(shí)體進(jìn)行比較分析,基于哲學(xué)思維或理論進(jìn)行分析討論。在道德地位問題上,Johnson D G等認(rèn)為,動物和機(jī)器人的區(qū)別在于對痛苦的感受差異,對機(jī)器道德地位問題的討論會細(xì)化出對機(jī)器享有道德權(quán)利和承擔(dān)道德責(zé)任等問題的探究.但目前的觀點(diǎn)和看法尚未取得一致。
由上述分析可見.圖情SSCI期刊論文探討的問題與國內(nèi)外人工智能倫理研究有著較高的一致性,人工智能算法與數(shù)據(jù)倫理控制、人工智能體設(shè)計(jì)、人工智能道德代理等均是整個領(lǐng)域關(guān)注的議題。尤其在機(jī)器人倫理方面,關(guān)于幼兒、老人看護(hù)機(jī)器人的倫理研究,機(jī)器人護(hù)理與受護(hù)理者尊嚴(yán)的倫理研究,戰(zhàn)爭機(jī)器人行為的倫理研究等也都在圖情SSCI期刊中有所體現(xiàn)。從研究機(jī)構(gòu)來看,研究者來自計(jì)算機(jī)科學(xué)、信息系統(tǒng)、信息技術(shù)、哲學(xué)、心理學(xué)、圖書情報(bào)、語言學(xué)等諸多學(xué)科。可見,人工智能倫理問題是一個與多學(xué)科交織的問題領(lǐng)域。對于圖書情報(bào)領(lǐng)域而言,信息倫理、用戶隱私保護(hù)、數(shù)據(jù)與信息安全一直是關(guān)注的研究問題,順應(yīng)人工智能時代發(fā)展的背景,有必要在倫理研究方面有所加強(qiáng),推動健全圖情學(xué)科在交叉學(xué)科問題上的研究方法體系建立,促進(jìn)信息管理技術(shù)在同步發(fā)展的倫理研究中健康發(fā)展.如下問題值得進(jìn)一步研究:
一方面,加強(qiáng)對不同層次與應(yīng)用領(lǐng)域問題的涉入和研究。結(jié)合信息生命周期管理階段(如信息創(chuàng)建、信息采集、信息組織、信息存儲、信息利用和信息清理),從人工智能技術(shù)相關(guān)的數(shù)據(jù)、算法和人工智能系統(tǒng)3個方面進(jìn)一步加強(qiáng)相關(guān)研究的開展。例如,在數(shù)據(jù)層面,加強(qiáng)在移動互聯(lián)網(wǎng)應(yīng)用、社交媒體、公共信息資源管理等情境下,對數(shù)據(jù)采集方式、用途、規(guī)范使用、隱私保護(hù)的研究。在算法層面,加大對各類網(wǎng)絡(luò)搜索、推薦等系統(tǒng)中的偏見問題研究。在人工智能系統(tǒng)層面,加強(qiáng)對豐富應(yīng)用場景下的探討,如圖書館中的智能咨詢服務(wù)機(jī)器人、盤點(diǎn)機(jī)器人、閱讀機(jī)器人等在應(yīng)用中的倫理風(fēng)險(xiǎn),對現(xiàn)實(shí)從業(yè)人員的沖擊以及應(yīng)對等問題。人工智能技術(shù)在圖情服務(wù)的應(yīng)用場景多樣,人工智能技術(shù)與知識服務(wù)基礎(chǔ)設(shè)施建設(shè)、智能知識化服務(wù)創(chuàng)新等方面的融合中都會涉及到不同層次的倫理問題研究,都值得從研究脈絡(luò)溯源、倫理風(fēng)險(xiǎn)識別與應(yīng)對、智能道德代理、用戶對智慧應(yīng)用態(tài)度等角度進(jìn)行深入研究。
另一方面,加強(qiáng)對人工智能倫理倡導(dǎo)的規(guī)范與準(zhǔn)則研究。在人工智能技術(shù)應(yīng)用過程中,最大限度降低倫理風(fēng)險(xiǎn)與追求技術(shù)優(yōu)勢這兩個目標(biāo)可能存在的沖突,需要結(jié)合特定的應(yīng)用情境,分析不同倫理因素之間的關(guān)系,進(jìn)行綜合的分析和權(quán)衡。因此,未來研究需要進(jìn)一步探索人工智能技術(shù)在具體應(yīng)用中的倫理規(guī)范,豐富和完善人工智能倫理準(zhǔn)則。目前.諸多國家都從政府層面對人工智能實(shí)踐發(fā)展提供了政策支持與推動,在我國,黨中央、國務(wù)院在人工智能發(fā)展規(guī)劃中都曾專門提及倫理問題研究。相比英、美、日等國,我國在倫理規(guī)范與制度建設(shè)方面還有待進(jìn)一步深化。因此,進(jìn)一步加強(qiáng)對各國政府、國際組織,以及相關(guān)行業(yè)協(xié)會的人工智能倫理倡議、原則的研究,結(jié)合我國的應(yīng)用實(shí)踐狀況,探索從數(shù)據(jù)、算法、智能系統(tǒng)等微觀層面,到人工智能產(chǎn)業(yè)、人類社會秩序的宏觀層面的人工智能倫理規(guī)范與準(zhǔn)則的研制與貫徹,促進(jìn)我國人工智能技術(shù)在倫理規(guī)范指引下的健康發(fā)展,提升在推動全球社會秩序穩(wěn)定中的地位和作用。
5結(jié)語
本研究運(yùn)用內(nèi)容分析法對WOS圖書情報(bào)學(xué)科類目的文獻(xiàn)進(jìn)行分析,探討人工智能倫理問題的研究現(xiàn)狀,結(jié)果表明,圖情學(xué)科SSCI期刊的論文從數(shù)據(jù)、算法以及人工智能系統(tǒng)等多個層面,結(jié)合政治法律、軍事、經(jīng)濟(jì)、文化科學(xué)、醫(yī)藥衛(wèi)生、交通運(yùn)輸?shù)葢?yīng)用領(lǐng)域,進(jìn)行了一系列的研究,探討人工智能技術(shù)對個體以及人類社會的影響;并且,從人本主義觀點(diǎn)和技術(shù)主義觀點(diǎn)角度進(jìn)行了共同的探討,從社會方法和技術(shù)方法角度提出了應(yīng)對的策略。在此基礎(chǔ)上展望了圖情領(lǐng)域的未來研究問題。
本研究的不足主要包括.盡管調(diào)查的文獻(xiàn)來自圖情學(xué)科SSCI期刊論文,這些文獻(xiàn)只能有限地反映圖情學(xué)科對人工智能倫理問題的研究狀況.還需要結(jié)合學(xué)者發(fā)文角度,以及人工智能技術(shù)應(yīng)用的實(shí)踐角度進(jìn)行綜合分析。同時,加強(qiáng)與相關(guān)學(xué)科人工智能倫理問題研究的比較,進(jìn)一步結(jié)合圖情領(lǐng)域的典型應(yīng)用與服務(wù)場景,分析人工智能技術(shù)的應(yīng)用現(xiàn)狀、發(fā)展趨勢,以及伴生的倫理風(fēng)險(xiǎn)與應(yīng)對,與相關(guān)學(xué)科一同促進(jìn)人工智能技術(shù)整體的健康發(fā)展。