沈?yàn)t雯 夏計(jì)軍 胡家琪
摘要:人工智能的廣泛普及給人類生產(chǎn)生活帶來(lái)了極大便利,同時(shí)帶來(lái)一系列倫理問(wèn)題,引起了廣泛的思考和討論。文章在闡釋當(dāng)前人工智能倫理風(fēng)險(xiǎn)的基礎(chǔ)上,分析了國(guó)內(nèi)外對(duì)人工智能倫理設(shè)置原則、倫理治理理念、倫理治理規(guī)范的一些共識(shí),提出優(yōu)化底層技術(shù)、培養(yǎng)公眾倫理意識(shí)、完善倫理規(guī)范和行為準(zhǔn)則、加強(qiáng)倫理法律監(jiān)管和政府管理、推動(dòng)國(guó)際合作等多維度對(duì)策建議,為我國(guó)人工智能產(chǎn)業(yè)高質(zhì)量發(fā)展創(chuàng)造良好條件。
關(guān)鍵詞:人工智能;倫理挑戰(zhàn);對(duì)策建議
中圖分類號(hào):G253文獻(xiàn)標(biāo)志碼:A
0 引言
人工智能是人類發(fā)展的新領(lǐng)域,帶來(lái)重大機(jī)遇,也伴隨著風(fēng)險(xiǎn)挑戰(zhàn)。習(xí)近平主席在第三屆“一帶一路”國(guó)際合作高峰論壇提出《全球人工智能治理倡議》,為積極踐行人類命運(yùn)共同體理念,落實(shí)全球發(fā)展倡議、全球安全倡議、人工智能治理提供了解決方案。厘清人工智能時(shí)代的倫理困惑并探索相應(yīng)的對(duì)策,推動(dòng)人工智能以負(fù)責(zé)任的方式發(fā)展,同各國(guó)加強(qiáng)交流和對(duì)話,是促進(jìn)全球人工智能健康有序安全發(fā)展的必由之路。
1 人工智能時(shí)代下的倫理挑戰(zhàn)
人工智能的倫理問(wèn)題主要圍繞人類基本人權(quán)、數(shù)據(jù)安全與隱私保護(hù)、權(quán)力與責(zé)任認(rèn)定3個(gè)方面。
1.1 人類基本人權(quán)
一是人工智能系統(tǒng)設(shè)計(jì)的缺陷可能對(duì)公民生命權(quán)和健康權(quán)的潛在威脅。Uber自動(dòng)駕駛汽車致命事故即起因于Uber系統(tǒng)設(shè)計(jì)忽略了對(duì)塑料袋等其他障礙物的識(shí)別,導(dǎo)致未能及時(shí)剎車。二是人工智能算法可能因目標(biāo)論證、算法歧視、數(shù)據(jù)訓(xùn)練等錯(cuò)誤,擴(kuò)大社會(huì)歧視范圍,侵犯公民平等權(quán)利。亞馬遜開發(fā)的人工智能簡(jiǎn)歷篩選系統(tǒng)拒絕了所有女性申請(qǐng)人即反映了性別偏見。三是假新聞自動(dòng)生成、信息精準(zhǔn)推送等技術(shù)的濫用影響了公民的知情權(quán)、正當(dāng)程序權(quán)和監(jiān)督權(quán),將會(huì)影響公眾輿論、干預(yù)市場(chǎng)運(yùn)作和國(guó)家政策制定。英國(guó)Cambridge Analytica咨詢公司通過(guò)Facebook個(gè)人信息分析用戶政治偏好,精準(zhǔn)定向推送信息,影響了美國(guó)大選。四是人工智能發(fā)展可能導(dǎo)致大規(guī)模的結(jié)構(gòu)性失業(yè),富士康啟用智能化生產(chǎn)線后裁減了數(shù)萬(wàn)名員工。
1.2 數(shù)據(jù)安全和信息隱私
人工智能技術(shù)的應(yīng)用使得個(gè)人信息收集的范圍及深度擴(kuò)大,隱私侵犯風(fēng)險(xiǎn)也隨之加大。中國(guó)深網(wǎng)視覺(jué)科技有限公司的人臉數(shù)據(jù)庫(kù)信息泄露事件使數(shù)百萬(wàn)用戶的敏感個(gè)人隱私信息曝光,包括用戶生物識(shí)別、行為習(xí)慣等信息?!暗蔚未蜍嚒痹蚍欠ú杉蟽|條用戶地理位置、通訊錄、通話記錄等信息而受到制裁,侵犯了個(gè)人隱私和國(guó)家安全。
1.3 權(quán)力與責(zé)任認(rèn)定
責(zé)任倫理學(xué)是從倫理學(xué)的角度對(duì)人類社會(huì)責(zé)任進(jìn)行整體研究。傳統(tǒng)的技術(shù)后果責(zé)任制度已經(jīng)無(wú)法應(yīng)對(duì)人工智能技術(shù)發(fā)展應(yīng)用所帶來(lái)的不確定性和負(fù)面結(jié)果[1]。人工智能系統(tǒng)投入使用后出現(xiàn)問(wèn)題的責(zé)任歸屬就是一個(gè)典型的責(zé)任倫理問(wèn)題。需要考慮誰(shuí)應(yīng)該對(duì)人工智能系統(tǒng)的失誤負(fù)責(zé),并對(duì)責(zé)任判斷進(jìn)行深入探究,分析責(zé)任產(chǎn)生的內(nèi)外部因素:外部因素包括政策法規(guī)、技術(shù)環(huán)境等;內(nèi)部因素包括個(gè)人的道德觀念、行為準(zhǔn)則等。
2 人工智能時(shí)代下倫理挑戰(zhàn)的成因
2.1 技術(shù)因素:人工智能技術(shù)發(fā)展局限性
機(jī)器學(xué)習(xí)作為人工智能的核心組成部分,它使計(jì)算機(jī)系統(tǒng)能夠通過(guò)數(shù)據(jù)和經(jīng)驗(yàn)來(lái)不斷改進(jìn)自身性能,但其本身存在漏洞,如訓(xùn)練數(shù)據(jù)真?zhèn)魏推?、AI算法黑匣子等,可能引發(fā)定向歧視。在處理環(huán)節(jié),人工智能程序按照設(shè)定程序?qū)斎氲男畔⑦M(jìn)行分析學(xué)習(xí)并輸出結(jié)果,按照結(jié)果指令進(jìn)行動(dòng)作,在這個(gè)過(guò)程中,算法黑匣子缺乏可解釋性可能會(huì)導(dǎo)致信任問(wèn)題。在輸出環(huán)節(jié),AI算法結(jié)果有不確定和不可控性。
2.2 人為因素:人類主體責(zé)任意識(shí)淡薄
人工智能訓(xùn)練數(shù)據(jù)集一旦存在偏見,會(huì)在現(xiàn)實(shí)中持續(xù)表現(xiàn)偏見,因此,在沒(méi)有偏見的情況下對(duì)人工智能進(jìn)行訓(xùn)練和編程至關(guān)重要。實(shí)際上人類訓(xùn)練機(jī)器遵守道德規(guī)范仍未有統(tǒng)一的標(biāo)準(zhǔn),因此,應(yīng)當(dāng)盡快制定被廣泛認(rèn)可的人工智能和智能機(jī)器道德標(biāo)準(zhǔn)。
2.3 環(huán)境因素:人工智能監(jiān)管規(guī)則滯后
人工智能作為一項(xiàng)新興技術(shù)尚缺乏法律制度的全面約束,只能通過(guò)輿論和技術(shù)手段來(lái)制約。制定人工智能的法律法規(guī)不僅涉及數(shù)據(jù)、算法、基礎(chǔ)設(shè)施和人類,還涉及人工智能的總體治理、技術(shù)的整體管理及其他因素。迄今為止,在面對(duì)人工智能的自主智能系統(tǒng)治理、責(zé)任和問(wèn)責(zé)以及隱私安全3個(gè)方面的監(jiān)管治理仍未達(dá)成共識(shí)。
自主智能系統(tǒng)的治理,強(qiáng)調(diào)的是對(duì)人工智能和算法的理解與控制,確保其決策與行動(dòng)的合理性和有效性。設(shè)計(jì)和建立一個(gè)既兼顧全球性又擁有靈活性的人工智能治理體系,需要滿足人工智能領(lǐng)域的多元需求,還要充分考慮全球各地文化多樣性和不同國(guó)家的法律體系。
責(zé)任和問(wèn)責(zé)治理指的是界定誰(shuí)對(duì)人工智能的決策負(fù)責(zé)并承擔(dān)責(zé)任。一方面,由于人工智能系統(tǒng)在運(yùn)行過(guò)程中進(jìn)行學(xué)習(xí)并具備自主行動(dòng)的能力,因此,其開發(fā)、操作人員可能無(wú)法準(zhǔn)確控制或預(yù)測(cè)其后續(xù)行為,從而導(dǎo)致責(zé)任差距,無(wú)法承擔(dān)相應(yīng)的責(zé)任。另一方面,有學(xué)者認(rèn)為人類要對(duì)所有與技術(shù)相關(guān)的后果負(fù)責(zé)。
隱私安全的治理是指在人工智能背景下保護(hù)人類隱私、保護(hù)數(shù)據(jù)和人工智能相關(guān)網(wǎng)絡(luò)資源免受安全威脅。這意味著來(lái)自個(gè)人的數(shù)據(jù)必須在征得個(gè)人同意并遵守各自法律的情況下收集和處理。一方面,人工智能系統(tǒng)需要包含復(fù)雜的網(wǎng)絡(luò)安全預(yù)防措施,以確保數(shù)據(jù)安全和隱私。另一方面,立法和政策制定需要適應(yīng)人工智能帶來(lái)的新發(fā)展,包括處理不同司法管轄區(qū)在隱私標(biāo)準(zhǔn)等方面存在的差異。
3 人工智能時(shí)代下倫理治理的全球?qū)嵺`探索
3.1 人工智能倫理設(shè)置原則
歐美地區(qū)正積極推動(dòng)人工智能技術(shù)和產(chǎn)業(yè)的發(fā)展,同時(shí)高度重視人工智能技術(shù)發(fā)展的安全與健康?,F(xiàn)今廣為認(rèn)可的AI倫理原則有5項(xiàng):行善(Beneficence)、不傷害(Non-maleficence)、自治(Autonomy)、正義(Justice)以及算法可解釋性(Explacability)。其中,前4項(xiàng)由傳統(tǒng)的生物倫理原則沿用而來(lái),最后一項(xiàng)則是針對(duì)人工智能算法提出的新原則。隨后又在這5項(xiàng)總體AI核心原則基礎(chǔ)上衍生出增進(jìn)人類福祉(Well-being)、隱私(Privacy)、自主控制權(quán)(Autonomy)、不歧視與不偏見(Non-bias/Non-discrimination)、透明性(Transparency)等更多細(xì)化的分支。歐盟作為人工智能立法的先驅(qū),2019年發(fā)布《可信AI倫理指南》,提出可信賴AI需滿足3個(gè)基本條件:合法(Lawful)、倫理(Ethical)、穩(wěn)健(Robust)。對(duì)于AI從業(yè)者,提出了4項(xiàng)道德原則,確保AI從業(yè)者以值得信賴的方式開發(fā)、部署和使用人工智能系統(tǒng):尊重人的自主性(Respect for Human Autonomy)、預(yù)防傷害(Prevention of Harm)、公平性(Fairness)、可解釋性(Explicability)。我國(guó)2019年發(fā)布的《新一代人工智能治理原則》,強(qiáng)調(diào)了和諧友好、公平公正、包容共享等8條原則。2023年發(fā)布的《全球人工智能治理倡議》圍繞人工智能發(fā)展、安全、治理3方面系統(tǒng)闡述了人工智能治理中國(guó)方案,提出11項(xiàng)倡議,包括堅(jiān)持“以人為本”、堅(jiān)持公平性和非歧視性等原則。
3.2 人工智能倫理治理理念
人工智能治理在學(xué)術(shù)界有兩種理論,即“對(duì)立論”和“系統(tǒng)論”[2]。“對(duì)立論”即關(guān)注人工智能技術(shù)與人權(quán)、福利之間的沖突,因此,需要制定相應(yīng)的審查和監(jiān)管機(jī)制來(lái)應(yīng)對(duì)這種沖突。歐盟發(fā)布的《可信AI倫理指南》是“對(duì)立論”的體現(xiàn),要求人工智能系統(tǒng)在其整個(gè)生命周期中必須遵循合法性、倫理規(guī)范以及穩(wěn)健性原則。“系統(tǒng)論”強(qiáng)調(diào)人工智能技術(shù)與人類、其他人工智能體、法律、非智能基礎(chǔ)設(shè)施和社會(huì)規(guī)范之間的相互協(xié)調(diào)。我國(guó)2019年發(fā)布的《新一代人工智能治理原則》,提出“支持弱勢(shì)群體適應(yīng)”“國(guó)際組織、政府機(jī)構(gòu)、研究機(jī)構(gòu)之間的協(xié)調(diào)互動(dòng)”等治理原則,體現(xiàn)了“系統(tǒng)論”和多元治理理念。
3.3 人工智能倫理治理規(guī)范
據(jù)不完全統(tǒng)計(jì),目前多個(gè)國(guó)家、地區(qū)、組織和企業(yè)已發(fā)布人工智能道德規(guī)范超過(guò)40部,已逐漸形成了一些共識(shí)。美國(guó)出臺(tái)了《國(guó)家人工智能研究與發(fā)展戰(zhàn)略計(jì)劃》《人工智能準(zhǔn)則:美國(guó)國(guó)防部人工智能倫理使用推薦性規(guī)范》《國(guó)家人工智能研發(fā)戰(zhàn)略計(jì)劃》等規(guī)范,提出倫理治理原則及人工智能倫理戰(zhàn)略部署。歐盟出臺(tái)了《可信AI倫理指南》《人工智能、機(jī)器人和相關(guān)技術(shù)的倫理框架》《人工智能立法提案》等規(guī)范,促進(jìn)可信人工智能系統(tǒng)的發(fā)展。
4 人工智能時(shí)代下倫理治理的對(duì)策思考
4.1 優(yōu)化技術(shù)降低人工智能倫理風(fēng)險(xiǎn)
應(yīng)進(jìn)一步激勵(lì)技術(shù)創(chuàng)新,加強(qiáng)對(duì)人工智能應(yīng)用于不同領(lǐng)域的倫理治理模型結(jié)構(gòu)的開發(fā),著力在一些關(guān)鍵領(lǐng)域?qū)崿F(xiàn)技術(shù)性突破。探索人工智能倫理計(jì)算的定量化研究,研究降低倫理風(fēng)險(xiǎn)的可行性技術(shù)。從產(chǎn)品設(shè)計(jì)、技術(shù)研發(fā)和技術(shù)責(zé)任體系等各階段對(duì)人工智能技術(shù)運(yùn)用可能存在的倫理風(fēng)險(xiǎn)進(jìn)行內(nèi)在維度的判斷,從源頭阻斷倫理風(fēng)險(xiǎn)。
4.2 加大教育宣傳力度培養(yǎng)公眾倫理意識(shí)
根據(jù)《人工智能北京共識(shí)》和聯(lián)合國(guó)《教育中的人工智能:可持續(xù)發(fā)展的機(jī)遇和挑戰(zhàn)》,教育對(duì)人工智能倫理風(fēng)險(xiǎn)治理具有不可或缺的作用。要不斷完善青少年相關(guān)教育體系,為社會(huì)勞動(dòng)者持續(xù)提供終身教育,加強(qiáng)科技工作者的倫理道德教育和職業(yè)培訓(xùn)。增強(qiáng)公眾對(duì)人工智能技術(shù)的了解,激發(fā)和培養(yǎng)公眾的倫理意識(shí)。
4.3 完善人工智能倫理規(guī)范和行為準(zhǔn)則
構(gòu)建人工智能倫理規(guī)范、制定行為準(zhǔn)則是解決倫理問(wèn)題的重要基礎(chǔ)。中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院牽頭編制的《人工智能倫理治理標(biāo)準(zhǔn)化指南》,將倫理規(guī)范與行為準(zhǔn)則融入人工智能“政產(chǎn)學(xué)研用”全生命周期。在人工智能重點(diǎn)領(lǐng)域的開發(fā)設(shè)計(jì)階段形成詳細(xì)的、具體的倫理規(guī)范,設(shè)置好開發(fā)的倫理底線,減少技術(shù)異化的負(fù)面影響。規(guī)范人工智能產(chǎn)品應(yīng)用階段的行為,鼓勵(lì)制定人工智能在各領(lǐng)域的具體應(yīng)用規(guī)范,提高各類使用者對(duì)人工智能產(chǎn)品的責(zé)任感。應(yīng)鼓勵(lì)企業(yè)結(jié)合實(shí)際形成各自的標(biāo)準(zhǔn),積極參與國(guó)際標(biāo)準(zhǔn)制定。
4.4 加強(qiáng)人工智能倫理法律監(jiān)管和政府管理
法律手段是規(guī)避人工智能倫理的基礎(chǔ)手段,逐步實(shí)現(xiàn)法律體系與人工智能技術(shù)的有機(jī)結(jié)合,建立全周期、全流程、全覆蓋的管理規(guī)范、研發(fā)規(guī)范、使用規(guī)范是人工智能倫理風(fēng)險(xiǎn)治理的當(dāng)務(wù)之急。應(yīng)強(qiáng)化協(xié)同治理,加強(qiáng)場(chǎng)景區(qū)分,推動(dòng)醫(yī)療衛(wèi)生、自動(dòng)駕駛等重點(diǎn)領(lǐng)域監(jiān)管規(guī)則制定,并逐步在其他行業(yè)形成算法技術(shù)規(guī)范。鼓勵(lì)人工智能相關(guān)產(chǎn)業(yè)及時(shí)向政府反饋產(chǎn)業(yè)的最新技術(shù)發(fā)展動(dòng)態(tài),為監(jiān)管提供決策依據(jù)。
4.5 推動(dòng)人工智能倫理治理的國(guó)際合作
人類社會(huì)已進(jìn)入智能時(shí)代,人工智能倫理治理已形成國(guó)際共識(shí)。2023年,聯(lián)合國(guó)教科文組織和歐盟簽署了加快實(shí)施人工智能倫理細(xì)則的協(xié)議,希望通過(guò)立法等方式加強(qiáng)人工智能倫理治理;同年,我國(guó)《全球人工智能治理倡議》重申各國(guó)應(yīng)在人工智能治理中加強(qiáng)信息交流和技術(shù)合作,形成具有廣泛共識(shí)的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范,鼓勵(lì)各國(guó)政府、國(guó)際組織、企業(yè)、科研院校、民間機(jī)構(gòu)和公民個(gè)人等各主體秉持共商共建共享的理念,協(xié)力共同促進(jìn)人工智能治理[3]。
5 結(jié)語(yǔ)
人工智能的發(fā)展帶來(lái)了許多機(jī)遇,也伴隨著一些挑戰(zhàn)。應(yīng)對(duì)這些挑戰(zhàn)需要進(jìn)一步優(yōu)化技術(shù)降低人工智能倫理風(fēng)險(xiǎn),加大教育宣傳力度培養(yǎng)公眾倫理意識(shí),完善人工智能倫理規(guī)范和行為準(zhǔn)則,加強(qiáng)法律監(jiān)管和政府管理,推動(dòng)倫理治理的國(guó)際合作。
參考文獻(xiàn)
[1]鄧若玉.人工智能發(fā)展的科技倫理反思[J].廣西社會(huì)科學(xué),2020(10):93-97.
[2]張兆翔,張吉豫,譚鐵牛.人工智能倫理問(wèn)題的現(xiàn)狀分析與對(duì)策[J].中國(guó)科學(xué)院院刊,2021(11):1270-1277.
[3]外交部.外交部發(fā)言人就《全球人工智能治理倡議》答記者問(wèn)[N].人民日?qǐng)?bào),2023-10-19(11).
(編輯 何 琳編輯)
Research on ethical challenges and countermeasures in the era of artificial intelligence
Shen? Xiaowen, Xia? Jijun*, Hu? Jiaqi
(Wuxi S&T Innovation Service Center, Wuxi 214000, China)
Abstract: ?The widespread use of AI has brought great convenience to human life and production, and also brought a series of ethical challenges. On the basis of explaining the current ethical risks of AI, the text analyzes the current consensus on principles of AI ethical setting, ethical governance,and ethical governance norms, and provides countermeasures and suggestions such as optimizing technology, cultivating public awareness, improving ethical norms and codes of conduct, strengthening ethical legal supervision, and promoting international cooperation.These suggestions will create good conditions for the high-quality development of AI industry.
Key words: artificial intelligence; ethical challenge; countermeasure and suggestion
基金項(xiàng)目:無(wú)錫市法學(xué)會(huì)2023年研究課題;項(xiàng)目名稱:人工智能時(shí)代的倫理挑戰(zhàn)與對(duì)策研究;項(xiàng)目編號(hào):WFH2023B20。江蘇省科技廳2023年創(chuàng)新支撐計(jì)劃軟科學(xué)研究;項(xiàng)目名稱:“一帶一路”倡議下國(guó)際科技創(chuàng)新合作模式對(duì)比研究——以江蘇和廣東為例;項(xiàng)目編號(hào):BR2023022-2。
作者簡(jiǎn)介:沈?yàn)t雯(1983—),女,副高級(jí)工程師,碩士;研究方向:政策研究,創(chuàng)新理論。
*通信作者:夏計(jì)軍(1978— ),男,工程師,碩士;研究方向:情報(bào)分析,項(xiàng)目管理。