蔣潔
摘要:迅速迭代的人工智能技術(shù)與滯后的法律規(guī)范之間的矛盾沖突導(dǎo)致人工智能開發(fā)活動在制度層面產(chǎn)生巨大的規(guī)制窠臼。面對開發(fā)企業(yè)將道德和法律嵌入代碼系統(tǒng)的過程中充斥的背離數(shù)據(jù)保護(hù)原則、沖擊個人尊嚴(yán)、破壞民主誠信、削弱社會公允等現(xiàn)實風(fēng)險,亟待從企業(yè)社會責(zé)任的內(nèi)在邏輯入手,在借鑒相關(guān)國際經(jīng)驗的基礎(chǔ)上,勾勒我國人工智能開發(fā)企業(yè)社會責(zé)任法律規(guī)制的具體方案,推動智能產(chǎn)品和服務(wù)開發(fā)遵循造福人類的可持續(xù)發(fā)展模式。
關(guān)鍵詞:人工智能;開發(fā)企業(yè);社會責(zé)任;法律規(guī)制
中圖分類號:D9 ? 文獻(xiàn)標(biāo)志碼:A?文章編號:1004-3160(2019)02-0028-09
一、引言
從希臘神話中的機(jī)械巨人塔羅斯(Talos)到自主越障的波士頓動力機(jī)器人阿特拉斯(Altlas),從三國蜀地棧道運(yùn)糧的木牛流馬到百度公司投放雄安新區(qū)的自動駕駛小巴車阿波龍,人類矢志不渝地創(chuàng)建模擬、深化和拓展類己思維過程和智能行為的復(fù)雜裝置。時至今日,全景數(shù)據(jù)思維下超級計算集成的龐雜人工智能譜系已經(jīng)將技術(shù)開發(fā)的多元觸角滲透到重塑生產(chǎn)結(jié)構(gòu)和生活方式的各個領(lǐng)域,在第四次工業(yè)革命中展現(xiàn)出妥善解決重大疑難問題的綜合實力,卻也逐漸暴露出違規(guī)捕獲和流轉(zhuǎn)數(shù)據(jù)資源、操縱人類情感、漏傳誤報信息、加劇偏見歧視、扭曲資源分配等嚴(yán)重問題。
一些國家和地區(qū)相繼將“即將成為世界新秩序”[1]的人工智能寫入宏觀發(fā)展戰(zhàn)略,卻未能深思高度契合社會發(fā)展需要的人工智能產(chǎn)品的應(yīng)有類型和具體特征,亦缺乏深入探究新技術(shù)開發(fā)對人類生存權(quán)和發(fā)展權(quán)的實際影響。各國現(xiàn)行的法律法規(guī)不足以應(yīng)對人工智能開發(fā)在數(shù)據(jù)采集、供應(yīng)鏈管理、算法結(jié)構(gòu)設(shè)計和模型結(jié)果驗證中的巨大社會風(fēng)險。國際組織、各國政府、專家學(xué)者和企業(yè)巨頭各自搭建的人工智能倫理框架與審查機(jī)制,也未能有效威懾和制止人工智能開發(fā)中阻礙社會發(fā)展的不當(dāng)行為。此外,持續(xù)創(chuàng)新的技術(shù)修復(fù)工具沒有從根本上緩解某些人工智能產(chǎn)品侵害基本人權(quán)、破壞公共秩序、威脅國家安全、不利生態(tài)環(huán)境等弊端。
因此亟待明確人工智能開發(fā)企業(yè)社會責(zé)任的具體內(nèi)容并構(gòu)建科學(xué)合理的法律規(guī)制體系,迫使參與開發(fā)的企業(yè)、編寫算法并優(yōu)化特征權(quán)重的工程師、從事原始數(shù)據(jù)標(biāo)注的海量礦工等積極改善自身行為,逐步營建公平、透明、可持續(xù)和有益人類發(fā)展的人工智能開發(fā)場景。
二、人工智能開發(fā)的社會價值
(一)人工智能開發(fā)的內(nèi)涵
“人工智能開發(fā)”(Artificial Intelligence Development)迄今沒有公認(rèn)的嚴(yán)格定義。界定這一概念的內(nèi)涵應(yīng)當(dāng)從相對成熟的“人工智能”(Artificial Intelligence)和“軟件開發(fā)”(Software Development)的概念解讀入手?!叭斯ぶ悄堋笔窃谌诤嫌嬎銠C(jī)科學(xué)、統(tǒng)計學(xué)、腦神經(jīng)學(xué)和社會科學(xué)的前沿認(rèn)知理解人類智能活動規(guī)律的基礎(chǔ)上創(chuàng)建讓計算機(jī)去完成以往需要人的智力才能勝任的工作的人工系統(tǒng)①?!败浖_發(fā)”則是創(chuàng)建和維護(hù)應(yīng)用程序、架構(gòu)及其他組件的設(shè)計、編程、存檔、測試和漏洞修復(fù)的過程[2]。因之,能夠概括人工智能開發(fā)活動本質(zhì)特性的內(nèi)涵描述是按照需求打造的應(yīng)用計算機(jī)軟硬件模擬人類某些智能行為的系統(tǒng)工程。
(二)人工智能開發(fā)的外延
人工智能開發(fā)全生命周期的標(biāo)準(zhǔn)過程包括確定開發(fā)目標(biāo)和總體要求并進(jìn)行可行性分析的計劃階段,編制開發(fā)項目的需求說明書、數(shù)據(jù)要求說明書并草擬用戶手冊階段,詳細(xì)說明開發(fā)項目的整體設(shè)計與下轄子系統(tǒng)各個層次中每個程序設(shè)計、具體規(guī)定數(shù)據(jù)庫中所有標(biāo)識、邏輯結(jié)構(gòu)和物理結(jié)果設(shè)計以及測試活動設(shè)計階段,訓(xùn)練作業(yè)、算法編制和模型開發(fā)階段,項目測試、運(yùn)行和維護(hù)階段等等。
(三)人工智能開發(fā)的價值
長期以來,社會生產(chǎn)、分配、交換、消費(fèi)的整個流程充斥著人力資源和物力資源浪費(fèi)現(xiàn)象。日漸優(yōu)化的信息交互背景下集成大數(shù)據(jù)、物聯(lián)網(wǎng)、云平臺、機(jī)器學(xué)習(xí)等的人工智能開發(fā)活動全面滲透到政治軍事、生產(chǎn)制造、環(huán)保健康、金融保險、教育醫(yī)療、文化娛樂等各個領(lǐng)域,基于海量數(shù)據(jù)分析精準(zhǔn)評估和預(yù)測復(fù)雜多樣的人類行為,通過自主學(xué)習(xí)的機(jī)器成果和科學(xué)合理的決策引領(lǐng)大幅提升行為效率,緩解勞動力萎縮、人口老齡化和性別失衡的壓力,降低精準(zhǔn)處理產(chǎn)品和服務(wù)的成本,滿足千禧一代越來越高的產(chǎn)品需求和服務(wù)期待,積極豐富稀缺物事,降低處境困難的消費(fèi)群體的生存負(fù)擔(dān),加速國際溝通和全球化進(jìn)程,改善生態(tài)環(huán)境和居民健康狀況,推動個性化自我的自由再生,逐漸成為維護(hù)國家安全、保障社會福利、提升生產(chǎn)效率、改善居民生活的支撐力量。
三、人工智能開發(fā)的現(xiàn)實風(fēng)險
全球遍地開花的人工智能開發(fā)設(shè)計中存在著侵害平等權(quán)、自主權(quán)、數(shù)據(jù)產(chǎn)權(quán)、用戶控制權(quán)和其他社會經(jīng)濟(jì)權(quán)益的產(chǎn)品需求;項目推進(jìn)中容易發(fā)生個性化畫像不當(dāng)收集用戶信息、數(shù)據(jù)錯誤標(biāo)注影響系統(tǒng)輸出結(jié)果、算法精準(zhǔn)分發(fā)引起信息繭房效應(yīng)、算法型內(nèi)容生產(chǎn)和龐雜的后續(xù)結(jié)構(gòu)部署導(dǎo)致誤差疏漏等不利后果,嚴(yán)重威脅個人尊嚴(yán)、民主誠信、社會公允和數(shù)據(jù)商品化進(jìn)程。
(一)背離數(shù)據(jù)保護(hù)原則
人工智能開發(fā)活動以海量數(shù)據(jù)為核心燃料。迭代更新的智能硬件、龐雜零碎的數(shù)據(jù)供應(yīng)鏈和缺乏監(jiān)督的孤島式算法結(jié)構(gòu)具有突出的數(shù)據(jù)記錄、存儲和分析能力,追求利潤最大化的經(jīng)營主旨進(jìn)一步加大了保護(hù)數(shù)據(jù)權(quán)益的成本和難度。通過掃描大規(guī)模數(shù)據(jù)集尋找合適的算法模型,容易背離當(dāng)前數(shù)據(jù)保護(hù)法律規(guī)范調(diào)控數(shù)據(jù)收集和處理的有限使用原則;應(yīng)用面部識別技術(shù)的邊境管制可能違反了數(shù)據(jù)最小化原則,而應(yīng)用自然語言處理技術(shù)的文檔優(yōu)化可能則違反了數(shù)據(jù)使用的目的限制原則等等①。
(二)沖擊個人尊嚴(yán)
人工智能開發(fā)過程中,客觀中立的大規(guī)模原始數(shù)據(jù)文件需要經(jīng)過數(shù)據(jù)標(biāo)注者的主觀選擇,而當(dāng)前標(biāo)注從業(yè)者的知識水平參差不齊且很大比例是未簽訂勞動合同的兼職人員,認(rèn)知能力限制或工作態(tài)度引發(fā)層出不窮的數(shù)據(jù)錯標(biāo)和漏標(biāo)事件,致使開發(fā)系統(tǒng)最初輸入的數(shù)據(jù)集存在不可逆的偏差。同時,開發(fā)人員在算法結(jié)構(gòu)設(shè)計、測試、使用和維護(hù)中的價值判斷和工具選擇亦受到自身認(rèn)知能力或主觀故意的影響(如偽造數(shù)據(jù)并“塑造”符合預(yù)設(shè)理想結(jié)果的復(fù)雜模型),造成機(jī)器學(xué)習(xí)的深度數(shù)據(jù)選擇和關(guān)聯(lián)強(qiáng)度判斷潛藏著決策偏見和邏輯錯誤。此外,全景數(shù)據(jù)思維驅(qū)使下悄然興起了將個人視為數(shù)據(jù)對待的風(fēng)氣。這一切嚴(yán)重沖擊與主體人格不可分割且不容侵犯的個人尊嚴(yán),加劇社會互信危機(jī)。例如,國際商業(yè)機(jī)器公司(IBM)與美國紐約警察局秘密合作開發(fā)可基于膚色、發(fā)色、性別等保護(hù)性特征搜索對象的智能識別系統(tǒng)時未經(jīng)當(dāng)事人允許就使用街頭警用攝像機(jī)拍攝的海量路人面部信息[3],在很大程度上侵害了公眾自主權(quán)、知情權(quán)、隱私權(quán)、平等權(quán)等等。
(三)破壞民主誠信
人工智能開發(fā)績效與原始數(shù)據(jù)量級之間呈現(xiàn)出正相關(guān)性,而算法決策規(guī)則和決策過程普遍缺乏透明度和可解釋性,部分開發(fā)者往往超越用戶的真實意愿獲取大型訓(xùn)練數(shù)據(jù)集,開發(fā)出的產(chǎn)品亦容易淪為使用者實現(xiàn)特定不良目標(biāo)的隱性工具。例如,智能化技術(shù)驅(qū)動的競選算法模型通過選民監(jiān)督系統(tǒng)監(jiān)視用戶的在線行為、通過精準(zhǔn)推送政治廣告引導(dǎo)選民決策,嚴(yán)重侵害了自由言論和公平選舉等集合權(quán)利,腐蝕公眾對數(shù)字生態(tài)的信任,削弱國家主權(quán)治理基礎(chǔ),對民主制度產(chǎn)生破壞性負(fù)面效果。
(四)削弱社會公允
人工智能開發(fā)范圍逐漸擴(kuò)展到理解、輔助甚至代為判斷居民的信用指數(shù)、職業(yè)能力、消費(fèi)意向和整個社會的發(fā)展方向與其他具體決策等高階認(rèn)知任務(wù)領(lǐng)域。通過放大私密特征定位不同群體(如依據(jù)人工智能技術(shù)辨識搜索引擎中的低收入群體),使得人們處于意志和情緒等不自由的受限狀態(tài);通過沖擊重復(fù)性或基礎(chǔ)性勞動市場導(dǎo)致大規(guī)模技術(shù)性失業(yè),由此引發(fā)的財富和機(jī)會不平等嚴(yán)重?fù)p害最貧困或最脆弱人群的基本利益。辨識受試者性取向的面部識別系統(tǒng)、自用戶姓名推測種族和國籍的機(jī)器學(xué)習(xí)算法、歧視女性求職者的簡歷篩查算法等直接或間接侵害基本人權(quán)。
四、人工智能開發(fā)企業(yè)社會責(zé)任的內(nèi)在邏輯
(一)企業(yè)社會責(zé)任的概念解讀
現(xiàn)代企業(yè)的設(shè)立初衷是推動社會持續(xù)轉(zhuǎn)變。雖然輿論在這一事物形成和發(fā)展初期曾主張企業(yè)以迎合市場為要務(wù),其核心責(zé)任是高效使用資源并按照消費(fèi)者愿意支付的價格提供社會所需產(chǎn)品和服務(wù),卻依然強(qiáng)調(diào)了健康的商業(yè)環(huán)境中企業(yè)主需要保持“合宜的同情心”[4]。直至20世紀(jì)80-90年代,隨著生態(tài)環(huán)境急劇惡化和勞工階層權(quán)利意識大幅提升,弗里德曼式“企業(yè)唯一的社會責(zé)任是在比賽規(guī)則范圍內(nèi)增加利潤”的論調(diào)遭到口誅筆伐。取而代之的是歐美發(fā)達(dá)國家的企業(yè)社會責(zé)任運(yùn)動開始興起,由眾多行業(yè)協(xié)會出臺的企業(yè)社會責(zé)任守則甚至發(fā)展為強(qiáng)調(diào)企業(yè)可持續(xù)價值創(chuàng)造的《全球契約》和《聯(lián)合國全球協(xié)約》等等。我國自上個世紀(jì)90年代中期開始關(guān)注企業(yè)對于經(jīng)濟(jì)、環(huán)境和社會績效的三重底線,《公司法》明確要求企業(yè)承擔(dān)社會責(zé)任。
一般而言,企業(yè)社會責(zé)任(Corporate Social Responsibility)是指企業(yè)在創(chuàng)造經(jīng)濟(jì)價值的同時,不僅需要承擔(dān)對股東、員工和消費(fèi)者的責(zé)任,還要承擔(dān)對社會安全和生態(tài)環(huán)境的責(zé)任。社會責(zé)任理論要求企業(yè)必須超越把利潤作為唯一目標(biāo)的傳統(tǒng)理念,強(qiáng)調(diào)在生產(chǎn)過程中對人的價值的關(guān)注和多利益考量,關(guān)注對社會可持續(xù)發(fā)展的貢獻(xiàn)。當(dāng)前全球公認(rèn)的企業(yè)社會責(zé)任體現(xiàn)在人權(quán)、環(huán)保和反腐責(zé)任等方面,要求企業(yè)有效保證組建工會的自由、消除強(qiáng)制勞動和廢除童工、避免用工歧視和其他侵害人權(quán)的行為,主動承擔(dān)環(huán)保責(zé)任,并積極采取措施抵制任何形式的腐敗行為。[5]
(二)企業(yè)社會責(zé)任滲透人工智能開發(fā)領(lǐng)域的主因剖解
全球人工智能技術(shù)開發(fā)的泛化競爭是深層次融合了經(jīng)濟(jì)、政治和文化等諸多元素博弈的加速社會發(fā)展鏈?zhǔn)酵黄频闹匾獎幽?,亦面臨著數(shù)據(jù)紅利與人權(quán)保障的矛盾、可期利益與失控風(fēng)險的沖突,亟待尋求實現(xiàn)技術(shù)進(jìn)步與生態(tài)安全之間動態(tài)平衡的負(fù)責(zé)任的創(chuàng)新路徑。企業(yè)社會責(zé)任滲透人工智能開發(fā)領(lǐng)域有利于增強(qiáng)開發(fā)企業(yè)的品牌效應(yīng)、強(qiáng)化用戶粘性、降低業(yè)務(wù)風(fēng)險和其他不良后果。例如,谷歌公司因在全球科技公司社會責(zé)任指數(shù)排名中蟬聯(lián)冠軍(2017年、2018年),獲得了更多消費(fèi)者的信任與頂尖技術(shù)人才加盟,而因忽視社會責(zé)任而連續(xù)兩年位列倒數(shù)的百度公司和騰訊公司已經(jīng)在聲譽(yù)和利益上受到巨大沖擊,負(fù)面評價使得這兩家企業(yè)的全球發(fā)展戰(zhàn)略面臨著嚴(yán)峻的信任危機(jī)[6]。
(三)人工智能開發(fā)企業(yè)社會責(zé)任的倫理回應(yīng)
人工智能開發(fā)活動的復(fù)雜性、靈活性、前沿性等特征使得參與企業(yè)的社會責(zé)任有別于傳統(tǒng)行業(yè)。近年來,英美中、俄法德意、加瑞韓日等多國政府開始設(shè)立專門機(jī)構(gòu)和專業(yè)團(tuán)隊(如歐盟人工智能倫理委員會、美國白宮科技政策辦公室、韓國國務(wù)總理下屬的國家機(jī)器人政策和倫理委員會、英國議會人工智能特別委員會和人工智能倫理委員會等等),負(fù)責(zé)制定本地區(qū)人工智能開發(fā)企業(yè)社會責(zé)任的倫理原則、治理政策并具體協(xié)調(diào)責(zé)任落實事宜等等。聯(lián)合國教科文組織、世界科學(xué)知識與技術(shù)倫理委員會、國際電信聯(lián)盟、國際標(biāo)準(zhǔn)化組織、電氣和電子工程師協(xié)會(IEEE)、歐洲科學(xué)與新技術(shù)倫理工作組等重要機(jī)構(gòu)也從倫理政策角度構(gòu)建人工智能企業(yè)獨(dú)特的社會責(zé)任體系。多個超大型國際專家會議和互聯(lián)網(wǎng)巨頭企業(yè)如火如荼地開展相關(guān)倫理標(biāo)準(zhǔn)制定工作,產(chǎn)生了較大的社會影響。
眾多人工智能開發(fā)者在“全球有益的人工智能大會”上聯(lián)合簽署的“阿西洛馬人工智能原則”要求企業(yè)嚴(yán)格遵守高級人工智能和超級人工智能的開發(fā)必須為了全人類的共同利益且有針對性地規(guī)劃人工智能開發(fā)活動以減少可預(yù)見的人工智能引致的沖擊(特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險)。電氣和電子工程師協(xié)會(IEEE)的《人工智能設(shè)計的倫理準(zhǔn)則》要求設(shè)計目的是為了全人類的福祉,重點(diǎn)保障基本人權(quán),削弱人工智能的負(fù)面影響。歐洲科學(xué)與新技術(shù)倫理組織發(fā)布的《關(guān)于人工智能、機(jī)器人及“自主”系統(tǒng)的聲明》要求全球共同制定人工智能開發(fā)、生產(chǎn)和使用的統(tǒng)一倫理和法律框架,主張開發(fā)活動遵循有意義的人類控制原則且相應(yīng)責(zé)任仍然歸于人類?!度斯ぶ悄茇?fù)責(zé)任發(fā)展蒙特利爾宣言》中提出了幸福、自主、正義、隱私、知識、民主和責(zé)任等七項開發(fā)原則。
微軟公司發(fā)布的新書《未來計算:人工智能及其社會角色》中指出,人工智能的目標(biāo)是造福全社會,應(yīng)當(dāng)遵循公平、安全可靠、隱私保障、包容、透明、責(zé)任等開發(fā)原則[7]。騰訊公司在2018世界人工智能大會上主張,未來人工智能應(yīng)當(dāng)做到可知、可控、可用、可靠[8]。國際商業(yè)機(jī)器公司(IBM)的倫理審查委員會列明了不以取代人類為目的、增加透明性、提高技能培訓(xùn)和供給等人工智能開發(fā)原則[9]。
由此,人工智能開發(fā)企業(yè)的社會責(zé)任至少包括以服務(wù)人類福祉、保障基本人權(quán)為唯一發(fā)展方向,確保開發(fā)流程的透明度和包容性,明確算法動機(jī)和可解釋性,守住數(shù)據(jù)安全與隱私保障的底線,維護(hù)民主、推動公正、促進(jìn)平等、實現(xiàn)有意義的人類控制。
五、人工智能開發(fā)企業(yè)社會責(zé)任的法律規(guī)制
處于新生成長期的人工智能開發(fā)在造福人類的同時遞增社會風(fēng)險系數(shù)。自動駕駛車輛在公開路面撞傷行人致死①、沃森腫瘤智醫(yī)系統(tǒng)頻繁給出不正確且不安全的癌癥治療方案[10]、亞馬遜人臉識別軟件誤將28名國會議員識別為犯罪分子[11]等惡性事件加深了人們對于人工智能開發(fā)的恐懼和焦慮,甚至轉(zhuǎn)化為實質(zhì)性的維權(quán)和糾偏活動(如美國通訊工人協(xié)會起訴臉書公司的廣告投放工具運(yùn)用獨(dú)特算法歧視大齡求職者[12]、谷歌數(shù)千名員工簽名或辭職抗議公司參與軍事無人機(jī)項目[13]等等)。包括《歐盟通用數(shù)據(jù)保護(hù)條例》《歐盟機(jī)器人民事法律規(guī)則》《美國政府部門自動決策系統(tǒng)法案》《美國加州消費(fèi)者隱私法案》以及我國的《網(wǎng)絡(luò)安全法》《消費(fèi)者權(quán)益保護(hù)法》《民法總則》《智能網(wǎng)聯(lián)汽車道路測試管理規(guī)范》等在內(nèi)的現(xiàn)行法律法規(guī)難以妥善應(yīng)對。亟待構(gòu)建具有國家強(qiáng)制力的統(tǒng)一規(guī)范體系,督促開發(fā)企業(yè)審慎履行社會責(zé)任,避免無序創(chuàng)新對社會發(fā)展的負(fù)面影響。人工智能開發(fā)企業(yè)社會責(zé)任的法律規(guī)制是傳統(tǒng)企業(yè)社會責(zé)任理論結(jié)合人工智能開發(fā)的特殊行為邏輯與當(dāng)代法權(quán)發(fā)展?fàn)顩r的全新展示,以開發(fā)出符合人類福祉的創(chuàng)新工具為目標(biāo),明確分配和承擔(dān)相應(yīng)法律責(zé)任,充分發(fā)揮保護(hù)人類存續(xù)的重要作用。
(一)人工智能開發(fā)企業(yè)社會責(zé)任法律規(guī)制的國際經(jīng)驗
雖然全球尚未出臺總括性人工智能法,但很多國家和地區(qū)正在積極參與相關(guān)立法的前置步驟。歐盟委員會依據(jù)《2018人工智能發(fā)展規(guī)劃》成立了專門工作組,集中審議《產(chǎn)品責(zé)任法》和《機(jī)器立法指令》等現(xiàn)行法律規(guī)范與人工智能發(fā)展目標(biāo)的兼容程度并進(jìn)行開發(fā)責(zé)任和安全框架的相關(guān)研究。《美國人工智能未來法案》提出建立研究人工智能可能帶來的倫理、法律及社會問題的咨詢委員會。我國十三屆全國人大常委會的立法規(guī)劃將人工智能列入“立法條件尚不具備、需要繼續(xù)研究論證的立法項目”。目前,人工智能開發(fā)企業(yè)社會責(zé)任的法律規(guī)制主要表現(xiàn)為鼓勵發(fā)展的軟性規(guī)則、默示遵循傳統(tǒng)法律法規(guī)以及出臺特定的成熟子域(如無人駕駛)的具體規(guī)定等等。例如,《聯(lián)合國工商業(yè)與人權(quán)指導(dǎo)原則》是判定締約國企業(yè)的人工智能開發(fā)行為是否不利人權(quán)的重要標(biāo)準(zhǔn)。又如,《美國全民計算機(jī)科學(xué)法案》關(guān)注了人工智能技術(shù)對于居民生活質(zhì)量的改善價值及其對部分工作的替代作用,《美國政府部門自動決策系統(tǒng)法案》則通過一系列法律措施督促政府公平公開地運(yùn)用自動決策算法。次如,《歐盟機(jī)器人民事法律規(guī)則》規(guī)定了機(jī)器人研發(fā)中應(yīng)當(dāng)遵循的免受機(jī)器人傷害或操縱、不侵犯人類隱私、可被人類拒絕服務(wù)等法律原則,要求借助人工智能做出的決策必須在任何情況下都能夠提供背后的算法設(shè)計規(guī)則,避免危害公共利益;《歐盟一般數(shù)據(jù)保護(hù)條例》禁止“將產(chǎn)生法律的或類似的重大影響”的全自動化處理。但基于歐盟并未給出人工智能開發(fā)企業(yè)遵循規(guī)則的實操方式(如并未細(xì)化界定前述“重大影響”),總體上仍然偏向現(xiàn)階段采用軟法規(guī)制人工智能開發(fā)企業(yè)的社會責(zé)任[14]。法國與之類似,在《維拉尼報告》中主張目前采用軟法調(diào)整人工智能開發(fā)行為[15]。再如,《韓國機(jī)器人基本法案》明確規(guī)定了機(jī)器人設(shè)計必須符合人類福利的法律原則;《俄羅斯機(jī)器人法(草案)》雖然基于對機(jī)器人這一準(zhǔn)主體和高度危險源在不同法律關(guān)系和不同發(fā)展階段的不同定位適用殊別的法律條款,卻也在總體上明確了開發(fā)活動應(yīng)當(dāng)增進(jìn)人類福祉的基本立場;德國則在特定的無人駕駛領(lǐng)域頒布了技術(shù)開發(fā)必須符合法定正當(dāng)程序、保證透明度和可追溯性、增進(jìn)公共福利等法律原則。
(二)我國人工智能開發(fā)企業(yè)社會責(zé)任法律規(guī)制的具體方案
我國不僅制定了具有較強(qiáng)執(zhí)行力的人工智能國家層面發(fā)展規(guī)劃,國內(nèi)企業(yè)擁有的驗算數(shù)據(jù)規(guī)模也遠(yuǎn)超其他國家和地區(qū),既加速了經(jīng)濟(jì)社會各領(lǐng)域從數(shù)字化、網(wǎng)絡(luò)化向智能化邁進(jìn)的步伐,亦增加了人工智能開發(fā)的社會風(fēng)險。
目前,我國有關(guān)人工智能開發(fā)企業(yè)社會責(zé)任的法律規(guī)定散見于《網(wǎng)絡(luò)安全法》《電子商務(wù)法》《個人信息保護(hù)法(專家建議稿)》《數(shù)據(jù)保護(hù)法(專家建議稿)》《消費(fèi)者權(quán)益保護(hù)法》《反壟斷法》《產(chǎn)品質(zhì)量法》和《智能網(wǎng)聯(lián)汽車道路測試管理規(guī)范》等等,并不足以在激勵人工智能開發(fā)創(chuàng)新的同時防范和應(yīng)對技術(shù)進(jìn)步附隨的社會風(fēng)險。亟待明確人工智能開發(fā)企業(yè)社會責(zé)任法律規(guī)制的具體方案,最大化挖掘技術(shù)進(jìn)步給人類社會創(chuàng)造的各種機(jī)遇,既避免公權(quán)力過多介入人工智能領(lǐng)域?qū)夹g(shù)和產(chǎn)業(yè)發(fā)展造成障礙,又克服其潛在的負(fù)面影響。
1.構(gòu)建透明開發(fā)的法定正當(dāng)程序
雖然深度學(xué)習(xí)技術(shù)和神經(jīng)網(wǎng)絡(luò)黑盒運(yùn)作有可能侵害合法的數(shù)據(jù)權(quán)益,但海量數(shù)據(jù)支撐是人工智能開發(fā)的主要原料,過度限制數(shù)據(jù)存儲、使用和移轉(zhuǎn)將會阻礙行業(yè)發(fā)展。例如,備受推崇的被遺忘權(quán)寫入多國法律之后,人工智能開發(fā)實踐中暴露出欠缺遠(yuǎn)期數(shù)據(jù)影響技術(shù)研發(fā)實效的棘手問題。全面高效監(jiān)管以確保人工智能開發(fā)履行服務(wù)人類福祉的社會責(zé)任的前提是整個開發(fā)流程透明可見,尤其是大規(guī)模推算數(shù)據(jù)的存取、使用和流轉(zhuǎn)需要更高的透明度以避免以種族、性別、宗教信仰等保護(hù)性特征為強(qiáng)關(guān)聯(lián)因素挖掘?qū)ο箅[私,提升算法決策的安全性、可靠性與合規(guī)性。
立足人工智能開發(fā)從數(shù)據(jù)輸入到結(jié)果輸出的全生命周期,搭建以透明開發(fā)為核心的法定正當(dāng)程序,科學(xué)規(guī)范開發(fā)項目需求者、開發(fā)主體、其他公共或私人參與者的具體行為,在利益相關(guān)者之間建立良好的信任關(guān)系。主要包括制定原始數(shù)據(jù)采集和標(biāo)注的程序要求和評價標(biāo)準(zhǔn);按照“AI+特種行業(yè)”特種許可和“AI+一般行業(yè)”加強(qiáng)監(jiān)管審批的方式完善法定從業(yè)資格標(biāo)準(zhǔn);構(gòu)建數(shù)據(jù)保護(hù)影響評估標(biāo)準(zhǔn)、隱私聲明和服務(wù)條款合規(guī)標(biāo)準(zhǔn)、開發(fā)機(jī)構(gòu)內(nèi)部管理和復(fù)審問責(zé)程序標(biāo)準(zhǔn)、開發(fā)產(chǎn)品功能規(guī)定和性能規(guī)定的監(jiān)管審核標(biāo)準(zhǔn);提供清晰的數(shù)據(jù)去標(biāo)識指導(dǎo)方案和算法工具使用指南;要求開發(fā)企業(yè)定期向管理部門匯報進(jìn)展并提供包括項目的合規(guī)分析、訓(xùn)練數(shù)據(jù)流動情況、算法使用技術(shù)列表和變量目錄以及算法模型優(yōu)化目標(biāo)等在內(nèi)的說明文件。
2.健全算法解釋和結(jié)果驗證的合規(guī)標(biāo)準(zhǔn)
歐盟和英美的數(shù)據(jù)保護(hù)法律規(guī)定都對算法的透明度、公平性和可解釋性提出了要求。但人工智能算法模型是海量訓(xùn)練數(shù)據(jù)驅(qū)動的非線性權(quán)重和偏差的黑盒化自主學(xué)習(xí)和自我完善系統(tǒng),在當(dāng)前技術(shù)環(huán)境下難以詳細(xì)解釋算法內(nèi)容或準(zhǔn)確預(yù)測輸出結(jié)果。為了避免社會風(fēng)險,一味要求人工智能開發(fā)企業(yè)承擔(dān)完全解釋算法邏輯和人工審核算法決策的責(zé)任將大幅提升勞動力成本,迫使開發(fā)主體刪除一些影響關(guān)鍵運(yùn)行規(guī)則的訓(xùn)練數(shù)據(jù)并放棄某些可能產(chǎn)生重大社會裨益的創(chuàng)新算法模型,不僅導(dǎo)致企業(yè)處于全球競爭劣勢,使用者也無法獲得優(yōu)質(zhì)服務(wù)。
構(gòu)建算法可解釋和結(jié)果可驗證的合規(guī)標(biāo)準(zhǔn)是避免人工智能開發(fā)活動產(chǎn)生經(jīng)濟(jì)和非經(jīng)濟(jì)性負(fù)面影響的重要舉措。關(guān)鍵在于,通過明確部署各階段參與者的法律義務(wù),建立可追溯、可理解和可查驗的人工智能開發(fā)機(jī)制。具體而言,人工智能開發(fā)項目須經(jīng)背景評估師審查以確保不背離人類共同的發(fā)展目標(biāo),訓(xùn)練數(shù)據(jù)集的來源、使用和保護(hù)應(yīng)當(dāng)符合數(shù)據(jù)保護(hù)法律標(biāo)準(zhǔn),算法工具和工作原理必須滿足法定的合理釋明標(biāo)準(zhǔn),依法履行測試驗證和追蹤算法模型輸出結(jié)果的法律義務(wù),加強(qiáng)開發(fā)活動參與者的法律知識培育以擴(kuò)大監(jiān)管成效,通過完善稅收和保險機(jī)制等間接激勵研發(fā)完全解釋的白盒模型。
3.完善開發(fā)行為的違法問責(zé)框架
以違法問責(zé)為社會控制深層次警戒底線的國家公權(quán)有必要建立針對瑕疵開發(fā)行為負(fù)面社會影響的有效且有意義的違法問責(zé)框架?;谌斯ぶ悄荛_發(fā)系統(tǒng)具有超出傳統(tǒng)的創(chuàng)新性、獨(dú)立性和復(fù)雜性,有能力提升安全性能、改進(jìn)開發(fā)流程、增加產(chǎn)品價值的開發(fā)主體處于強(qiáng)勢地位,開發(fā)出的產(chǎn)品也未改變工具本質(zhì),體現(xiàn)多數(shù)人集合意志的針對具體開發(fā)活動中嚴(yán)重不當(dāng)行為引起的損害予以補(bǔ)償、賠償或接受處罰的主要承擔(dān)方式應(yīng)當(dāng)是過錯推定。即完善的人工智能開發(fā)行為違法問責(zé)框架是在開發(fā)造成損害時推定委托開發(fā)者、開發(fā)設(shè)計者、生產(chǎn)者、開發(fā)產(chǎn)品銷售者和使用者未履行其應(yīng)有的注意義務(wù),應(yīng)當(dāng)承擔(dān)法律責(zé)任。除非這些主體能夠證明自己沒有過錯,才可以滿足責(zé)任排除條件。同時,有必要積極健全人工智能開發(fā)犯罪的刑事責(zé)任制度和相應(yīng)行政責(zé)任制度,有效約束開發(fā)企業(yè)利用技術(shù)優(yōu)勢和容錯規(guī)則故意或過失地從事社會危害巨大的不當(dāng)開發(fā)行為,“盡量將智能機(jī)器的發(fā)展限制在專門化、小型化尤其是盡可能的非暴力的范圍之內(nèi)”[16] 。
六、結(jié)語
“2018年,全球人工智能業(yè)務(wù)規(guī)模將達(dá)到1.2萬億美元,與2017年相比增長了70%”[17]。從阿里集團(tuán)的“產(chǎn)業(yè)AI”到谷歌公司的“AI貫穿全系列產(chǎn)品”①,定義新時代的人工智能技術(shù)已經(jīng)滲透社會生活方方面面,成為創(chuàng)新產(chǎn)品的造夢廠。迅速營建具有合理的可解釋性、透明度且有益社會的良性開發(fā)環(huán)境,還需要積極提高社會公眾的數(shù)字素養(yǎng)與批判能力,擴(kuò)大間接監(jiān)督規(guī)模并提升司法救濟(jì)水平。
參考文獻(xiàn):
[1] The Verge. Putin says the nation that leads in AI ‘will be the ruler of the world' [EB/OL]. (2017-09 -04)[2018-12-29]https://www.theverge.com/2017/9/4/16251226/russia-ai-putin-rule-the-world.
[2] Software Development[EB/OL].(2018-12-24)[2018-12-29]https://en.wikipedia.org/wiki/Soft ware_development.
[3] IBM利用紐約警局提供的圖像,創(chuàng)建人臉識別系統(tǒng)[EB/OL].(2018-09-07)[2018-12-29] http://www.sohu.com/a/252550296_395737.
[4] 亞當(dāng)·斯密.道德情操論[M].何麗君, 譯.北京: 北京出版社, 2008: 5.
[5] 寇恩惠.企業(yè)避稅的社會責(zé)任[J].商學(xué)研究,2017(5):113-123.
[6] The Ranking Digital Rights 2018 Corporate Accountability Index[EB/OL].(2018-08-31)[2018-12-29]https://rankingdigitalrights.org/index2018/; The 2017 Ranking Digital Rights Corporate Accountability Index[EB/OL].(2017-09-30)[2018-12-29]https://rankingdigitalrights.org/index2017/.
[7] 沈向洋, 施博德. 計算未來——人工智能及其社會角色[M]. 北京: 北京大學(xué)出版社, 2018: 5.
[8] 馬化騰.人工智能助力創(chuàng)新發(fā)展(2018世界人工智能大會主題演講)[EB/OL]. (2018-09-17)[2018-12-29]http://huateng.blogchina.com/681472568.html.
[9] Alison Rayome. 3 Guiding Principles for Ethical AI, from IBM CEO Ginni Rometty[EB/OL]. (2017-01-17)[2018-12-29]https://www.techrepublic.com/article/3-guiding-principles-for-ethi-cal-ai-from-ibm-ceo-ginni-rometty/.
[10] 陳曉雪. IBM腫瘤醫(yī)生“沃森”被曝不好用,醫(yī)療AI前景堪憂?[EB/OL].(2018-08-12)[2018-12-29] https://new.qq.com/omn/20180812/20180812A0DF20.html.
[11] 亞馬遜人臉識別軟件糗大了,把28名美議員識別為罪犯[EB/OL].(2018-07-27)[2018-12-29] http://tech.ifeng.com/a/20180727/45086019_0.shtml.
[12] 李明. Facebook廣告工具歧視大齡求職者 多家雇主被訴訟[EB/OL].(2018-05-29)[2018-12-29] http://tech.sina.com.cn/i/2018-05-29/doc-ihcffhsv2756312.shtml.
[13] 李澤南,等. “不再作惡”:谷歌決定2019年后推出軍事項目Project Maven[EB/OL]. (2018-06-02)[2018-12-29] https://www.sohu.com/a/233798761_129720.
[14] Mapping Regulatory Proposals for Artificial Intelligence in Europe[EB/OL].(2018-11-10)[2018-12-29]https://www.accessnow.org/cms/assets/uploads/2018/11/mapping_regulatory_proposals_for_AI_in_EU.pdf.
[15] Report of the Mission Villani on AI[EB/OL].(2018-03-08)[2018-12-29]https://www.aiforhu manity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf.
[16] 何懷宏. 人物、人際與人機(jī)關(guān)系——從倫理角度看人工智能[J]. 探索與爭鳴, 2018(7): 27-34.
[17] Christy Pettey. Gartner Says Global Artificial Intelligence Business Value to Reach $1.2 Trillion in 2018[EB/OL].(2018-04-25)[2018-12-29]https://www.gartner.com/newsroom/id/3872933.
責(zé)任編輯:楊 煉