□ 可 曉
(煙臺大學(xué),山東 煙臺 264000)
1956年的達(dá)特茅斯科學(xué)家會議上,斯坦福大學(xué)計算機(jī)科學(xué)家約翰·麥卡錫率先提出人工智能(Artificial Intelligence,簡稱AI)的概念,科學(xué)界對它的普遍定義是:研究、開發(fā)用于模擬、延伸和拓展人類智能的方法論以及具體算法系統(tǒng)的技術(shù)科學(xué)[1]。人工智能嘗試著生產(chǎn)出面對具體問題時能夠和人類智能做出相似反應(yīng)機(jī)制的智能機(jī)器,期待機(jī)器可以獨(dú)立完成從前只能由人類完成的任務(wù)。
目前,AI技術(shù)促使醫(yī)療、通信、交通、金融支付等眾多產(chǎn)業(yè)進(jìn)行技術(shù)改革,國外的一些保險公司、金融公司,甚至律師事務(wù)所,都開始引入具有認(rèn)知能力的人工智能系統(tǒng)來替換人類雇員。從智力競賽、國際象棋到圍棋、德州撲克,再到醫(yī)療診斷、圖像和語音識別,人工智能在越來越多的領(lǐng)域開始達(dá)到甚至超過人類的認(rèn)知能力,從而出現(xiàn)其輔助甚至代替人類進(jìn)行決策的現(xiàn)象。
科技界意見領(lǐng)袖比爾·喬伊曾發(fā)表一篇題為《為什么未來不需要我們》的文章,他指出:我們最強(qiáng)大的技術(shù),將使人類在物種意義上受到威脅,未來的一個困境在于智能機(jī)器人也許不僅會比人類聰明和強(qiáng)大,而且將逐漸具備了獨(dú)立自我的意識不受人類所控制,最終給人類帶來滅頂之災(zāi)。霍金曾擔(dān)憂的指出:從短期來看,人工智能的影響力是由使用它的人來決定,而從長期來看,它的影響力取決于是否一直甘心被人類所使用,也許有一天一切將會發(fā)生根本性的顛倒[2]。在此背景下,防范和化解技術(shù)帶來的風(fēng)險,是負(fù)責(zé)任的發(fā)展人工智能的應(yīng)有之義,這也正在成為越來越多人的共識。近年來,人工智能給網(wǎng)絡(luò)技術(shù)的發(fā)展提供了充足的動力,但是這種發(fā)展卻逐漸模糊了物理與虛擬現(xiàn)實主體與客體之間的界限,原本穩(wěn)定的社會秩序受到了來自各方面的沖擊,進(jìn)而衍生出諸多復(fù)雜的倫理困惑和法律問題,這已經(jīng)成為智能時代不可回避的問題,因此,本文將從倫理和法律這兩個角度開出化解人工智能風(fēng)險的藥方,希望讓人工智能在規(guī)范中發(fā)揮更大的科技優(yōu)勢。
由于人工智能技術(shù)的應(yīng)用越來越普及,人們的日常生活和工作也會更加依賴于數(shù)據(jù)信息算法和智能系統(tǒng)的選擇和決策,比如,醫(yī)療診斷、證券交易、司法裁判、無人駕駛等,而“腦機(jī)接口”更是直接把人腦和外部設(shè)備連接起來進(jìn)行信息交換,從而形成數(shù)據(jù)主義對人類自由意志的滲透和控制,對于正在研發(fā)的強(qiáng)人工智能甚至超人工智能來講,它們更是對人類智慧的超越。但無論技術(shù)怎樣發(fā)展,維護(hù)人類賴以存續(xù)的是人文精神、人格尊嚴(yán),這些是不能被人工智能所代替或統(tǒng)治的,這是人類發(fā)展和利用人工智能的起點(diǎn)和終點(diǎn)。但是,人工智能在應(yīng)用中會遇到一些具體的倫理問題,如自動駕駛中緊急避險的利益衡量、性伴侶機(jī)器人的倫理審查等等,因此,在人工智能研發(fā)過程中應(yīng)當(dāng)引入機(jī)器倫理,促進(jìn)技術(shù)設(shè)計倫理開發(fā),要引導(dǎo)智能產(chǎn)品“負(fù)責(zé)任”的為人類服務(wù)。
理清這個問題的思路,首先要反思算法設(shè)計的客觀性,重新審視開發(fā)者的價值選擇在其中的影響。我們知道人工智能的本質(zhì)就是算法和數(shù)據(jù)處理的集合,而數(shù)據(jù)的采集與算法的設(shè)計不是純粹客觀和無偏見的,相關(guān)主體的價值選擇將無孔不入。例如,在智能“視頻鑒黃”時,其原理是通過智能化識別對視頻進(jìn)行理解,雖然智能化識別中的算法和數(shù)據(jù)處理是客觀的,但是對于藝術(shù)和色情的界限是一個仁者見仁、智者見智的問題,人工智能僅僅是具備了事實層面的分析認(rèn)知能力,而對于價值判斷這種深具倫理色彩的工作卻無法很好地勝任,對此,有人提出“人工鑲嵌”技術(shù),即把人的倫理道德鑲嵌到算法之中。但是,假如真的能把倫理規(guī)范鑲嵌入人工智能,那么這種技術(shù)是否會被居心叵測的科學(xué)家利用,從而將不道德和反倫理輕而易舉地植入其中?筆者認(rèn)為,不管是主動在智能系統(tǒng)中安裝倫理代碼,還是讓智能系統(tǒng)在環(huán)境中被動適應(yīng)倫理規(guī)范,最后都存在算法和數(shù)據(jù)處理的“黑匣子”,即技術(shù)的客觀中立性之中總滲透著一些無法輕易察覺的“倫理代碼”。為此,筆者提出三個方面的倫理調(diào)適思路:
隨著人工智能化的推廣,它正在悄無聲息地形成一種“算法權(quán)力”,從日常生活中的產(chǎn)品推薦、信用評分,再到如火如荼的共享服務(wù),這種算法權(quán)力影響著每一個個人和團(tuán)體??陀^和科學(xué)是算法決策一直被標(biāo)榜的特征,然而如同人類的決策總受到個人價值影響一樣,絕對鐵桶般的客觀嚴(yán)密是不存在的,算法從一出生就承載著價值判斷,當(dāng)面臨社會關(guān)系的解讀時,總會受到利益分配和既有權(quán)力格局的深刻影響,所以這種客觀和科學(xué)僅僅是相對的。因此,在人工智能時代的信息不對稱問題愈加嚴(yán)重的情況下,如果對這種算法權(quán)力不加警惕,那么偏見和歧視將逐漸放大,權(quán)力的黑箱又將日益形成。實際上,智能產(chǎn)品給我們帶來便捷服務(wù)的同時,也給我們施加著微妙的歧視和某種經(jīng)過“度量”的不公,例如,亞馬遜會根據(jù)算法推測,針對曾經(jīng)多次購買《三體》的用戶,他們更有可能對《人類簡史》產(chǎn)生興趣,因此,對于這類用戶要報以更高的報價;車站在隨機(jī)安排停車位的時候,會為那些收入較高并且寧愿通過多付小費(fèi)來換取快速停車的客戶提供更近更方便的車位[3]。這種算法權(quán)力能夠換取極大的利益,所以非常容易得到誤用和濫用,對此,筆者設(shè)想在算法和數(shù)據(jù)處理的過程中施加一種“倫理審計”,即從用戶體驗到的算法決策的歧視與不公入手,檢查在決策過程中人為植入的利益因子,糾正結(jié)果中存在的不正確、不包容和不公正現(xiàn)象。算法權(quán)力的執(zhí)行者在這個環(huán)節(jié)中應(yīng)被施加嚴(yán)格的責(zé)任,例如,建立利益披露與利益沖突公開機(jī)制,以期達(dá)到公正行使其權(quán)力的效果。
當(dāng)今世界,計算機(jī)、大數(shù)據(jù)和AI系統(tǒng)成為社會發(fā)展的三駕馬車,其中AI系統(tǒng)的智能算法涉及面愈發(fā)廣泛,其被賦予的權(quán)力越來越大,但它卻變得越來越不透明、難以理解甚至無法追溯責(zé)任。在無人駕駛、醫(yī)療機(jī)器人等智能系統(tǒng)中,牽扯到很多的智能決策問題,這些決策往往關(guān)乎著人身安危,公眾不能在一無所知的情況下交托人身安全,有必要對運(yùn)行的過程具備起碼的了解。筆者認(rèn)為,在智能決策時,應(yīng)該賦予公眾一種“獲得解釋權(quán)”,此權(quán)利旨在使公眾實時獲得必要的解釋,尤其是當(dāng)智能系統(tǒng)做出影響公民權(quán)益的決策時。這樣的權(quán)利設(shè)計可以對開發(fā)者形成一種監(jiān)督,督促算法設(shè)計與評估階段優(yōu)先考慮透明性、可理解性和可追責(zé)問題,從而穩(wěn)固人工智能時代的交易安全和社會秩序。在人類社會分工日益精細(xì)的今天,我們同樣要對于學(xué)科進(jìn)行精細(xì)的責(zé)任劃分。比如,科學(xué)問的是:什么是我們能夠做的。但是在這里,倫理學(xué)和法學(xué)要問的是:什么是允許做的。其言下之意在于:面對科學(xué)技術(shù)日益精進(jìn),社會飛速發(fā)展的今天,我們不得不回到倫理學(xué)的原點(diǎn),拿出勇氣,發(fā)動對這個時代人工智能泛化的批判,警覺以人工智能作為純科技手段為借口的推卸責(zé)任行為。因此,為安全考慮,人工智能的尖端技術(shù)及其核心平臺,是不宜讓任何個人或者私企把控的,否則就會出現(xiàn)極少數(shù)人便能攫取大部分資源,控制經(jīng)濟(jì)命脈和文化宣傳的危險境遇。因此,對于人工智能的責(zé)任劃分,有一個基本原則就是政府干預(yù)原則。政府對此不應(yīng)該聽之任之,而應(yīng)該積極承擔(dān)責(zé)任,為民眾安全計而對于人工智能市場設(shè)計好合理的制度監(jiān)管框架。
當(dāng)今時代,看似人工智能的智能化與人類的理性化相得益彰,但深思之后就能發(fā)覺,人工智能的理性更多的是一種工程理性,它的理性是機(jī)械的、無善惡觀的,也許它將給人類帶來更深遠(yuǎn)的不合理性,例如,智能的力量能否被人類的正面力量所掌控?由于智能算法的復(fù)雜性,它是否會長期將人類蒙在鼓里,最終把人類置于巨大的風(fēng)險里?我們已經(jīng)察覺到的是:智能機(jī)器人的引入使得普通的機(jī)械勞動者崗位流失,勞動與就業(yè)保障方面的壓力加大,那么,人工智能進(jìn)一步的發(fā)展是否會搶走更多可憐的飯碗,進(jìn)而對人的存在價值產(chǎn)生一種難以調(diào)和的沖突呢?創(chuàng)造的確是人的巨大優(yōu)點(diǎn),可是面對智能機(jī)器——人類最偉大的創(chuàng)造,創(chuàng)造與被創(chuàng)造的關(guān)系卻發(fā)生了一種本末倒置的變化,人類在其創(chuàng)造物面前總有那么一點(diǎn)自愧弗如與自慚形穢的失落與無助。對此,人類應(yīng)該時刻警惕人工智能的理性,對其潛在的風(fēng)險做好防范。
總而言之,自從2015年以來人工智能的發(fā)展在整個世界范圍內(nèi)產(chǎn)生了巨大的沖擊、引起了廣泛的討論,尤其值得我們關(guān)注的是2017年1月在阿西洛馬會議上提出的“阿西洛馬人工智能原則”,即“安全、透明、負(fù)責(zé)、可解釋、為人類做貢獻(xiàn)和多數(shù)人受益”原則,其倡導(dǎo)的倫理價值包括過程的安全性、故障的透明性、審判的透明性、恪盡職守、與人類價值觀保持一致、保護(hù)隱私、尊重自由、分享利益、共同繁榮、人類控制、非顛覆性以及禁止人工智能裝備競賽等[4]。
倫理規(guī)范對于人工智能社會關(guān)系的調(diào)整發(fā)揮著一種先導(dǎo)性作用,這是因為立法的繁瑣性、法律的滯后性特征使得法律規(guī)范對于迅速發(fā)展的社會關(guān)系難以做出第一時間的反應(yīng),而倫理規(guī)范恰好可以彌補(bǔ)這種不足,對于已經(jīng)發(fā)生變化的社會關(guān)系迅速作出反應(yīng)。一言以蔽之,在新事物的初期,法律規(guī)范不健全的情況下,倫理規(guī)范要肩負(fù)法律的重任,例如,把道德準(zhǔn)則鑲嵌入智能機(jī)器人、為智能產(chǎn)品建立正確的倫理指引、規(guī)定智能技術(shù)研發(fā)與應(yīng)用的共同倫理道德標(biāo)準(zhǔn)等等。
通過上述倫理規(guī)范問題的討論,我們可以明確這樣一個思路:對于如火如荼的智能技術(shù),我們必須進(jìn)行一些監(jiān)管和控制,而在早期最適宜登上舞臺的就是倫理規(guī)范,通過倫理規(guī)范的探討和調(diào)適,為后續(xù)法治建設(shè)提供了重要的法源,當(dāng)一切成熟的時候,倫理規(guī)范便可轉(zhuǎn)化為法律規(guī)范,實現(xiàn)道德的法律化。
目前來說,人工智能技術(shù)作為一項嶄新的事物,它缺乏完善的法律框架來約束,人工智能技術(shù)在應(yīng)用過程中的侵權(quán)行為頻發(fā),例如,醫(yī)療護(hù)理機(jī)器人、無人駕駛應(yīng)用過程中致人損害發(fā)生的侵權(quán)責(zé)任、產(chǎn)品責(zé)任;智能系統(tǒng)中出現(xiàn)的隱私與個人信息泄漏等等。在這些情況下出現(xiàn)的侵權(quán)問題往往是對于我國傳統(tǒng)侵權(quán)規(guī)范框架的挑戰(zhàn),被侵害者的利益往往難以得到及時的救濟(jì),這可謂是人工智能技術(shù)發(fā)展的一大障礙。因此,接下來本文的任務(wù)就是針對其中比較突出的一些法律問題進(jìn)行探討,并給出一些立法建議。
依照傳統(tǒng)的侵權(quán)責(zé)任法,產(chǎn)品致?lián)p應(yīng)該適用有關(guān)產(chǎn)品侵權(quán)責(zé)任的規(guī)定,即向產(chǎn)品的生產(chǎn)者和銷售者或者不當(dāng)?shù)氖褂谜咧鲝堎r償,但是對于那種具有自主處理和決策能力的智能產(chǎn)品,比如,無人駕駛、醫(yī)療機(jī)器人,其責(zé)任承擔(dān)的主體和損害賠償?shù)臋C(jī)制尚需進(jìn)行討論。在智能產(chǎn)品致人損害時,我們有必要分清究竟是智能產(chǎn)品的固有漏洞,還是智能機(jī)器使用者的錯誤使用,抑或是人工智能系統(tǒng)偏離算法程序進(jìn)行自主決策下的“自身行為”,當(dāng)分清真正的致?lián)p事由之后,才能查找出真正的責(zé)任主體,并分擔(dān)賠償責(zé)任[5]。
筆者認(rèn)為,要解決智能產(chǎn)品的歸責(zé)問題,避免用戶因責(zé)任顧慮而因噎廢食,必須為人工智能量身訂做一套程序上的歸責(zé)路線,立法機(jī)構(gòu)在立法時應(yīng)當(dāng)闡明智能系統(tǒng)開發(fā)過程中的法律權(quán)利與義務(wù)、歸責(zé)與救濟(jì)方式等問題,同時考慮到面向群體的多樣性,要從法律制度上明確人工智能產(chǎn)品的設(shè)計研發(fā)者、生產(chǎn)者、銷售者和使用者的責(zé)任,在損害發(fā)生時不至于出現(xiàn)責(zé)任空白。其中需要探討的是對于那種具備自我學(xué)習(xí)和決策能力的強(qiáng)人工智能系統(tǒng)的歸責(zé)問題,假如這些高智能化的人工智能產(chǎn)品的“自身行為”致人損害,這種情形由于技術(shù)限制,屬于不可控制與不可預(yù)見的范圍,那么是否可以依據(jù)損害的不可預(yù)見性、科學(xué)技術(shù)水平的局限性來免除相應(yīng)主體的責(zé)任?在此,筆者認(rèn)為考慮到產(chǎn)品使用者在消費(fèi)過程中往往處于弱勢地位,而在意外情形發(fā)生后,如果不能給予充分的救濟(jì),這不僅不利于維護(hù)使用者的權(quán)益,而且非常容易挫傷其消費(fèi)積極性,從長遠(yuǎn)看這也不利于人工智能產(chǎn)品市場的開拓。
因此,我們可以借鑒歐盟議會法律事務(wù)委員會在2017年1月發(fā)布的《機(jī)器人民事法律規(guī)則的立法建議報告》中提出的兩個建議:第一,為智能產(chǎn)品建立強(qiáng)制保險機(jī)制,由其生產(chǎn)制造者購買。第二,要設(shè)立賠償基金,以確保強(qiáng)制保險不能覆蓋的損害能夠獲得賠償[6]。我們期待通過保險機(jī)制分擔(dān)風(fēng)險,這樣做不僅有利于受損一方得到及時的救濟(jì),也可以減輕人工智能產(chǎn)品開發(fā)商和制造商的賠償負(fù)擔(dān),避免其由于過高的注意義務(wù)和過于嚴(yán)格的無過錯責(zé)任承擔(dān)而裹足不前,從而支持人工智能產(chǎn)業(yè)的長足發(fā)展。此外,我們還應(yīng)該建立有效的監(jiān)管機(jī)制,對于人工智能產(chǎn)品的設(shè)計開發(fā)、生產(chǎn)、銷售和使用的全過程進(jìn)行持續(xù)的監(jiān)管,以此保證責(zé)任的可追溯性。我們要針對設(shè)計、生產(chǎn)建立起嚴(yán)格的檢測審批制度,對于出廠銷售之后要完善使用和保養(yǎng)以及維修情況的跟蹤記錄,甚至可以參考車輛年檢制度對人工智能產(chǎn)品進(jìn)行年檢。逐漸建立起嚴(yán)密的監(jiān)管體制,哪個環(huán)節(jié)的監(jiān)管者沒有盡到監(jiān)管職責(zé),就該為人工智能產(chǎn)品損害承擔(dān)相應(yīng)的責(zé)任。
人工智能本質(zhì)上是一種數(shù)據(jù)處理的算法,因此,較高質(zhì)量的大數(shù)據(jù),包括與個人隱私相關(guān)的敏感數(shù)據(jù)的采集,是它發(fā)展的命脈。而在數(shù)據(jù)采集的過程中,難以避免對公民個人隱私造成安全隱患,這些數(shù)據(jù)一旦遭到披露,隱私權(quán)的保護(hù)將成為一紙空談。根據(jù)媒體報道,2017年5月,谷歌公司旗下的DEEPMIND獲取了英國皇家濟(jì)慈NHS信托基金運(yùn)營的三家醫(yī)院160萬病人的醫(yī)療數(shù)據(jù),其中包括HIV感染狀況、吸毒史和墮胎信息等隱私數(shù)據(jù)。在當(dāng)今時代,我們幾乎沒有絕對安全的私人空間,我們的隱私受到無所不在的窺探[7]。
而與社交網(wǎng)絡(luò)相比,人工智能產(chǎn)品儲存的數(shù)據(jù)規(guī)模更大、范圍更廣、私密度極高,一旦發(fā)生竊取、泄露或者遭到不正當(dāng)?shù)睦茫粌H直接危害個人信息及隱私安全,還可能危及用戶的人身和財產(chǎn)利益,妨害社會秩序的穩(wěn)定和人工智能產(chǎn)業(yè)的發(fā)展。因此,隱私與個人信息保護(hù)是世界各國立法長期以來關(guān)注的核心議題,其本質(zhì)要求就是在設(shè)計和應(yīng)用人工智能系統(tǒng)時,要以尊重隱私、保護(hù)個人信息為前提。
筆者認(rèn)為,目前法律在應(yīng)對隱私與個人信息保護(hù)問題上可從三個方面發(fā)力:
1.嚴(yán)格確定人工智能系統(tǒng)采集用戶數(shù)據(jù)的界限與范圍
在人工智能時代,大部分用戶為了享受相應(yīng)的服務(wù)不得不提供相應(yīng)的信息或者犧牲部分隱私,用戶自己往往會成為最大的泄密者,但是這不能夠成為任意采集和濫用用戶信息的借口。我們要加強(qiáng)信息采集方面的專門立法,構(gòu)建起清晰的隱私權(quán)權(quán)能內(nèi)容、救濟(jì)方式,清楚界定人工智能服務(wù)所能夠采集的用戶數(shù)據(jù)的范圍,為用戶設(shè)立可提供的個人數(shù)據(jù)范圍的判斷標(biāo)準(zhǔn),加強(qiáng)用戶的危機(jī)意識、防范意識和維權(quán)意識,明晰其救濟(jì)途徑。
2.采取措施應(yīng)對數(shù)據(jù)不對稱的不公平現(xiàn)象
電氣和電子工程師協(xié)會在其首份人工智能報告中指出,數(shù)據(jù)不對稱問題是導(dǎo)致個人信息保護(hù)不力的重要原因,大量的信息數(shù)據(jù)被保存在系統(tǒng)后臺,形成一個多維度、全面性的智能數(shù)據(jù)庫。對于人工智能系統(tǒng)而言,它不僅能夠?qū)崿F(xiàn)數(shù)據(jù)的智能搜索和調(diào)取,還能進(jìn)行加工處理,勾畫出某個完整的個人形象,生成所謂的“數(shù)字化人格”。而反觀作為信息與數(shù)據(jù)源頭的用戶,往往難以了解自己個人數(shù)據(jù)的存儲、管理和利用情況,甚至對個人信息和隱私遭受侵害都毫不知情。針對這種客觀存在的障礙,筆者認(rèn)為法律必須采取一定的措施給予弱勢群體傾斜保護(hù),要充實個人用戶手中掌握的信息,其中的首要措施就是保障用戶的知情權(quán)。我們可以通過法律規(guī)定在個人信息的收集處理和利用時,必須告知權(quán)利主體并征得其同意,建造一種雙向知情機(jī)制:人工智能系統(tǒng)獲取用戶信息,同時用戶能夠獲取信息采集者和管理者的信息。通過這種雙向監(jiān)視形成的相互制衡,能夠讓信息采集者和管理者在披露和濫用用戶數(shù)據(jù)時感受到增加的信息成本,從而起到一定的約束作用。正如《Wired》雜志主編凱文·凱利2016年在廣州“聯(lián)接未來”的主題演講中說到,保護(hù)隱私最好的辦法是讓侵犯隱私的人必須以自己的隱私做交換,為了在大數(shù)據(jù)的使用中盡可能給予隱私尊嚴(yán)和保護(hù),要從采集到使用的全程做到雙向知情,數(shù)據(jù)的采集者和使用者要同樣被監(jiān)督。
3.規(guī)制、監(jiān)管數(shù)據(jù)處理者和使用者
現(xiàn)階段,人工智能系統(tǒng)的數(shù)據(jù)處理者和使用者的主體是多元化的,它既有可能是提供人工智能服務(wù)的企業(yè),也可能是擁有訪問和上傳用戶數(shù)據(jù)能力的第三方主體,這種主體的多元化給數(shù)據(jù)流通的規(guī)制和監(jiān)管增加了難度。筆者認(rèn)為,可以借鑒1990年聯(lián)合國發(fā)布的“個人隱私與數(shù)據(jù)保護(hù)原則”要求,數(shù)據(jù)的使用應(yīng)該符合可持續(xù)發(fā)展的目標(biāo),數(shù)據(jù)的采集方式應(yīng)當(dāng)公平且合法,獲取、分析或?qū)?shù)據(jù)另作他用都應(yīng)該征得用戶的同意,對于弱勢群體的個人數(shù)據(jù)或者其他敏感信息要制定更加嚴(yán)格的保護(hù)措施等等[8]。除此之外,對于那種掌握原始數(shù)據(jù)資料的人工智能企業(yè)要采取適當(dāng)?shù)陌踩雷o(hù)措施,協(xié)助其建立嚴(yán)格的保密機(jī)制并且向其明確一旦數(shù)據(jù)泄露之后的責(zé)任問題,從而防止用戶的個人數(shù)據(jù)被第三方不法利用。在此,蘋果公司引入的“差分隱私”算法值得借鑒,該算法通過加入虛擬數(shù)據(jù),避免數(shù)據(jù)與特定主體之間建立聯(lián)系,同時還可以對第一手?jǐn)?shù)據(jù)進(jìn)行預(yù)處理,使得而后的主體在不讀取數(shù)據(jù)內(nèi)容的情況下仍然可以對數(shù)據(jù)做進(jìn)一步的應(yīng)用,通過這些技術(shù)手段可以很好的為數(shù)據(jù)的使用保駕護(hù)航。而在監(jiān)管方面,可以借鑒已經(jīng)確定的隱私與個人信息保護(hù)與監(jiān)管條例,明確在數(shù)據(jù)流通各個環(huán)節(jié)中的監(jiān)管主體、職責(zé)劃分,對于數(shù)據(jù)的處理、使用以及銷毀進(jìn)行全程的監(jiān)管。不過,正如英國《人工智能:未來決策的機(jī)遇和影響》報告所指出的,政府固然是保護(hù)和監(jiān)管公民個人信息最重要的防線,然而我們不得不思考在政府使用公民的數(shù)據(jù)時,是否能夠同等對待每個公民的數(shù)據(jù),在面對某些利益沖突是否會以犧牲公民信息利益為代價,為此筆者認(rèn)為政府不僅是監(jiān)管者,也需要作為數(shù)據(jù)使用者接受第三方的監(jiān)督,畢竟政府侵害公民才是最危險最無可防備的侵害。
人工智能技術(shù)在21世紀(jì)飛速發(fā)展,而各國的技術(shù)水平不一,發(fā)展起步早、技術(shù)水平高的國家暴露的問題和矛盾較多,引發(fā)的各種爭議促使它們先行探尋解決問題的措施。對于我國來說,人工智能技術(shù)還在發(fā)展階段,與這一新興技術(shù)對應(yīng)的法律規(guī)范尚不健全,缺乏相應(yīng)的監(jiān)管機(jī)制,現(xiàn)階段主要由倫理規(guī)范和社會輿論進(jìn)行約束,然而輿論是多變的甚至是偏頗狂熱的,而倫理規(guī)范也需要一個好的價值觀去引導(dǎo),為此,本文專門探討了人工智能技術(shù)的倫理調(diào)適,以期形成一個客觀公正符合人類共同利益的倫理規(guī)范,從而引導(dǎo)我國相關(guān)人工智能技術(shù)的立法實踐,建立起一套完善的人工智能法律法規(guī)。因為法律的使命不是為科技成就樹碑立傳,而是始終冷靜警醒地觀察科技將會帶來的非理性后果,并且預(yù)先設(shè)計好科技發(fā)展伴隨而來的危險境遇防范機(jī)制。在一個越是輕信科技和經(jīng)濟(jì)至上的社會環(huán)境中,法律的這種先見之明就越發(fā)重要。
但與此同時,我們也應(yīng)當(dāng)認(rèn)識到法律的局限性,立法者總是竭盡所能地想要給社會生活的方方面面以細(xì)致的引導(dǎo)和規(guī)范,但社會生活的變化如此之快,我們的法律切不可閉目塞聽,而應(yīng)該想盡一切辦法將科技的智慧之光與法律的理性之光融合在當(dāng)今這個價值多元化,科技發(fā)展不確定性極大的世界面前,我們要更加珍惜人類文明的價值,探索并完善屬于全人類的人工智能時代。