隨著科技的發(fā)展,人工智能進步迅速。這場被稱為第四次工業(yè)革命的新型技術(shù)在世界范圍內(nèi)炙手可熱。以數(shù)據(jù)輸出來實現(xiàn)人工智能成長的Artificial Narrow Intelligence黑箱亦呈現(xiàn)出向Artificial General Intelligence轉(zhuǎn)變的趨勢。學界普遍認為,發(fā)展到General階段的人工智能會危害人類權(quán)益,而筆者認為,當下源頭上具有由人類控制這一本質(zhì)特征的弱人工智能,已呈現(xiàn)出對性別、種族、家庭收入、國籍乃至國家內(nèi)部的歧視,人工智能“剝奪他人生命”和“自我終結(jié)生命”的問題日益頻繁。必須迅速采取對策和法律規(guī)制方式,保護人類的基本權(quán)利。
1 人權(quán)概述
對人權(quán)的最早探索可追溯至古希臘羅馬的自然法思想和社會契約論;新托馬斯主義學派代表Jacques Maritian提出,人之所以擁有人權(quán),是因為他是一個人,是其自身及行為的全部與主人。唐納利認為,人權(quán)是自然人僅因是人即可擁有之權(quán)利,權(quán)利是一種資格,對某物擁有權(quán)利就是有特定的資格擁有和 享用某物?,F(xiàn)代社會將人權(quán)定義為“普遍的、人的權(quán)利”,又依個人和個人存在方式分為自然人人權(quán)和集體人權(quán)。其主要的含義是:每個人都應(yīng)該受到合乎人權(quán)的對待,人權(quán)的這種普適性和道義性,是它的兩種基本特征。人權(quán)的維持和保障是基本的道義原則。是否響應(yīng)人權(quán)保障要求,無論從政治上還是經(jīng)濟上,都是判斷集團優(yōu)劣的重要標準。
2 人工智能帶來的人權(quán)問題
2.1 對生命權(quán)的沖擊
2019年9月,美國國家運輸安全委員會發(fā)布的波音737飛機的調(diào)查報告顯示波音公司忽視了駕駛艙安全系統(tǒng)問題。而早在波音737在6個月內(nèi)接連發(fā)生空難之際,其空難誘因就已被揭露——人工智能系統(tǒng)和飛行員爭奪飛機控制權(quán)。該機型的mcas系統(tǒng)在感應(yīng)到飛機仰角過大時會強行壓低機頭以維持穩(wěn)定。而一旦智能系統(tǒng)對仰角判斷錯誤,就會直接導致機頭不斷壓低,從而造成機身高速向地面俯沖且駕駛員難以控制的后果。
2015年,大眾汽車納塔爾工廠房間的21歲的汽車企業(yè)外部的男工在和同事一起檢查機器人設(shè)置時被另一臺機器人突襲、抓住胸部并重摔向金屬板致死。經(jīng)檢查并未發(fā)現(xiàn)該機器人存在故障,該案件至今沒有確鑿回應(yīng)。
此外,蘇聯(lián)圍棋手戈德科夫在與機器人的對戰(zhàn)中獲勝卻被機器人落敗后放出的強電流擊倒、奧地利男子家中的家務(wù)機器人為逃避洗碗引燃電源將自己燒成灰燼“自殺”等一系列難以解釋且令人焦慮的事件的存在,使得重新思考人工智能對生命安全帶來的沖擊成為必然。
2.2 性別和非同質(zhì)歧視
亞馬遜曾利用503種計算機模型和數(shù)以千計的關(guān)鍵詞輸入設(shè)計出利用大數(shù)據(jù)和人工智能算法求職實現(xiàn)自動化招聘的精妙的AI工具,降低人力時間和精力成本。如,一求職季中需求職員8人,共收簡歷500份?該工具利用模型和算法篩選出前8名?亞馬遜直接決定錄取這8名員工?自動發(fā)送錄取郵件。令人沮喪的是,該算法工具悖離了研發(fā)人員的初衷,呈現(xiàn)出不喜女性、同性戀、曾患抑郁癥人群的特征。學界有觀點認為,這是因為其樣本多選自男性及具有同質(zhì)化特征人群,長此以往使得AI得出“女性與非同質(zhì)化人群不可靠”的結(jié)論。該解釋固有一定合理之處,但在本案的特殊情境下,顯然與實驗數(shù)據(jù)存在矛盾。
2.3 種族歧視
位于曼哈頓的Propublica報道了預測犯罪的COMPAS模型,其實質(zhì)結(jié)果令人不安。在預測黑人面孔時,其犯罪率遠遠高于黑人實際犯罪率,而從未有過犯罪記錄的黑人被預測為犯罪分子的可能超出白人30%;此外,谷歌瀏覽器中搜索“黑人”時會出現(xiàn)很多猩猩的圖片;麻省理工學院所做人臉識別實驗更是表明:日益精細的人臉識別系統(tǒng)在識別黑人婦女時,成功率只有不到30%。筆者認為,當今社會逐漸以AI縱橫的特點決定了不同于其他與生活息息相關(guān)的科技,人臉識別對人類正常社會生活乃至人身和財產(chǎn)安全有著舉足輕重的作用,任何細微差錯都可能直接或間接對其導向?qū)ο螽a(chǎn)生重大甚至毀滅影響。而在人人本質(zhì)上生而平等的文明社會,不宜秉承邊沁功利主義學派觀點,更不能為多數(shù)人之便利置少數(shù)族裔安危于不顧。人臉識別若存在如此大的漏洞,不應(yīng)在技術(shù)更為全面之前貿(mào)然廣泛推行。
2.4 家庭收入歧視
Facebook進行了一項AI研究。研究人員采用數(shù)種不同算法,從家庭月收入三十美元以下和家一萬美元以上的家庭中分別收集了數(shù)百類生活用品。實驗結(jié)果表明,AI對低收入家庭物品識別的準確率比高收入家庭低了20%。而與落后國家相比,AI在識別發(fā)達國家物品時的準確率提升了15%。
2.5 對隱私權(quán)的侵犯
如今, 人工智能侵犯隱私的情形主要有兩種: 一是侵權(quán)人非法控制人工智能系統(tǒng),比如黑客、病毒等; 二是智能系統(tǒng)本身可能存在瑕疵。隨著人工智能技術(shù)的廣泛應(yīng)用和互聯(lián)網(wǎng)的普及,該趨勢和其產(chǎn)生的侵權(quán)問題日益顯著,依托互聯(lián)網(wǎng)和技術(shù)的特殊性,對該種侵權(quán)行為的控制難度逐步增大。如近來風靡與社交網(wǎng)絡(luò)的利用AI實現(xiàn)換臉功能的軟件的火爆和數(shù)據(jù)隱私泄漏問題給人類的名譽權(quán)、隱私權(quán)帶來的風險,以及該技術(shù)泛濫后可能對公檢法正常工作產(chǎn)生的不利影響。
3 原因分析
3.1 樣本選擇不具有代表性
諾獎得主Sargent在世界科技創(chuàng)新論壇上表示,“人工智能其實就是統(tǒng)計學,只不過用了一個很華麗的辭藻?!边@句話雖然字面意義上略失偏頗,但總結(jié)了AI的核心——統(tǒng)計(筆者在本段以下簡稱“統(tǒng)計論”)。
在目前的弱人工智能階段,統(tǒng)計論尤為正確。由于人工智能屬高科技領(lǐng)域,其研發(fā)人員不可避免地相對集中于教育發(fā)達的國家,而這個集體中家境富裕人群占比較大,其所代表的立場幾乎不可避免地有所傾斜。
此外,很多觀點談到性別歧視認為只是歧視女性,筆者并不贊同。將correlation視為causation易產(chǎn)生重心傾斜、研究不全等問題。截止本論文撰寫之時,AI實驗幾乎都是在傳統(tǒng)社會學意義的“男性行業(yè)”中進行,對男性所遭受的性別歧視和社會角色強制的關(guān)注和保護不夠。出于體力和大部分女性選擇生育的原因、不同性別的人在青少年前后期社會角色極有可能產(chǎn)生分化,加之職業(yè)選擇前社會氛圍、經(jīng)濟文化潛移默化的影響,產(chǎn)業(yè)性別集中化、片狀化現(xiàn)象明顯。男性和女性分別更適合部分職業(yè)、更有部分職業(yè)天賦之說也在理論上更加具有說服力。在此背景下,如果選擇男性集中的行業(yè),如半導體、芯片、材料……或者選擇女性集中的行業(yè),諸如語言、藝術(shù)設(shè)計、教育等領(lǐng)域進行AI模型分析測算,則在前者范圍內(nèi)易出現(xiàn)“歧視女性”,后者范圍內(nèi)易出現(xiàn)“歧視男性”的現(xiàn)象。歧視現(xiàn)象由表及里,層層深入,非一時所能解決,希冀在未來能看到對該問題的重視和研究。
3.2 算法和歧視缺乏法律監(jiān)管
人工智能的算法存在不夠透明的現(xiàn)象,很多甚至還處于黑箱狀態(tài)。算法的研發(fā)者如果在設(shè)計算法時就存在偏見和個人傾向,很難被人發(fā)覺。機器學習技術(shù)進行個性推薦建立在兩個邏輯的基礎(chǔ)上:以過去算將來,以群體算個體,而歧視信息很可能包含在過去和群體的信息里。人工智能技術(shù)因涉及到超越人類的潛力而備受關(guān)注。目前的監(jiān)督主要包括政府政策監(jiān)督、相關(guān)技術(shù)監(jiān)督和民眾監(jiān)督。而且在技術(shù)泛濫的今天,立法和監(jiān)管的腳步很難跟上AI侵權(quán)的步伐。
3.3 道德與法制呈現(xiàn)非平衡特征
高新技術(shù)與經(jīng)濟利益相伴而行,利益驅(qū)使增加了AI背后的人的行為不穩(wěn)定性。法律,是最低限度的道德,而用底線保護權(quán)利無異于戰(zhàn)爭時期用最低保障不至餓死的糧食補充人體營養(yǎng),即使每個研發(fā)者都嚴格遵守法律,也難以有效保障人權(quán)。利用AI技術(shù)偽證、利用公眾人物的臉無縫合成錄音錄像牟利的行為既新興,又屢見不鮮。
4 大數(shù)據(jù)背景下保護人權(quán)的建議
4.1 源頭控制者破除潛在偏見
應(yīng)出臺標準,明確AI的研發(fā)、制造、投入服務(wù)等環(huán)節(jié)的控制人員考慮人權(quán)的義務(wù),盡量避免個人傾向和潛移默化的偏見。將一項人工智能應(yīng)用投入使用時應(yīng)充分考慮該投入可能對人權(quán)和少數(shù)群體的正當權(quán)益產(chǎn)生的不利影響,充分權(quán)衡投比和人權(quán)保護的天平,完善監(jiān)測制度,設(shè)計模型進路化解潛在風險。
成專家小組,同學術(shù)機構(gòu)廣泛展開合作、甚至可培養(yǎng)專門人才,打破當前研究孤立化、零散化、對立化、競爭化的狀態(tài),實現(xiàn)臺階式正向循環(huán)發(fā)展。
4.2 提高數(shù)據(jù)精度
大數(shù)據(jù)環(huán)境下數(shù)據(jù)量快速的積累,要想分析出海量數(shù)據(jù)所蘊含的價值,篩選出有價值的數(shù)據(jù)十分重要。人工智能工程師應(yīng)注重數(shù)據(jù)的來源和質(zhì)量,通過數(shù)據(jù)抽取、數(shù)據(jù)清理、數(shù)據(jù)加載提高數(shù)據(jù)的可用性。減輕AI算法數(shù)據(jù)庫的負擔。
4.3 提高受眾參與度
在受眾參與方面,IOS系統(tǒng)的做法值得借鑒。在2014年前的unicode標準中,只有兩個表情符號為非白人,在IOS系統(tǒng)全球推行的背景下,該現(xiàn)象有潛在種族歧視嫌疑。IOS認識到這一問題并增添了一整套黑人emoji,設(shè)計師表示:“我們要傳達黑人的創(chuàng)造力,設(shè)計產(chǎn)品要讓世界刮目相看。我相信地球上的每個黑人都會愛上這套新表情”。 隨后,IOS表情系統(tǒng)逐步發(fā)展為各色人種,細節(jié)之精妙頗值得稱道。
應(yīng)鼓勵產(chǎn)品的潛在受眾和可能受其影響的人參加到產(chǎn)品研發(fā)中來,降低可能存在的潛在偏見風險,嚴謹求是。此外,應(yīng)提高AI應(yīng)用的透明度和使用主體的知情權(quán),重視AI綁架授權(quán)問題。
4.4 出臺立法明確法律責任
應(yīng)加強研究,賦予人工智能監(jiān)管機構(gòu)對人工智能源頭控制者的監(jiān)督權(quán)。同時出臺相應(yīng)法律法規(guī)并不斷完善,設(shè)立一套完備的問責制度風險操控評估體系,減少研發(fā)者的自發(fā)性。確保人工智能的應(yīng)用充分尊重基本人權(quán),保護人類隱私和名譽權(quán)不受侵犯,當危害結(jié)果發(fā)生后,應(yīng)有行之有效的應(yīng)對措施,明確歸責原則,增強人們對AI應(yīng)用的安全感,從而放心大膽使用。
5 后記
AI科技在歷史的洪流中曲折前行,便捷了人們的生活,是機遇也是挑戰(zhàn)。各界在保留底線的前提下推動、進步,從不成熟到成熟, 從不完善到完善,這個過程既充滿未知,也充滿希望。在其發(fā)展中加強合作和立法探究,以期共同推進人類生活智能化與人權(quán)保護完備化,是世界各國當下正在追求的立法目標。
作者簡介:袁星辰(1997.12-),女,漢族,安徽亳州人,中國礦業(yè)大學(北京)法學專業(yè)本科生,美國薩姆休斯頓州立大學刑事司法學院交換生。
(作者單位:中國礦業(yè)大學(北京))