侯東德,張可法
(西南政法大學 民商法學院,重慶 401120)
20世紀50年代,邏輯學家艾倫·圖靈在哲學期刊《心靈》上發(fā)表了一篇論文,題目是《計算機器與智能》,這篇文章使“人工智能”這一概念正式進入人們的視野(1)“圖靈測試”檢驗方法的提出,標志著人工智能作為獨立的學科正式誕生?!皥D靈測試”是指把一個人和一臺計算機分別置于不同的封閉空間。人和計算機與外界交流的方式僅限于文字信息,人類裁判在另一個封閉空間,并不知道人和計算機所處的具體空間。人類裁判通過分別提問,并根據(jù)回答的情況判斷哪個空間是人,哪個空間是計算機。如果作為裁判的人類不能做出正確的判斷,那就可以認為,這臺計算機具備了人的智能。。隨后計算機技術迅速迭代更新,“深藍”機器人戰(zhàn)勝了國際象棋棋王卡斯帕羅夫,成為了人工智能歷史上的里程碑。在機器計算力成幾何倍數(shù)增長的推動下,大數(shù)據(jù)互聯(lián)網信息革命實現(xiàn)了從線上互聯(lián)到移動互聯(lián),再到智能互聯(lián)的飛躍發(fā)展,引起了包括生產方式在內的社會全方位重大變革,尤其是人工智能在持續(xù)學習、理解和解決問題方面得到普遍發(fā)展,并已經深深地嵌入到我們的社會結構中(2)《深圳經濟特區(qū)人工智能產業(yè)促進條例(草案)》第2條規(guī)定:“本條例所稱人工智能,是指運用人工的方法和技術,利用計算機或者其控制的設備,通過對收集的外部數(shù)據(jù)進行學習、分析,感知環(huán)境、獲取知識、推導演繹,研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術以及應用的能力?!?。智能“小冰”機器人能在極短時間內創(chuàng)作詩篇(3)小冰是一套完整的、面向交互全程的人工智能交互主體基礎框架,又叫小冰框架。少女小冰,是詩人、歌手、主持人、畫家和設計師,與其他人工智能不同,小冰注重人工智能在擬合人類情商維度的發(fā)展,強調人工智能情商,而非任務完成,并不斷學習優(yōu)秀的人類創(chuàng)造者的能力,創(chuàng)造與相應人類創(chuàng)造者同等質量水準的作品。,“阿爾法狗”通過深度學習,利用深度神經網絡技術能自主識別信息[1]。目前,在 ChatGPT 類技術的賦能下,人機交互在人工智能的發(fā)展中起著舉足輕重的作用,人工智能由“分析式智能”向“生成式智能”進化[2]。因此,人工智能系統(tǒng)自身亦可成為“黑客”不再是危言聳聽,它利用智能算法按照既定程序自主尋找目標網絡漏洞,并以快速度、大規(guī)模方式攻擊人類的社會經濟生活(4)2021年7月5日,北京商報報道了新聞《黑客猖獗 一天內全球千家公司遇襲》?!昂诳汀睂⒛繕随i定在IT管理軟件供應商Kaseya(美國資訊科技管理公司)上,通過襲擊Kaseya公司一個名為VSA的工具,向使用該公司技術的管理服務提供商(MSP)進行勒索,同時加密這些供應商客戶的文件。報道指出,現(xiàn)在“黑客”的攻擊已經不僅僅是針對單個公司了,而是盯上了為成百上千公司提供服務的IT服務供應商。。該行為不僅是簡單的網絡攻擊行為,還帶來了社會治理所涉及的法理、制度規(guī)范和司法實踐轉型升級問題,亟需我們認真對待和積極回應。
“黑客”一詞源自英文“Hacker”。《牛津英語詞典》對“Hacker”作如下解釋:“利用自己在計算機方面的技術,設法在未經授權的情況下訪問計算機文件或網絡的人?!薄昂诳汀币话闶侵冈谟嬎銠C科學、編程和代碼設計方面具有高度理解的人。19世紀的美國社會記錄著黑客的技術生活,他們是最優(yōu)秀的代碼編寫者,其中包括研究修改計算機產品的業(yè)余愛好者[3]。部分“黑客”被稱為“電話飛客”,當時的“黑客”一詞被用來稱呼研究盜用電話系統(tǒng)的人士,這個特殊人群堅守協(xié)作創(chuàng)新,其法律行為主體是自然人,被稱為“黑客”1.0級。
20世紀80年代,互聯(lián)網技術飛速發(fā)展,個人計算機進入公眾視野,個人電腦的廣泛普及,成為“黑客”歷史發(fā)展的分水嶺。越來越多的人們開始使用計算機電腦,“黑客”主要攻擊網絡郵箱盜取有價值的信息。后來誕生了木馬病毒,可以致使大批計算機癱瘓,“黑客”開始熱衷于挑戰(zhàn)各種高難度的病毒程序編寫。隨著計算機技術的發(fā)展,眾多“黑客”工具與軟件快速流行起來,通過自學成為一名“黑客”變成可能。“黑客”群體魚目混雜且各自目的不盡相同,甚至有“激進黑客”組織盜取并發(fā)布機密文檔,揭露政府或組織秘密,充當網絡俠客。此時的“黑客”屬于“互聯(lián)網+黑客”的組合,法律行為主體仍然是自然人,互聯(lián)網只是“黑客”行為發(fā)生的場景和工具而已。同時,“黑客”技術發(fā)展的目的也有所變化,商業(yè)化的軟件基金會鼓勵“黑客”在推動優(yōu)質軟件和程序中發(fā)揮作用,并以高昂的獎金作為報酬。商業(yè)逐利性挾裹推動“黑客”逐利性行為,這種“黑客”可以稱之為“黑客”2.0級。
隨著21世紀大數(shù)據(jù)和人工智能技術的發(fā)展,腦科學和神經技術飛速發(fā)展并與計算機技術緊密結合,促進了類似于人腦智能計算機更高層次應用的突破。在大算力驅動強算法處理大數(shù)據(jù)支持下,算法模型的人機交互能力進一步提升,人工智能打破“人”和“物”的絕對界限,創(chuàng)造出了“非人非物”的新“物種”,特別是生成式人工智能具備自動捕獲人類的偏好,編寫惡意代碼和注入攻擊的能力,給人類未來存在的方式帶來了巨大的不確定性。人工智能技術通過和現(xiàn)有互聯(lián)網技術的結合,立足于物理世界之上,通過嵌入式智能算法,開辟了有別于傳統(tǒng)物理設計的虛擬新空間??茖W技術具有“中性”色彩,可以作為生產要素促進生產力的發(fā)展,亦可作為破壞經濟社會發(fā)展的工具?!叭斯ぶ悄芎诳汀笔侨撕椭悄軝C器的交互結合,生物人通過算法程序將自己的目的和意圖嵌入智能程序中,該智能程序會依照算法模塊自主查找漏洞和執(zhí)行算法指令?!昂诳汀钡男袨榉殖闪藘刹糠?一部分是生物人對程序算法的事先設計;另一部分是算法程序模塊通過智能技術尋找網絡漏洞,模仿人類、干擾人類認知,為達到自己目的進行智能化侵入和破壞。此時的“黑客”顯然成為了“人工智能+黑客”的人機組合,屬性復雜,我們可以稱之為“黑客”3.0級。
從歷史路徑看,“自然人黑客”發(fā)展到“人工智能黑客”階段,“人工智能黑客”的人機交互特征明顯區(qū)別于“自然人黑客”及自然人主導的工具性“黑客”,它既具有部分人的主體屬性,能自主學習和簡單思考,會自主觸發(fā)設定條件下的程序運行;又具有部分物的屬性,就如同擬制人的軀干一般,它是算法和程序代碼的載體和運行組合。因此,“人工智能黑客”的屬性定性事關承擔責任的資格問題。如何依據(jù)法律解釋學方法,進一步分析“人工智能黑客”行為的特征、法律地位及可調整性,是當下亟需解決的問題。
“人工智能黑客”是“黑客”主體的數(shù)據(jù)化和智能化,這種智慧化程度區(qū)別于黑客1.0和黑客2.0級別,具有明顯的其他特征?!叭斯ぶ悄芎诳汀钡墓粢话阋蕾囉诒唤;蚬舻娜祟愊到y(tǒng)必須以計算機能夠理解的方式模塊化?!叭斯ぶ悄芎诳汀蹦軌蛲ㄟ^精確的目標函數(shù)算法,了解人類系統(tǒng)的發(fā)展、變化及漏洞所在,利用超強計算力優(yōu)勢,以人類無法預料的方式攻擊目標網絡系統(tǒng)漏洞。
1.具有學習能力
人工智能技術是把“雙刃劍”,給網絡安全帶來了發(fā)展機遇和挑戰(zhàn)。智能算法就像給操作系統(tǒng)安裝了大腦,“人工智能黑客”操縱算法自主學習和運行,算法背后的決策者從而獲得想要的結果。算法的自我深度學習和思考是人工智能科學的一個研究分支,核心在于通過對大數(shù)據(jù)信息分析和模仿人類大腦的認知,做到“數(shù)字化+智能化”的高度融合。“人工智能+黑客”人機交互,是一種類人化智能技術,它在信息技術、仿生學、腦神經學、社會學等大數(shù)據(jù)信息的支撐下,通過程序編輯模塊模擬人的推理和解決問題的能力。算法賦予程序像人一樣對存儲的數(shù)據(jù)進行獨立思考、分析、推理,這種邏輯一定程度上突破了機器原本的智慧框架,放大了機器對數(shù)據(jù)的自主學習判斷,產生了一種機器的自我簡單意識。目前,機器學習方面的深度學習已經能夠自主建立模式識別模型。譬如,“人工智能黑客”利用算法分析大量被盜信息記錄,識別潛在受害者特點并發(fā)送有效針對釣魚類的電子郵件,獲取非法利益。智能化算法甚至通過分析人類植入的無序面部表情、呼吸、心率等數(shù)據(jù)來閱讀人們的情緒變化,它的優(yōu)勢不僅在于擁有快速的運算能力,還能在某些過程中自主發(fā)現(xiàn)問題,為用戶量身定做攻擊誘餌,用超強的運算力催生出難以解釋的算法邏輯(5)2016年,人工智能程序“阿爾法狗”在與世界頂級圍棋棋手李世石的對弈中獲勝,其最著名的一手是第2局的第37手,這手棋是高水平人類棋手絕不會選擇的一手,人工智能程序“阿爾法狗”的選擇很難加以解釋。,并在科學技術迭代中實現(xiàn)升級。
2.算法具有不可解釋性
算法的可解釋性可以從兩方面去理解:一方面是算法模式是如何運行的?這是算法功能主義的視角;另一方面是算法到底能產生什么?這是從算法的事后解釋視角而言的,其包含算法語言、算法模塊的可視化工具等。顯然,這些并沒有觸及可解釋性的本質,要探究算法的可解釋性,就必須理解技術原理及算法運行的實踐,明確算法可解釋的路徑及解釋程度。人工智能是腦科學、神經學、心理學、生物學、機械學、電子學和信息學等學科的有機整體,它增強了系統(tǒng)的行為、感知和認知能力。迄今為止,算法的可解釋性在學界和實務界既未達成共識,也未探索出一種相對主觀的角度進行描述。此處的“解釋”是指人類與算法決策者的一種交互行為,雙向構成一個面,就是說解釋行為本身是算法決策者的精準代理,且該解釋又能為人類所理解。如果達不到這種雙向目標,就不具備可解釋性,即智能算法具有不可解釋性。人工智能運算是函數(shù)關系的邏輯表達,我們目前能做的僅僅是算法模型的設計符合法律要求。而強人工智能通過深度學習后產生的不可解釋,給“人工智能黑客”的攻擊留下了足夠的生存空間。顯然,人類也是積極通過履行算法透明義務類似的方式,通過可視化、示例或元素重新排列等不完全精準的方式應對算法的不可解釋性。
3.主動尋找代碼漏洞
目前很多公共系統(tǒng)都使用了開源機器學習庫,攻擊者可以隨意查看其中的代碼,從而尋找可供利用的漏洞,譬如,2022年4月,西北工業(yè)大學遭美國國家安全局“黑客”攻擊,竊取該校關鍵網絡設備配置等核心技術數(shù)據(jù)?!昂诳汀敝恍枰莆蘸苌俚南到y(tǒng)信息,便可制作出有效的對抗性樣本,尤其“人工智能黑客”可以利用技術侵入的手段,通過預先設計的算法邏輯,鎖定攻擊目標(一般是金融機構或AI企業(yè)),用算法程序自動去尋找、檢測被攻擊對象的系統(tǒng)漏洞,進行目標追蹤、攻擊樣本的篡改、私自加密重要文件或者模擬人的行為發(fā)出勒索要求等,這些行為都是在算法程序中進行了事前行為預設,預設的可能性方案幾乎達到了窮盡。因此,從發(fā)生概率的角度而言,只要有漏洞存在,就會被預先設定的算法技術捕獲,“人工智能黑客”尋找漏洞的能力大大超越傳統(tǒng)“黑客”。
4.加強分布式拒絕服務攻擊
分布式拒絕服務攻擊是指大量受黑客控制的僵尸主機對目標主機發(fā)起攻擊行動的行為[4],其特點類似于軍事上的飽和性攻擊,“人工智能黑客”進一步加強了這種攻擊的能力。智能化“黑客”可以在不同位置潛伏下來,多個攻擊者同時向一個或數(shù)個遠程目標發(fā)動攻擊,或者一個“人工智能黑客”攻擊者控制位于不同位置的多臺機器,利用程序代碼控制這些已受侵入的機器對漏洞目標同時實施攻擊。這是目前最難防御的網絡攻擊行為?!叭斯ぶ悄芎诳汀辈幌袢艘粯泳哂袀惱淼赖碌膬r值判斷能力,也不會存在犯意中止的覺醒,它會以人類無法預料的方式入侵系統(tǒng),這種攻擊速度快、規(guī)模大、危險性強。具體表現(xiàn)為:一方面,“人工智能黑客”利用大數(shù)據(jù)和智能算法快的技術優(yōu)勢,病毒程序傳播速度驚人,它能在最短的時間甚至于幾秒就可以完成一個侵入網絡系統(tǒng)的過程;另一方面,“人工智能黑客”在程序設計之初的目標明確,自動按照程序代碼尋找網絡系統(tǒng)漏洞,它會潛伏等待觸發(fā)時機,也會通過欺騙技術獲得網絡使用人的信任,以極快的速度發(fā)現(xiàn)可以利用的漏洞,將以人們無法預測的規(guī)模進行攻擊,破壞力巨大,危險性更強。
縱觀民事主體發(fā)展“人可非人”到“非人可人”的歷史脈絡,闡釋了法律主體只是滿足社會需要的法律形式。從古羅馬法到現(xiàn)代民法,主體范圍在不斷擴大[5]。譬如,《德國民法典》在確立法人人格時,創(chuàng)造性提出“權利能力”概念并不具備倫理學上“人”的所有特性[6]。主體資格的認定盡管要考慮倫理性,但科技的進步使該因素被弱化,主體資格的確認還應當關切財產和責任主體的獨立性。法人人格的確認,是出于一種功利主義視角,這種主體資格認定的異化不會產生負外部性?!叭斯ぶ悄芎诳汀彪m然逐漸在脫離法律客體“物”之屬性,但是異化后的主體人格有限,其本質仍是一種“人格性工具”。因此,對于“人工智能+黑客”的人機交互行為,賦予“人工智能黑客”有限人格,還是確定為“人格性工具”,這是建立“人工智能黑客”監(jiān)管整體框架的首要任務。
法律主體說認為人工智能具備人格屬性,法律應當明確承認人工智能的法律關系主體資格。理論基礎是人工智能在超級階段存在感情表達,具備意識能力,與人類有情感上的聯(lián)結(6)我們將人工智能按照發(fā)展程度分為弱人工智能、強人工智能和超級人工智能三個階段,有些學者認為,超級人工智能具有獨立的自我意識,具備意識能力。。法律客觀說認為人工智能不具有自然人的自然屬性,也不同于立法技術擬制下產生的獨立法律人格,缺失主體適格的法理基礎,人工智能就是編程技術代碼、算法的綜合體,不具有法律主體地位,具有民事權利上的“工具性人格”。
賦予法律主體資格的目的是保障社會有序發(fā)展,“人本主義”是任何制度的基本原則遵循,人之主體地位的獲得,依賴于人在進化發(fā)展過程中養(yǎng)成的自由意志[7],人工智能法理也不例外。人工智能主體說基于假象的人工智能可能存在的某種能力,在未區(qū)別算法系統(tǒng)展示的機器“自我意識”和“人本主義”下人類“獨立的意思表示”的巨大區(qū)別,不加分析和澄清就賦予人工智能主體資格實屬荒謬。同樣,作為“人工智能黑客”的主體認定也就成了無稽之談?!叭烁裥怨ぞ摺钡亩ㄎ?有利于人工智能法律治理的實現(xiàn)。譬如,“人工智能黑客”冒充財務負責人給財務人員發(fā)送釣魚電子郵件或語音,指示其完成一筆特定轉賬??陀^說能從法律關系的構造上越過人工智能的主體因素,直接尋找真正的責任主體,而非虛擬化的“人工智能黑客”主體。
筆者認為,“人工智能黑客”建立的“算法—學習—思考—行動”的自主性邏輯機構,并不能合乎法理地得出“人工智能黑客”法律人格的結論,況且“自主性”行為的判斷主要依據(jù)意思自治和決策能力,自我學習和簡單思考只是人工智能發(fā)展的方向?!肮ぞ咝匀烁瘛迸袛嗟谋举|不是理性邏輯結構,構建法律上的權利和義務關系框架才是其認定標準。
在“人工智能黑客”法律關系的認定中,責任承擔的主體是“人工智能黑客”的創(chuàng)造者、設計者、所有者和管理者等,權利義務關系的調整無須另建一套存在瑕疵的人工智能主體法律歸責體系。只需在現(xiàn)有法律框架下,充分考慮“人工智能黑客”的特殊性,尤其是智能化程序和算法區(qū)別于一般客體的特點,在法律關系的構造以及邏輯關系上進行梳理,其方法是在現(xiàn)有相關規(guī)范基礎之上,運用解釋工具進行調整或在制度供給上適當增加。
“黑客”是非法侵入計算機系統(tǒng)的行為人,人工智能“人格性工具”身份的表達通過算法或算法系統(tǒng)實現(xiàn)?!叭斯ぶ悄?黑客”人機交互結合,會產生如何區(qū)分是人的故意的行為還是算法載體的問題,加上算法的不易解釋性和不透明性,人們很難理解它的邏輯或其決策機制,使這個問題更加復雜化。“人工智能黑客”由他人編寫運行程序,利用大數(shù)據(jù)技術支撐,在算法設計的范圍框架下智能系統(tǒng)自動運行的結果,這種網絡侵入或攻擊并不是漫無目的的,通常是從利益者本位出發(fā)。美國學者蒂姆·林報道了一項深入研究,聲稱網絡犯罪分子使用深度造假和其他人工智能技術試圖破解銀行、企業(yè)和政府使用的人臉和語音識別安全[8]?!昂诳汀惫粜袨橛绊懥巳斯ぶ悄苘浖皵?shù)據(jù)算法決策控制者的利益(7)新華每日電訊報道:2021年5月10日美國聯(lián)邦調查局發(fā)布聲明稱,美國主要成品油管道運營商之一科洛尼爾管道運輸公司遭到黑客攻擊,旗下承載著美國東海岸近45%供油量的輸油干線7日起被迫關閉,至今尚未恢復工作,導致美國多個州和地區(qū)燃油供應面臨危機。這起切斷美國供油“大動脈”的黑客攻擊來自哪里?如何發(fā)生?為何對美國能源基礎設施運營帶來如此巨大影響?據(jù)介紹,“黑暗面”勒索軟件采取逐漸成為主要趨勢的“雙重勒索”策略,首先竊取存儲在受害者系統(tǒng)內的敏感信息,然后對這些敏感數(shù)據(jù)加密并發(fā)出換取密鑰的贖金要求。。而且這種“人格性工具”否定性行為后果還面臨回應算法程序介入法律價值、法律關系以及法律行為帶來的價值判斷問題。
信息技術革命打造了現(xiàn)實與虛擬相互交融的同構生態(tài),傳統(tǒng)的生產方式在物理空間上得到突破,創(chuàng)設了新型法律關系主體和客體,尤其是人工智能技術開啟了人機融合的新時代,智能化的生產方式,加入了非人類的機器主體,不斷沖擊著傳統(tǒng)世界的確定性,當機器變得足夠復雜的時候,機器將不再是人類的朋友,也不是人類的主人,而是人類的伙伴[10]。智能機器人人格屬性問題日漸突出。主體作出行為,客體承受行為,一個具有人格性的客體會被如何認定?這種不確定的區(qū)分將會帶來法律上的難解之題[11]134。智能行為介入生產,甚至于發(fā)生侵權行為,譬如自動駕駛汽車,“黑客”發(fā)起的某一次攻擊行為,都會對傳統(tǒng)法律行為主體、客體范疇的定義、內涵、外延、法律屬性等帶來挑戰(zhàn)。傳統(tǒng)意義上的權責利關系正面臨重塑,該示例所涉及主體包括汽車制造商、軟件開發(fā)商、汽車所有人、程序開發(fā)人員和交通事故受害者。算法賦值自我檢測漏洞能力下智能化攻擊,涉及長鏈條的眾多利益相關者,其軟件編寫程序員眾多,算法和代碼迭代周期短,易造成“人工智能黑客”的身份難以捕捉,如何歸責不易判斷,諸如種種問題就會變得異常復雜和模糊,其結果只能是鏈條上的責任相關者都會成為被告,出現(xiàn)“法不責眾”的尷尬結局[11]136。人工智能本來是技術要素,“黑客”智能程序自主尋找漏洞并侵入的行為,顯然將一方的權利擴大,譬如某些富人想利用人工智能來逃稅,“人工智能黑客”就會通過算法黑箱穩(wěn)固有利于特定群體的權力結構。
法律行為屬于法律事實的一種,是能引起法律關系產生、變更和消滅的活動(行為)。同法律事件不同,它以人的意志為轉移,是人們有意識的活動。“人工智能黑客”在虛擬化和匿名化特性的遮掩下,使算法動機、目的和因果關系復雜難辨。在人機混合模式下,人工智能獲得深度學習的算法訓練,智能算法的運行是設計者的意思表示還是機器本身純粹的 “算法意識”?“人工智能黑客”是決策者的意志還是機器人自主學習的意志?機器人的深度學習開發(fā),會出現(xiàn)連程序員都無法解釋的高度不確定性和難以控制性,給法律行為的認定帶來重大挑戰(zhàn)。智能化發(fā)展使人機協(xié)同更加緊密,計算機智能程序、互聯(lián)網體系從一種工具變成了“代理人”,對人的道德評價很難在機器上實現(xiàn),通過機器行為和責任脫鉤將會成為普遍現(xiàn)象,越來越多的人將責任轉嫁到機器身上[12]。在自動駕駛的交通事故,無人機錯判誤殺平民,“人工智能黑客”攻擊金融網絡等問題上,“誰來為機器的行為負責”,是技術設計缺陷或其他原因?計算機系統(tǒng)中的錯誤或不當行為的來源可以原則上溯及至軟件設計作出的決定人,無論合理與否[13]。恰恰追責難度在于,程序不像一個產品,有出廠的地址,程序的設計可能由多人開發(fā),程序的產生可能無法追蹤到某個具體的個人或組織[14]。為了回應“人工智能黑客”帶來的法律難題,我們必須去偽存真,找到“人工智能黑客”的真實面貌。如前面論述,“人工智能黑客”具有“人格性工具”屬性,是自然人主體通過算法技術利用網絡媒介進行網絡犯罪的行為,“人工智能黑客”的核心在于程序算法,也就是說,對“人工智能黑客”規(guī)制的核心在于對智能算法的規(guī)制。
可規(guī)制性探討的是某一行為主體是否具有可歸責的資格?!叭斯ぶ悄芎诳汀钡牡絹?似乎把算法程序設計者推向了幕后,智能算法自動執(zhí)行的“人格性工具”成為假象,在算法的設計者與算法作用的對象之間產生了阻隔,形成“算法程序開發(fā)的人”—“人工智能黑客”(算法實現(xiàn))—“被攻擊的對象”這樣的邏輯路徑。但是,智能算法的本質是人機交互決策,其邏輯結構是且、或、非。即使是自主決策系統(tǒng),也只是在且、或、非三種邏輯結構中程式化、模塊化地作出決定[15]?,F(xiàn)有算法不是完全確定和完全隨機的,受程序化邊界的限制,是為了快速實現(xiàn)某個目標對一組數(shù)據(jù)進行處理的邏輯步驟,形式上算法系統(tǒng)自主作出法律行為,但實質上此種智能化的意思表示仍然是設計者意思表示的延伸。因此,在算法與法律行為的關系上,二者不能作同類型化對待。
算法可作狹義、廣義和中義的定義,狹義的算法源于數(shù)學與計算科學,是用于表述解決數(shù)學與計算科學難題的一系列規(guī)則,狹義的算法被視為純粹的科學或技術。例如數(shù)據(jù)結構算法、數(shù)論與代數(shù)算法、計算幾何算法等。廣義的算法是指算法不僅應用于數(shù)學計算科學領域,還被廣泛應用于其他社會科學領域,例如廣泛使用各領域為減少決策步驟和程序的運算,進行自動化決策,證券自動交易系統(tǒng)就屬于這種范疇。中義算法介于狹義和廣義之間,界定為人類和機器交互的決策,即人類通過代碼設置、數(shù)據(jù)運算與機器自動化判斷進行決策的一套機制[16]。人工智能算法可以通過大數(shù)據(jù)技術形成一定的學習能力,甚至達到深度學習的程度。但是,智能算法的學習區(qū)別于人類大腦的學習,它并不是具有情感和認知層面的學習。舉世矚目的沙特機器人公民“索菲亞”,外形與生物人幾乎無差別,但其本質脫離不了算法和數(shù)據(jù)處理器?!八鞣苼啞钡男袨橥耆恐悄芩惴ㄖ鲗?按照工作邏輯框架,將人的語言和對外界的感知在控制系統(tǒng)儲存的眾多數(shù)據(jù)中進行加工和處理,進而輸出語言和特定的指令動作。
“人工智能黑客”采用的算法是自動化決策,自主尋找網絡漏洞或者專門針對特定攻擊目標的惡意算法,這種算法既不是數(shù)學或計算機科學意義上的算法,也不是純粹關于人類行為的決策算法[17]。“人工智能黑客”的算法既有人的決策,又有機器的自動判斷,屬于中義上的算法。這種算法除了純粹的技術因素,還通過場景化的方式把算法自動執(zhí)行的指令深入介入生活的方方面面。例如為達到特定的商業(yè)目的,利用算法實現(xiàn)最大推送量、獲得最高點擊率、追求利益最大化[18]。攻擊者還可以通過設計故意觸發(fā)缺陷的程序實現(xiàn)某種獲利?,F(xiàn)實中有一種叫作“雙層愛爾蘭夾荷蘭三明治”的避稅方法,美國高科技企業(yè)利用智能算法在多國之間尋找稅收法律系統(tǒng)漏洞,通過其設在愛爾蘭和荷蘭的子公司,將企業(yè)利潤轉移至低稅或無稅管轄區(qū),從而逃避其應當在美國繳納的稅款(8)雙層愛爾蘭夾荷蘭三明治國際避稅模式[EB/OL].[2021-12-21].https://wenku.baidu.com/view/ 057050e 5a31614791711 cc7931 b765ce04087a14.ht.。
總而言之,機器的決策具有客觀性,是主體實現(xiàn)目標的媒介。人的目的性決策取決于程序的編制和算法的構建,是借助技術手段把主體的主觀善惡植入算法中,算法程序設計者通過客體的媒介,利用算法技術,為達到不可告人的特定目的。媒介恰恰成了幕后決策者的“面紗”,有這層“面紗”的隔離,就會阻礙算法正義和法律行為構造上嵌入價值判斷,如果不揭去“面紗”,對價值與倫理問題視而不見,就很可能忽視算法對人類價值倫理所帶來的挑戰(zhàn)?!叭斯ぶ悄芎诳汀钡乃惴ú⒎莾r值的中立,在“人本主義”理念下,算法系統(tǒng)隱含著幕后算法程序開發(fā)者的意思表示也并非例外。
人工智能帶來的擔憂不是空穴來風,究其根本,是人們來自內心深處對人工智能不確定性的恐慌[19]。人工智能系統(tǒng)越智能化,它就越不透明和不可解釋?!叭斯ぶ悄芎诳汀鼻∏±昧怂惴ǖ牟煌该骱筒豢山忉屝?以及發(fā)現(xiàn)漏洞的突出能力,給金融、國家安全等重點領域帶來巨大威脅,甚至在被視為“黑客”天堂的域外拉美各地出現(xiàn)了利用當前社會危機獲取人們個人信息的情形[20]。因此,社會需要建立能夠快速有效應對攻擊的彈性治理架構。
1.構建人工智能算法的倫理規(guī)范
智能算法時代,形成了物理(現(xiàn)實)/電子(虛擬)的雙重空間,數(shù)據(jù)挖掘和智能算法,編織出全新的智能生態(tài)。在虛擬空間算法為王,掌握算法決策權就意味著掌握了虛擬空間話語權[21]。也就是說,算法成為一種特殊的經濟資源,在一定條件下深刻影響著社會秩序的建構。
通過摸底動員,工作小組在4月又分別召開不同層次的座談會和戶主會,同時充分發(fā)揮黨員示范崗的作用,每個黨員上門到聯(lián)系戶簽訂入社意向協(xié)議,最終90%村民形成入社共識。
由于人工智能被嵌入人類的知識、程序和算法,具有了一定的自主學習能力,并模仿人的智慧性甚至感情,因此“人工智能黑客”會大大超越以前沒有靈性的機器,人工智能在給人們帶來欣喜的同時挑戰(zhàn)著法律、倫理和秩序??萍嫉陌l(fā)展離不開自由和創(chuàng)新精神,一般情況下,人工智能設計者不會理會技術引發(fā)的倫理問題。設計算法技術時對道德觀重視不足,代碼和算法的秘密操控技術也許會掌控在社會責任感冷漠的人手中,由此來看,除了法律規(guī)制,需要構建可靠的科技倫理規(guī)范。2021年發(fā)布的《深圳經濟特區(qū)人工智能產業(yè)促進條例(草案)》第68條規(guī)定設立人工智能倫理委員會(9)《深圳經濟特區(qū)人工智能產業(yè)促進條例(草案)》第68條:市人民政府應當按照國家人工智能治理相關規(guī)定,設立人工智能倫理委員會,履行下列職責:(一)研究制定人工智能領域的倫理規(guī)范;(二)建立健全人工智能倫理安全標準管理制度,引導和規(guī)范人工智能倫理安全標準的制訂和實施;(三)對數(shù)據(jù)壟斷、算法歧視、智能濫用、深度造假、數(shù)據(jù)投毒、隱私保護、倫理道德、不平等智能操作以及對社會結構的影響等重點領域開展監(jiān)測與研判;(四)發(fā)布人工智能倫理安全實踐指南、人工智能倫理安全白皮書以及人工智能企業(yè)倫理安全治理優(yōu)秀案例集等,引導不同類型的人工智能企業(yè)建立完善倫理安全治理制度;(五)評估、監(jiān)督本市人工智能企業(yè)的倫理規(guī)范執(zhí)行情況;(六)其他應當開展的活動。,構造人工智能的倫理框架。一方面,需要將道德算法嵌入算法體系當中,程序設計者有道德上的信義義務編寫程序,程序的運行不能嵌入非道德意識指令,更不能人為創(chuàng)設算法“黑箱”,融入個人或少部分人的利益因素;另一方面,在使用者和人工智能互動場景中加強道德建構[22],加強對技術利用的指導,讓使用智能算法的人在道德高地不能利用算法技術牟取私利,甚至利用算法漏洞進行違法犯罪行為。要用道德義務抑制不公平、不道德的因素滲透到代碼和算法的應用場景,從而減少“人工智能黑客”利用漏洞帶來的社會風險。
2.尋求利益相關者的共同支持
為實現(xiàn)對人工智能技術風險的有效治理,實現(xiàn)人工智能“善治”,我們需按照“以人為本”的倫理發(fā)展路徑,讓算法相關決策者、使用者在管理過程中適當讓利益相關者參與其中,在算法技術風險問題上進行多方合作,并且對利益相關者之間的利益進行協(xié)調平衡,建立有效溝通機制,使人工智能算法在設計上受到技術道德約束,使用者受到法律制度約束,決策管理者受到信義義務約束。只有充分考慮人工智能產品倫理的可規(guī)制性、社會運用的平穩(wěn)贊許性和發(fā)展的“人本主義”可持續(xù)性,才能建立智能算法設計者、人工智能產業(yè)界和市場末端利益一體化,對“人工智能黑客”治理目標一體化,從而達到對超越技術設置框架的“黑客”行為的規(guī)制。
代碼和算法是人工智能的基礎和關鍵,也是“人工智能黑客”的真實面貌,它決定著人工智能行為的識別判斷、邏輯能力和行為方式。“人工智能黑客”的行為在代碼和算法技術框架下進行,應對“黑客”風險的存在,離不開設計開發(fā)者的技術自律規(guī)制。美國頒行《為人工智能的未來做好準備》規(guī)則,第1條明確指出了自我審視(10)《為人工智能的未來做好準備》第1條建議:鼓勵私人和公共機構自我審視,判斷自身是否能夠,并通過何種方式負責任地以造福社會的方式利用人工智能和機器學習。。同時,面對“人工智能黑客”隱蔽性強、技術程序復雜的現(xiàn)狀,加強應對“人工智能黑客”的人工智能技術是最佳的選擇。
1.發(fā)展人工智能監(jiān)管“黑客”的技術
法律對人工智能安全風險防范的評價是一種價值判斷,技術自身的功能價值由技術客觀屬性決定。同理,“人工智能黑客”產生的社會后果歸屬于法律去評價,但是人工智能技術被“黑客”利用,或者該項技術就是一種“黑客”的智能算法程序,那么,對于技術上的風險防范通過技術渠道更為科學。一是設置風險防控智能決策程序。對于每一項算法程序運行的框架邊界,首先要進行科學的評估,在此基礎上,用更先進的人工智能技術監(jiān)督算法程序的運行情況,如果算法運行有逃逸設置框架邊界的風險,就會啟動智能決策程序,對該算法程序運行的風險進行評估和跟蹤,對使用者單位或個人進行預警或提醒,這種技術能對技術的監(jiān)督產生“安全閥”的效果。二是建立人工智能技術開發(fā)審慎原則。在技術開發(fā)上加強前瞻性預防和約束性引導,建立安全、可靠和可控底線思維模式,堅決制止將價值判斷的決策權利交給算法,避免算法在超強計算力的支撐下,形成“制定標準、編寫代碼的人擁有的控制力量”[23]。三是優(yōu)化算法可解釋性及透明度。人們對人工智能計算的擔憂在于其具有不確定性,普通人根本不會知道算法運行的原理和背后的目的,算法可以利用人類的弱點欺騙人類。可解釋性義務本質是針對算法設計的,實質在于保證算法模型的設計符合法律要求,使算法能夠被監(jiān)管者知悉是否在正當?shù)目蚣軆冗\行。算法的透明度在于確保使用者在一定程度了解算法運行的原理,并對涉及權益的算法決策建立合理預期。四是設計人工智能監(jiān)督軟件,訓練其辨別網絡正常與可疑行為之間差別的能力,形成“防火墻”,當發(fā)現(xiàn)潛在威脅時,做到及時預警,跟蹤、鎖定目標,并切斷網絡侵入(11)中國科學院成都文獻情報中心信息科技戰(zhàn)略情報團隊.CERN科學家用人工智能新手段防御黑客攻擊[J].中國教育網絡,2017(8):43.。
2.加強國際間人工智能技術的合作
2017年1月,美國計算機協(xié)會下屬的美國公共政策委員會發(fā)布《算法透明性和可問責性聲明》文件,其規(guī)定了七條規(guī)則:其一,相關主體應當意識到算法中可能存在的偏見和潛在危害;其二,監(jiān)管機構應當構建一定的機制,以便因算法決策而受到不利影響的個人和組織能夠提出質疑并得到救濟;其三,算法做出決策的后果應當由使用它的機構承擔;其四,鼓勵相關組織和機構對算法的具體決策進行解釋;其五,算法的設計者有義務對訓練數(shù)據(jù)加以說明;其六,模型算法、數(shù)據(jù)和決策應當被記錄以便審查;其七,算法構建者應當定期做測試以評估該算法是否會產生損害性結果,并鼓勵將結果公之于眾(12)ACM US Public Policy Council. Statement on algorithmic transparency and accountability[EB/OL].(2017-01-12)[2021-12-21].https://www.acm.org/articles/bulletins/2017/january/usacm-statement-algorithmic-accountability.。2018年1月,美國紐約州通過《算法問責法案》,其對人工智能的算法可解釋性、可問責性等提出了要求,以應對算法黑箱和算法錯誤等問題。2019年4月,歐盟發(fā)布《人工智能倫理準則》。2020年2月,羅馬發(fā)布《羅馬人工智能倫理宣言》等。我國也應當積極參與和應對,秉承開放合作的態(tài)度,與各國攜手探索人工智能的科學前沿,進一步完善人工智能及網絡安全戰(zhàn)略的不足,逐步提升我國人工智能安全的國際話語權[24],共同推動人工智能的創(chuàng)新應用。
“人工智能黑客”在法律人格屬性上表現(xiàn)出濃烈的技術性和替換性?!叭斯ぶ悄芎诳汀敝黧w的不適格,并不代表智能“黑客”攻擊行為造成的損失無法追究。主體不適格是從主體類型化的角度,給予“人工智能黑客”主體資格否定性評價。從“人工智能黑客”功能主義視角,“人工智能黑客”作為“人格性工具”適格,物的功能發(fā)揮主要是主體利用客體產生一定的法律關系?!叭斯ぶ悄芎诳汀钡漠a生源自人工智能設計開發(fā)者,智能“黑客”的行為就是設計者程序編制的意思表示外在延伸,是一種責任主體和特殊客體的利用與工具關系,因此,采用“穿透”問責的方式能更好理清法律關系。
1.決策者的刑事責任
人工智能技術的非法應用會產生兩種危害:一種是人工智能體被濫用或誤用造成的社會危害;另一種是人工智能體借助“深度學習”技術做出“自主決策”和行為導致的社會危害,“人工智能黑客”就屬于第二種情況。針對利用“人工智能黑客”攻擊人類的行為,從“人格性工具”歸責出發(fā),強調“人工智能黑客”是否具有刑事責任主體資格。從目前主流觀點的法律地位否定說而言,一方面“人工智能黑客”沒有獨立于人類的權利和價值,只有利益附屬性;另一方面“人工智能黑客”沒有人類的思想觀念和倫理感知。因此,“人工智能黑客”不能被擬制為犯罪主體,不具備刑法預防和懲治犯罪的功能承擔。否則,決策者會利用“人工智能黑客”的主體地位逃避法律責任承擔。
從實證角度出發(fā),“人工智能黑客”程序的運行始發(fā)于設計編程,設計者是人工智能的實際控制人,哪怕是“黑客”行為,也沒有脫離程序的控制?!叭斯ぶ悄芎诳汀辈痪邆涑袚熑蔚淖灾骺刂颇芰?因為人的自主控制能力帶有內心意思表示,“人工智能黑客”即使是自主觸發(fā)指令,那也是在設計者預先設計好的框架下觸發(fā)的,觸發(fā)的攻擊不是機器思考的結果,是設計者事前預設的結果,這種設計者的事先預設行為就具有主觀上的故意性?!叭斯ぶ悄芎诳汀币鸬纳鐣:π詷嫵煞缸锏?必然要承擔刑事責任。
因此,為維持網絡空間的安全與秩序,打擊利用計算機系統(tǒng)與網絡信息技術實施犯罪的行為人,《中華人民共和國刑法》規(guī)定了一系列關于破壞計算機信息系統(tǒng)的犯罪,以保護計算機信息系統(tǒng)安全?!吨腥A人民共和國刑法修正案(九)》(以下簡稱《刑法修正案(九)》)又補充規(guī)定了一系列網絡犯罪罪名(13)最高人民法院、最高人民檢察院發(fā)布7起侵犯公民個人信息犯罪典型案例之五:“肖凡、周浩等侵犯公民個人信息案”——利用黑客手段竊取公民個人信息出售牟利,構成侵犯公民個人信息罪。,以保障網絡空間安全和網絡服務業(yè)的健康、有序發(fā)展。因此,故意利用人工智能進行犯罪,如故意殺人、盜取金融財產、偷稅漏稅等,此時的人工智能程序算法應當被認定為犯罪工具,依照故意犯罪追究算法程序的設計者、編制者責任。譬如,當“黑客”入侵非計算機場景系統(tǒng)盜竊數(shù)據(jù)信息時,可參照“非法侵入計算機系統(tǒng)罪”懲戒犯罪(14)“肖開海非法獲取計算機信息系統(tǒng)數(shù)據(jù)案”——以黑客手段竊取手機ID密碼的刑事責任,(2017)粵20刑終258號。該案中犯罪嫌疑人以黑客手段,侵入蘋果手機系統(tǒng),通過有關軟件獲取該蘋果手機ID密碼,再高價予以出售。蘋果手機ID密碼可以在任何計算機終端使用,用于確認用戶在計算機信息系統(tǒng)上操作權限的數(shù)據(jù),是身份認證信息,屬于計算機信息系統(tǒng)數(shù)據(jù)。犯罪嫌疑人的上述竊取行為符合非法獲取計算機信息系統(tǒng)數(shù)據(jù)罪犯罪特征。。倘若“黑客”入侵并控制了汽車的智能系統(tǒng)涉及危害社會公共安全時,犯罪手段和結果形成了牽連關系,為保護更大法益,則應當按照侵害公共安全性故意犯罪論處[25]。如果是因為設計者的過失導致,在刑事責任評價上,應當預見人工智能程序在運行過程中會產生“黑客”程序的客觀后果,由于技術上的疏忽或輕信發(fā)生概率極低而忽略,程序設計者承擔過失犯罪的刑事責任。
假如設計者既無故意,也無過失,即人工智能脫離了設計編程實現(xiàn)設計框架,應當認定為脫離了人的控制,不再是人的工具,符合人工智能產生時因技術局限而無法意識到的缺陷的抗辯事由,屬于意外事件。另外,刑法作為維護社會秩序的最后一道屏障,在發(fā)揮預防和懲戒犯罪功能時,為促進人工智能技術的發(fā)展,應當保持適當?shù)闹t抑性。
2.決策者的行政責任
行政處罰作為法律制裁的一種方式,能夠在一定程度上剝奪或限制違法行為人的人身和財產權利,具有懲戒性,是網絡安全行政法保護的重要保障。網絡空間安全的行政處罰對象是違反網絡信息安全秩序的行政相對人。我國實行網絡違法“一案雙查”制度,即在對網絡違法犯罪案件開展偵查調查工作時,同步啟動對涉案網絡服務提供者法定網絡安全義務履行情況的監(jiān)督檢查。在“人工智能黑客”非法行為的行政責任承擔上,“人工智能黑客”不具備行政相對人的資格,當其違法行為發(fā)生且不構成犯罪時,它對社會秩序造成的破壞由相適應的法律規(guī)范加以評價和約束?!叭斯ぶ悄芎诳汀钡膶嶋H控制人是適格的行政相對人主體,有義務承擔相應的法律后果。
《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)列舉了實施危害網絡安全的具體行為,責任承擔的處罰種類涵蓋警告、罰款、信用懲戒等;《中華人民共和國計算機信息系統(tǒng)安全保護條例》規(guī)定了危害計算機系統(tǒng)安全的行政處罰條款,其中危害行為包括故意輸入計算機病毒以及其他有害數(shù)據(jù)危害計算機信息系統(tǒng)安全,未經許可銷售出售計算機信息系統(tǒng)安全專用產品?!队嬎銠C信息網絡國際聯(lián)網安全保護管理辦法》專設法律責任一章規(guī)定了危害網絡安全的違法行為?!痘ヂ?lián)網信息服務管理辦法》對互聯(lián)網平臺的責任作出規(guī)定,條款主要針對非法網絡行為。“人工智能黑客”對信息系統(tǒng)的侵入及智能算法程序非法傳播就屬于上述規(guī)定所調整的危害行為。
同時,當“人工智能黑客”在網絡空間的違法行為發(fā)生刑事和行政法處罰競合的情況時,譬如對實際控制人的從業(yè)禁止如何適用,《刑法修正案(九)》中采用準用性規(guī)則:其他法律、行政法規(guī)對其從事相關職業(yè)另有禁止或限制性規(guī)定的,從其規(guī)定。此規(guī)范在實踐中應當理解為可適用于競合行為??紤]到刑法打擊違法行為的謙抑性,行政法對于從業(yè)者的從業(yè)禁止處罰適用優(yōu)先于刑法規(guī)定。
3.決策者的民事責任
民法是調整平等主體之間人身關系和財產關系的法律規(guī)范,民事責任的承擔在于法律的規(guī)定和當事人之間的約定,一般歸責原則下,無權利侵害就不必承擔法律責任。要確定“人工智能黑客”在民事領域的責任承擔,就面臨確認侵權責任的主體、“人工智能黑客”的侵權行為追責對象、歸責原則與風險分配如何設置等問題。在侵權行為構成要件中關于過錯認定和因果關系方面,“人工智能黑客”對其產生了沖擊,一方面“人工智能黑客”致?lián)p的發(fā)生機制復雜,其中包括設計缺陷、他人干擾和決策者不當利用等原因;另一方面,“人工智能黑客”的自主運行和學習能力加劇了侵權行為的不透明和不可預見性,多種可能性并存必然超越侵權責任構成要件的有效射程。因此,刺破“人工智能黑客”的“面紗”,向“人工智能黑客”的實際控制人追究民事責任,能高效厘清法律關系,及時定分止爭,懲罰利用人工智能技術侵權的行為人。
實踐中,“人工智能黑客”攻擊目標由決策者類型化方式確定,并通過算法的自主性運行實現(xiàn)?!昂诳汀睍凑粘绦蛩惴ㄔO定的參數(shù)具體化鎖定漏洞并實施侵入。比如,“黑客”可以進入別人的網站,更改網站內容,或者將重要內容進行刪除、修改,以非法手段搜集個人信息中的私密信息。《中華人民共和國民法典》第四編“人格權”第1035條規(guī)定了個人信息搜集和處理的原則及具體規(guī)則;《網絡安全法》第42條確立了使用個人信息的禁止性規(guī)則和采取技術保護措施的義務。因此,一方面,根據(jù)民法上人與物二分性基本原則[26],“人工智能黑客”是特殊的“人格性工具”,即使在超人工智能階段,也無法擺脫工具的客觀屬性。上述侵權行為可以分為行為人的直接侵權和“工具歸屬于人的間接侵權”?!叭斯ぶ悄芎诳汀钡墓敉庠诒憩F(xiàn)為算法程序的自動執(zhí)行,但程序的設計和運行算法歸屬于現(xiàn)實的人,完全符合民法上的間接侵權調整范疇。另一方面,設立民事連帶責任。基于“人工智能黑客”行為會影響傳統(tǒng)意義上的民事責任轉移,使多方利益相關者可能承擔連帶或單獨的賠償責任[27],具體可以設定設計者、決策者接受算法審查義務,以算法是否接受審查為標準設置不同的責任形式。如接受主管部門審查通過的,設計者、決策者承擔有限責任;未經審查進行商用的,設計者、決策者承擔無限連帶責任。
“黑客”技術隨著科技發(fā)展實現(xiàn)自我迭代?,F(xiàn)如今,大數(shù)據(jù)時代來臨,智能算法對人類經濟生活的影響越來越深刻,借助生成式人工智能的代碼自動生成和理解能力,可以支持網絡攻擊,使網絡安全形勢更加嚴峻[28],“人工智能黑客”是技術發(fā)展對法治治理提出的挑戰(zhàn)。在面對“人工智能黑客”法律屬性問題上,本文梳理了現(xiàn)有觀點,強調人工智能的發(fā)展必須遵循“人本主義”這一根本,它發(fā)展的每個階段都是在生物人的主導之下,法律關系的主體類型不能隨意類型化出“機器人”或“人工智能黑客”主體。“人工智能黑客”是人機交互,具有“人格性工具”屬性,只有明確了這一法律地位后,我們才能解決人工智能給法律行為、法律關系帶來的挑戰(zhàn),才可以對智能算法的設計者、決策者提出算法倫理義務、算法設計道德要求,用人工智能技術對付“人工智能黑客”??傊?智能算法會越來越多地內嵌于不同技術場景,無論智能“黑客”是否超越3.0階段,智能算法的本質不會變,我們應當揭開智能算法的“面紗”與價值中立性,對算法進行規(guī)制,甚至“穿透”算法去尋找幕后的算法決策者。唯此,智能算法才能避免異化并預防“人工智能黑客”,算法科技才會給社會帶來福祉。