国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能對國際法的挑戰(zhàn)及其應(yīng)對

2020-12-20 05:35李婉貞
關(guān)鍵詞:國際法船舶人工智能

趙 駿 李婉貞

(浙江大學(xué) 光華法學(xué)院, 浙江 杭州 310008)

從電子計算開始,賦予計算機人工智能一直是計算機專家的夢想。早在1950年,艾倫·圖靈(Alan Turing)在其《計算機器與智能》一文中就提出過“機器能否進(jìn)行思考”的問題[1]5。人工智能是一套旨在使機器更接近人類或動物在某些方面的認(rèn)知的技術(shù)[2]404。機器學(xué)習(xí)是人工智能的一個方面,它探索如何讓計算機根據(jù)經(jīng)驗改善其性能(1)Russell S., ″Q & A: The Future of Artificial Intelligence,″ http://people.eecs.berkeley.edu/~russell/temp//q-and-a.html, 2020-01-31.。多年來,人工智能將自動化或復(fù)制智能行為作為研究目標(biāo)[1]7。根據(jù)智能水平的不同,人工智能表現(xiàn)為強人工智能與弱人工智能兩種類型[3]59。強人工智能可以匹敵甚至超過人類智能,目前仍屬于純粹科幻式事物;弱人工智能能夠通過計算機再現(xiàn)人類智能的某些方面,已經(jīng)被應(yīng)用到社會的諸多領(lǐng)域,例如谷歌搜索引擎、全球定位系統(tǒng)、電子游戲等[4]4。當(dāng)前,在弱人工智能的基礎(chǔ)上產(chǎn)生了一批“進(jìn)階版弱人工智能”,能夠通過與人類交互再現(xiàn)某些方面的弱人工智能[4]8,例如蘋果智能語音助手、自動駕駛汽車、機器人保姆、人工智能產(chǎn)業(yè)工人、無人船舶、人工智能偵察機與軍用無人機等。

經(jīng)過長時間的發(fā)展,人類已在信息社會的基礎(chǔ)上開始了智能社會的建設(shè)[5]95-96。人工智能的應(yīng)用帶來了生產(chǎn)力的巨大變革,法律作為上層建筑,不可避免地受到人工智能技術(shù)發(fā)展的影響。在智能社會,法律既面臨人工智能帶來的各種挑戰(zhàn),也遇到了難得的發(fā)展機遇。由于現(xiàn)有法律系統(tǒng)都是圍繞“只有人才能做出決定”這一基本假定展開的,人工智能作為一項新興科技,同樣具有類似于自然人的自主決策能力,這將從根本上顛覆現(xiàn)有法律體系的基礎(chǔ)[4]5。人工智能的自主決策能力、交互能力使其有別于一般的物,并接近于作為法律主體的自然人。整體上,與人工智能相關(guān)的法律問題可以分為兩類:一類是人工智能應(yīng)用于各個領(lǐng)域而產(chǎn)生的法律問題,例如人機交互、機器與機器交互下產(chǎn)生的責(zé)任、知識產(chǎn)權(quán)等問題;另一類是對人工智能自身發(fā)展的價值衡量與相應(yīng)規(guī)制。同時,在應(yīng)對此類新問題及變革法律的過程中,還存在幾個宏觀且關(guān)鍵的問題:一是如何把握好創(chuàng)新與既有的關(guān)系;二是如何促進(jìn)國際與國內(nèi)的良性互動;三是正確對待他山之石與前車之鑒,要充分考察其他領(lǐng)域和其他國家的立法過程與內(nèi)容。

國際法同樣深受人工智能的影響。就像其他法律一樣,國際法也假定所有的決定都是由人做出的,即使是代表國家利益的決定[4]208,人工智能的自主決策能力將會徹底改變以往只有自然人或法人才能代表一國的傳統(tǒng)。當(dāng)前,所有關(guān)于國際法下人工智能的觀點,都是基于各國預(yù)期的習(xí)慣用途以及對現(xiàn)有國際法規(guī)定的變通解釋得出來的,但人工智能很快將會在影響國際法的各個領(lǐng)域中應(yīng)用起來[4]234-235。由于國際法同樣沒有直接對由人工智能或者非人類做出決定的法律后果進(jìn)行規(guī)定,諸如人工智能國籍、人工智能侵害他國的行為能否歸于一國、無人轟炸機等自主武器系統(tǒng)是否違反國際人道法、無人船舶是否能無害通過一國領(lǐng)海等問題,在現(xiàn)有國際法體系內(nèi)尚無法解決,需要作為國際社會共通規(guī)則的國際法積極做出回應(yīng)。本文主要圍繞人工智能給國際法帶來的兩個層面的挑戰(zhàn)展開分析,一是針對國際法的基本原則,二是針對國際法的具體領(lǐng)域,并給出國際法應(yīng)對這些挑戰(zhàn)的可行路徑。

一、 人工智能對國際法基本原則的挑戰(zhàn)

國際法基本原則代表著一套基本的行為標(biāo)準(zhǔn),在整個國際法體系中處于統(tǒng)領(lǐng)性位置,構(gòu)成了最高的法律標(biāo)準(zhǔn),可以視為國際共同體的最高原則[6]64-65。國際法基本原則具有一些重要特征:第一,國際公認(rèn);第二,具有全局性和普遍意義,超越國際法各個領(lǐng)域;第三,適用于國際法的一切效力范圍;第四,是國際法的基礎(chǔ)[7]34。國際法基本原則的內(nèi)容一直處于動態(tài)發(fā)展中,其重要發(fā)展是在第二次世界大戰(zhàn)以后,集中體現(xiàn)在《聯(lián)合國憲章》第2條以及1970年《國際法原則宣言》中[7]37-41。例如國家主權(quán)原則(2)在近代國際法產(chǎn)生之后,就提出了一些國際法基本原則,例如國家主權(quán)平等原則、不干涉內(nèi)政原則等。參見王鐵崖主編《國際法》,(北京)法律出版社1995年版,第37-41頁。、民族自決原則、國家責(zé)任原則(3)國家責(zé)任屬于國際法基本原則的范疇,在施瓦曾伯格爾提出的7項國際法基本原則中,國家責(zé)任是其中一項,參見王鐵崖主編《國際法》,(北京)法律出版社1995年版,第41頁。伊恩·布朗利認(rèn)為國家責(zé)任是國際法的一般原則,參見Crawford J., Brownlie’s Principles of Public International Law (8th Edition), Oxford: Oxford University Press, 2012, p.540;Shaw也認(rèn)為國家責(zé)任是國際法的基本原則,參見Shaw M.N., International Law (7th Edition), Cambridge: Cambridge University Press, 2014, p.1120。等。在人工智能時代,人工智能的自主決策能力將對其提出新的挑戰(zhàn),例如人工智能霸權(quán)對國家主權(quán)原則的挑戰(zhàn)、人工智能行為的國家責(zé)任問題等。

(一) 人工智能對國家主權(quán)原則的挑戰(zhàn)

人工智能時代的到來,可能會造成嚴(yán)重的算法壟斷與數(shù)據(jù)壟斷問題,甚至形成人工智能霸權(quán)(4)霸權(quán)體系可以分為兩種,一種是權(quán)勢霸權(quán),一種是制度霸權(quán)。兩者的區(qū)分標(biāo)準(zhǔn)是霸權(quán)的維持機制,前者主要依靠霸權(quán)國的實力,尤其是軍事實力,核心是強制性治理;后者主要依靠體系中的制度。參見秦亞青《權(quán)勢霸權(quán)、制度霸權(quán)與美國的地位》,載《現(xiàn)代國際關(guān)系》2004年第3期,第6頁。,嚴(yán)重威脅一國的國家主權(quán)。因而,有必要提出“人工智能主權(quán)”概念。根據(jù)《聯(lián)合國憲章》第2條第1項、第78條以及《國際法原則宣言》的規(guī)定,各國一律享有主權(quán)(5)United Nations General Assembly, ″Declaration on Principles of International Law Concerning Friendly Relations and Co-operation among States in Accordance with the Charter of the United Nations,″ http://www.un-documents.net/a25r2625.htm, 2020-01-31.。主權(quán)是指包括國家領(lǐng)土之上立法權(quán)限在內(nèi)的管轄權(quán),表示出依賴習(xí)慣法和獨立于他國特別同意的權(quán)利和特權(quán)的特征[8]448,并存在于國家與其他國家或國際組織之間的關(guān)系之中,可以從兩個視角進(jìn)行界定:一是對內(nèi)與對外視角,即對內(nèi)最高權(quán)與對外獨立權(quán);二是橫向與縱向視角,即橫向地理范圍與縱向事項范圍。隨著社會的發(fā)展,主權(quán)概念一直處于動態(tài)發(fā)展之中。在縱向的發(fā)展上,主權(quán)概念在反對霸權(quán)的進(jìn)程中向縱深方向不斷掘進(jìn),例如,伴隨政治霸權(quán)、經(jīng)濟霸權(quán)、文化霸權(quán)與信息霸權(quán)出現(xiàn)的政治主權(quán)、經(jīng)濟主權(quán)、文化主權(quán)與信息主權(quán)概念[9]519。

當(dāng)前,人工智能已經(jīng)廣泛應(yīng)用于生產(chǎn)、服務(wù)、武器、司法、經(jīng)濟與政治決策等諸多社會領(lǐng)域,但是,各國掌握的人工智能技術(shù)存在較大差距。人工智能技術(shù)水平較低的國家在部分領(lǐng)域的主權(quán)控制力將在不同程度上被削弱,面臨其他國家的控制和威脅。對內(nèi)層面,一國可以利用人工智能跨境搜集并傳播對另一國政府不利的信息,或者深入另一國的生產(chǎn)和服務(wù)領(lǐng)域,影響該國產(chǎn)業(yè)發(fā)展與就業(yè)。由于市場總是趨利避害的,如果人工智能技術(shù)的運用能夠使市場參與者獲得更大的利益,理性經(jīng)濟人顯然會選擇以人工智能技術(shù)替代原有的生產(chǎn)或服務(wù)模式。這有可能會促使已經(jīng)存在的算法與數(shù)據(jù)壟斷問題進(jìn)一步演化為人工智能技術(shù)霸權(quán)問題,給國家主權(quán)帶來嚴(yán)峻挑戰(zhàn)。對外層面,人工智能技術(shù)在戰(zhàn)略決策、軍事領(lǐng)域與社會生產(chǎn)方面的應(yīng)用會進(jìn)一步拉大國際法主體間的力量差距,改變?nèi)蛏鐣?jīng)濟生產(chǎn)模式與權(quán)力結(jié)構(gòu),影響原本穩(wěn)定的國際關(guān)系,最終會對國際體系產(chǎn)生重大影響[10]128-129。

對此,有必要提出人工智能主權(quán)概念,以防人工智能技術(shù)霸權(quán)對國家主權(quán)的侵害。其必要性主要體現(xiàn)在三個方面:第一,維護(hù)本國信息安全。人工智能需要數(shù)據(jù)作為營養(yǎng)。人工智能發(fā)揮作用的前提是搜集和分析大量的信息數(shù)據(jù),這些數(shù)據(jù)涵蓋一國的各個領(lǐng)域以及不同的個人。是否促進(jìn)數(shù)據(jù)的跨境流通以及具體的流通方式應(yīng)當(dāng)屬于一國的主權(quán)管轄范圍。第二,規(guī)制人工智能的必要性。人工智能具有深度學(xué)習(xí)功能和超強的復(fù)制性,這些特征使其可以對社會各領(lǐng)域發(fā)揮極大的推動作用。但是,如果人工智能被懷有惡意的人利用,也會對一國的政治、經(jīng)濟、文化以及國防安全構(gòu)成嚴(yán)重威脅。第三,保護(hù)本國人工智能產(chǎn)業(yè)。人工智能已經(jīng)應(yīng)用于社會的各個領(lǐng)域,國家有權(quán)在防止其他國家人工智能產(chǎn)業(yè)威脅本國產(chǎn)業(yè)的基礎(chǔ)上,保障本國人工智能產(chǎn)業(yè)的自由發(fā)展。人工智能領(lǐng)域存在主權(quán),但這個主權(quán)只能屬于國家,而非人工智能本身。人工智能技術(shù)的目的是服務(wù)人類,而非控制人類。同時,由于人工智能的可規(guī)制性,國家擁有人工智能主權(quán)也具有可行性。人工智能技術(shù)與實體都真實存在于一定的地理區(qū)域內(nèi),國家需要解決人工智能研發(fā)、使用與跨境過程中涉及的研發(fā)者標(biāo)準(zhǔn)、可以使用的數(shù)據(jù)標(biāo)準(zhǔn)、應(yīng)用標(biāo)準(zhǔn)、具體應(yīng)用領(lǐng)域的范圍以及跨境監(jiān)管等諸多問題。

人工智能主權(quán)的實現(xiàn)與政治、經(jīng)濟、文化、信息主權(quán)的實現(xiàn)相互影響并相互促進(jìn),但是在內(nèi)涵上具有不同的側(cè)重點。伊恩·布朗利認(rèn)為國家主權(quán)與平等所帶來的必然結(jié)果主要有:對領(lǐng)土及永久居住其上的人口的初步排他管轄權(quán),其他國家在此排他管轄權(quán)區(qū)域內(nèi)的不干涉義務(wù),以及最終取決于是否同意由習(xí)慣法或條約產(chǎn)生的義務(wù)[8]447。路易斯·亨金也認(rèn)為國際法試圖促進(jìn)的是國家的獨立、平等、自治、不可干涉性以及致力于實現(xiàn)自己所認(rèn)同的國家利益[11]146-148。因此,人工智能主權(quán)的內(nèi)涵也應(yīng)該包括對內(nèi)與對外兩個層面:一是對內(nèi)層面,國家具有對人工智能技術(shù)與實體的立法、司法與行政管轄權(quán)。國家應(yīng)當(dāng)制定規(guī)范人工智能的具體法律和制度,指引人工智能向服務(wù)于人類命運共同體構(gòu)建的方向不斷發(fā)展。二是對外層面,國家享有保護(hù)本國人工智能產(chǎn)業(yè)發(fā)展的權(quán)利,以及自主制定關(guān)于人工智能發(fā)展的規(guī)劃與自主決定人工智能研發(fā)進(jìn)程的權(quán)利,其他國家不能干擾、阻礙或控制該國人工智能的發(fā)展。在當(dāng)前缺少國際法明文規(guī)定的情況下,各國應(yīng)當(dāng)遵守現(xiàn)有國際法基本原則、習(xí)慣國際法以及國際強行法的一般規(guī)定,例如不得侵犯他國的主權(quán)、保護(hù)人權(quán)等。

(二) 人工智能對國家責(zé)任原則的挑戰(zhàn)

國家必須履行包括已加入的條約法義務(wù)和強行法義務(wù)在內(nèi)的國際義務(wù),承擔(dān)因其國家行為違背國際義務(wù)所產(chǎn)生的國家責(zé)任[12]97。根據(jù)《國家對國際不法行為的責(zé)任條款草案》(以下簡稱《草案》)第2條的規(guī)定,國家承擔(dān)國際責(zé)任的前提條件是發(fā)生國際不法行為,包含主觀可歸因性與客觀違法性兩方面的要素[13]72。前者強調(diào)存在可歸因于一國的行為,后者強調(diào)該行為的違法性認(rèn)定不要求國家存在主觀過錯?!恫莅浮吩诘?—6條以及第8—11條中有限列舉了七類可歸因于一國的行為(6)這七類行為分別為:國家機關(guān)的行為、經(jīng)國家授權(quán)的行為、支配機關(guān)的行為、國家指揮或控制下的行為、正式當(dāng)局不存在或缺席時實施的行為、叛亂運動或其他運動的行為以及經(jīng)國家確認(rèn)的行為。。同時,第7條強調(diào)越權(quán)與違背指示的行為仍可歸因于一國。

從目前來看,除第11條規(guī)定的“經(jīng)國家確認(rèn)的行為”外,《草案》第4—6條以及第8—10條規(guī)定國家不法行為的實施者應(yīng)是個人或由個人組成的實體。但是,人工智能已經(jīng)具備信息收集、分析、決策,甚至執(zhí)行能力,從人工智能的自主程度來看,人工智能既可以充當(dāng)代表國家行為的個人或?qū)嶓w的工具,也可以直接經(jīng)國家授權(quán)或者自主決策而實施某項行為,例如實施違背指示的行為。在后一種情況下,當(dāng)人工智能的行為違反一國承擔(dān)的國際義務(wù)時,該行為無法直接歸因于一國,而是必須先行證明這些行為能夠歸于個人或?qū)嶓w。但是,當(dāng)這一行為是由全自動機器實施時,這是一項艱難甚至不可能完成的任務(wù)[14]9。由此導(dǎo)致的結(jié)果是,國家可以利用人工智能的完全自主行為免除國家責(zé)任。因而,《草案》下一步的修改可以考慮在第4—6條以及第8—10條中增加行為主體可以為具有自主決策能力的人工智能的相關(guān)規(guī)定,從而將人工智能的行為直接歸因于國家。

關(guān)于國家責(zé)任形式,傳統(tǒng)責(zé)任類型依然適用于人工智能,例如賠償、保證不再重犯等。保證不再重犯主要針對嚴(yán)重的國際不法行為,受害國通常要求行為國保證不法行為不再發(fā)生,并附帶要求行為國采取某項特定措施或某種特定行為加以預(yù)防,例如擔(dān)保、新的立法[7]108-114。具體到人工智能領(lǐng)域,考慮到其潛在威脅與特殊性,保證不再重犯還需要行為國做出更多的努力,例如改編人工智能,甚至銷毀人工智能等特定行為類型。改編人工智能適用于通過改編算法就可以避免不法行為再次發(fā)生的情形。銷毀人工智能不僅僅是銷毀人工智能應(yīng)用的實體,而且應(yīng)當(dāng)對該項算法進(jìn)行永久封存,避免其再次被使用,但這一行為的適用應(yīng)當(dāng)限于無法通過改編算法避免不法行為再次發(fā)生的情形。

二、 人工智能對國際法具體領(lǐng)域的挑戰(zhàn)

人工智能對國際法的影響是多方面、有差異的,除了影響具有全局性的國際法基本原則外,也給國際法的具體領(lǐng)域帶來新的挑戰(zhàn),突出體現(xiàn)在國際法居民制度、國際人道法、國際刑法、國際知識產(chǎn)權(quán)法、國際人權(quán)法以及國際海洋法和國際海事法等領(lǐng)域。

(一) 人工智能對國際法居民制度的挑戰(zhàn)

國際法居民制度包括國籍、外國人法律地位、引渡、庇護(hù)等制度[7]121-139。這些制度存在一定共性,規(guī)制的對象都是法律上的“人”,包括自然人和法人,而非國家或國際組織。國際法居民制度是否適用于人工智能取決于其是否屬于法律上的“人”。但是,具備深度學(xué)習(xí)功能的人工智能屬于新興事物,其法律地位仍處于模糊狀態(tài)。對此,學(xué)界的觀點也不統(tǒng)一。有的學(xué)者承認(rèn)人工智能的法律人格地位[15]95;有的學(xué)者則從自然人與法人的特征出發(fā),否定人工智能的法律人格地位[16]131。

法律上的“人”享有權(quán)利能力,具有法律人格。從術(shù)語的起源來看,“人格”與“權(quán)利能力”都是確認(rèn)法律主體身份的工具(7)人格在字義上源于拉丁語的persona。persona原指戲臺上演員所戴的面具,在法律上系指一定的階級身份。在古羅馬法早期,只有同時具備自由人、家父和市民三個身份,才能獲得人格,成為民事主體。后來,在德國民法中,為了賦予團體以人格,創(chuàng)造了“權(quán)利能力”的概念。參見王澤鑒《人格權(quán)法:法釋義學(xué)、比較法、案例研究》,(北京)北京大學(xué)出版社2013年版,第41頁;周枏《羅馬法原論》(上冊),(北京)商務(wù)印書館1994年版,第106-107頁;付翠英《人格·權(quán)利能力·民事主體辨思》,載《法學(xué)》2006年第8期,第74-76頁。。人是權(quán)利的主體,分為自然人與法人[17]37。人工智能不是生物學(xué)意義上的人,不具備人類的理性思維和倫理觀[18]5-8,難以成為自然人。因而,有學(xué)者認(rèn)為在符合法人設(shè)立的標(biāo)準(zhǔn)時,人工智能可以成為國家法律管轄的法人[15]95。也有學(xué)者認(rèn)為將人工智能確認(rèn)為法人實體是非常現(xiàn)實和有希望的,可以為其提供“電子身份”(“電子實體”)的法律地位[19]139。從更長遠(yuǎn)的角度看,人工智能的智能化程度將不斷提高。在超級人工智能階段,人工智能將遠(yuǎn)遠(yuǎn)超出人類智能(8)參見Russell S., ″Q & A: The Future of Artificial Intelligence,″ http://people.eecs.berkeley.edu/~russell/temp//q-and-a.html, 2020-01-31。。為了統(tǒng)治的需要,古羅馬設(shè)定“人格”制度以劃分人與人之間的等級,德國設(shè)定“權(quán)利能力”以區(qū)分不同的團體。由于人工智能可以像人類一樣做出決定,在特定情形中將人工智能作為法律主體對待并賦予其權(quán)利義務(wù)是合理的[4]288。這里的特定情形應(yīng)當(dāng)限于具有自主決策能力的人工智能,而且目標(biāo)應(yīng)當(dāng)在于促進(jìn)人類更好地發(fā)展。

在獲得法律人格的同時,人工智能將享有法律賦予的權(quán)利能力和行為能力,并在其能力范圍內(nèi)承擔(dān)法律責(zé)任,進(jìn)而也會成為國際法上的居民。國際法居民制度必須考慮如何適用于人工智能。例如國籍制度,本質(zhì)是人的身份問題[20]66,特指個人具有某國的國民或公民法律資格[7]121。通常將人(包括公司)和財產(chǎn)歸于一個國家,需要采用國籍概念,特別是為了外交保護(hù)目的[8]527。自然人一般通過出生或加入兩種方式取得國籍;法人在符合法律規(guī)定設(shè)立時可以依據(jù)注冊登記地、住所地等取得一國國籍[21]93-94。人工智能取得國籍的標(biāo)準(zhǔn)和依據(jù)不能完全遵照自然人和法人取得國籍的方法。在取得國籍的標(biāo)準(zhǔn)方面,人工智能必須達(dá)到一定的智能程度。在依據(jù)方面,考慮到人工智能的非自然人特征,可以參照船舶、航空器等物體國籍的確定標(biāo)準(zhǔn)。例如,《聯(lián)合國海洋法公約》第91條、《國際民用航空公約》第17—21條以及《外空公約》第8條都分別確定了登記國對船舶、航空器和空間物體具有管轄權(quán)的一般標(biāo)準(zhǔn)。為了更好地確認(rèn)管轄權(quán),人工智能也應(yīng)當(dāng)采取登記地作為國籍。各國有權(quán)自主規(guī)定人工智能獲得登記的條件,并允許符合條件的人工智能在其領(lǐng)土內(nèi)登記、給予標(biāo)示該國旗幟的權(quán)利并頒發(fā)相關(guān)證明文件。

(二) 人工智能對國際人道法的挑戰(zhàn)

近年來,人工智能被大量應(yīng)用于武器系統(tǒng),促使武器系統(tǒng)的自主程度不斷提高,并逐漸脫離人類控制。盡管許多國家都宣稱,人類仍然在使用致命武器方面具有決定權(quán),但聯(lián)合國的一份報告顯示,自動化殺傷性機器人武器系統(tǒng)正在到來,目標(biāo)的自動化處理在戰(zhàn)場上也只是時間問題,例如以色列正在實施一項閉環(huán)邊界防御系統(tǒng),由人工智能炮塔監(jiān)視邊界,無須任何人類干預(yù),就能瞄準(zhǔn)目標(biāo)并攻擊它們[22]14-15。此類自主武器系統(tǒng)(autonomous weapons systems,簡稱AWS)沒有士兵或飛行員按下發(fā)射器,而是由人工智能系統(tǒng)自己決定攻擊的時間與對象。因而,AWS已經(jīng)不再僅僅是傳統(tǒng)合法武器的升級,而是嚴(yán)重沖擊著國際人道法(9)國際人道法是從人道主義的原則出發(fā)給予戰(zhàn)爭受難者以必要保護(hù)的國際法律規(guī)范,主要包括1949年《日內(nèi)瓦公約》和1977年該公約的兩個附加議定書。關(guān)于禁止使用濫傷性武器、比例原則等的相關(guān)規(guī)定。

美國國防部在其2013年的指令3000.09中將AWS定義為:“一旦啟動,就可以在沒有人類進(jìn)一步干預(yù)的情況下選擇和打擊目標(biāo)。”包括人類監(jiān)督式自主武器系統(tǒng),即人類保持對AWS干預(yù)和終止打擊的能力,以及半自主武器系統(tǒng),即武器系統(tǒng)一旦被激活,僅用于瞄準(zhǔn)單個目標(biāo)或由操作人員選定的特定目標(biāo)群體[23]19。紅十字國際委員會從關(guān)鍵功能出發(fā),認(rèn)為自主武器系統(tǒng)是指任何具有自主關(guān)鍵功能的武器系統(tǒng),可以在不需要人為干預(yù)下選擇(搜索、檢測、識別、跟蹤)和攻擊(使用武力對抗、中和或破壞)目標(biāo)[24]5??梢?,AWS的最大特征依然是自主決策能力。

根據(jù)《1949年8月12日日內(nèi)瓦四公約關(guān)于保護(hù)國際性武裝沖突受難者的附加議定書》(以下簡稱《第一議定書》)第51條第4款的規(guī)定,濫傷性武器是指不能區(qū)分平民和軍事目標(biāo)的武器。在當(dāng)前進(jìn)階版弱人工智能水平下,AWS的辨別能力顯然低于受過長期訓(xùn)練的軍人,因而難以準(zhǔn)確識別現(xiàn)實中平民與軍事目標(biāo)等復(fù)雜情況。同時,根據(jù)國際人道法的相關(guān)規(guī)定,指揮官或操作者在使用武器系統(tǒng)方面應(yīng)當(dāng)遵循比例原則(10)比例原則的完整表述在1977年《日內(nèi)瓦四公約關(guān)于保護(hù)國際性武裝沖突受難者的附加議定書(第一議定書)》第51條第5款b項中,指“可能附帶使平民生命受損失、平民受傷害、平民物體受損害或三種情形均有而且與預(yù)期的具體和直接軍事利益相比損害過分的攻擊”。與攻擊預(yù)防規(guī)則(11)攻擊預(yù)防規(guī)則完整表述在1977年《日內(nèi)瓦四公約關(guān)于保護(hù)國際性武裝沖突受難者的附加議定書(第一議定書)》第57條和58條關(guān)于攻擊時的預(yù)防措施和防止攻擊影響的預(yù)防措施的規(guī)定中。,尋求軍事需要與平民保護(hù)兩種價值之間的平衡,防止平民與民用物體的損失。關(guān)于比例原則,更是要求綜合各種因素定性評估(12)參見Wanger M., ″Taking Humans Out of the Loop: Implications for International Humanitarian Law,″ Journal of Law Information and Science, Vol.21, No.2 (2012), p.165。。AWS的自主決策能力顯然無法滿足比例原則與攻擊預(yù)防原則的基本要求。

鑒于此,國際社會禁止使用致命性自主武器系統(tǒng)(lethal autonomous weapons systems,簡稱LAWS)的呼聲不斷。根據(jù)停止殺手機器人運動組織(The Campaign to Stop Killer Robots)的報告,自2013年3月30日巴基斯坦呼吁禁止LAWS至2016年12月13日,已有19個國家發(fā)出同樣禁止的呼聲(13)The Campaign to Stop Killer Robots, ″Country Views on Killer Robots,″ https://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_CountryViews_May2017.pdf, 2020-01-31.。2014年5月,聯(lián)合國《特定常規(guī)武器公約》締約國通過非正式專家會議的形式討論是否有理由禁止LAWS(14)United Nations, ″Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS),″ https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/048/96/PDF/G1404896.pdf?OpenElement, 2020-01-31.,吸引了各國、聯(lián)合國組織、紅十字國際委員會和非政府組織的廣泛參與(15)UN Meeting Targets ″Killer Robots″, https://news.un.org/en/story/2014/05/468302-un-meeting-targets-killer-robots, 2020-01-31.。

但是,已經(jīng)發(fā)展AWS的國家不會希望以任何方式限制其軍事使用。因而,需要國際關(guān)注和改變現(xiàn)有法律以應(yīng)對這些挑戰(zhàn),而不是預(yù)先強加一套新的禁止規(guī)則或暫停發(fā)展AWS[25]411?,F(xiàn)階段可以通過修改國際人道法使其能夠適用于AWS,以解決軍事行動期間人工智能的強制性行為,并為各國在國際法下確立何時能夠授權(quán)AWS進(jìn)行操作和攻擊提供一個標(biāo)準(zhǔn)[4]240。

(三) 人工智能對國際刑法的挑戰(zhàn)

當(dāng)人工智能代表個人做出《國際刑事法院規(guī)約》(以下簡稱《羅馬規(guī)約》)禁止的行為時,會產(chǎn)生責(zé)任主體認(rèn)定、歸因方式與責(zé)任類型等新的問題。根據(jù)《羅馬規(guī)約》第1條、第5條的規(guī)定,國際刑事法院對個人所犯的滅絕種族罪、危害人類罪、戰(zhàn)爭罪及侵略罪行使管轄權(quán)。這里的“個人”僅指自然人,非自然人的法人、國家、國際組織皆不能承擔(dān)國際刑事責(zé)任。當(dāng)具有自主決策能力的人工智能實體做出滅絕種族、危害人類、違反戰(zhàn)爭法或侵略的行為時,首先產(chǎn)生的問題是由人工智能自身承擔(dān)責(zé)任,還是由人工智能背后的控制人或他人承擔(dān)責(zé)任。根據(jù)《羅馬規(guī)約》的規(guī)定,人工智能實體并不具有承擔(dān)個人刑事責(zé)任的資格。未來人工智能即使被賦予法律人格,其最終承擔(dān)的刑事責(zé)任類型也很有限,往往難以與其造成的行為后果相匹配,不符合刑法“罪刑相適應(yīng)”的原則。因而,為了維護(hù)人類的生存利益,防止個人利用人工智能逃避責(zé)任,個人仍應(yīng)當(dāng)是唯一的國際刑事責(zé)任承擔(dān)者。

當(dāng)人工智能介入時,產(chǎn)生的主要問題是誰應(yīng)當(dāng)對人工智能的行為承擔(dān)刑事責(zé)任,以及如何將人工智能的行為歸因于個人。在責(zé)任主體方面,是程序員、控制人工智能機器的上司、采用這種戰(zhàn)爭方法的軍事指揮官,還是命令軍事指揮官采取任何有效戰(zhàn)爭方法的政治領(lǐng)導(dǎo)人[14]8-9?在此,不能將人工智能實體簡單地類比為指揮官。因為人工智能缺少理性和倫理判斷的能力,完全遵從算法的指令。因而,在責(zé)任主體制度的構(gòu)建上,仍需系統(tǒng)考慮人工智能實體的特殊性與智能化程度。在歸因方式上,宜采取過錯歸因原則,只有負(fù)有監(jiān)督職責(zé)的人,或者與其交互的人存在過錯,才需承擔(dān)由人工智能行為產(chǎn)生的法律責(zé)任。

同時,個人承擔(dān)的刑事責(zé)任還須附加一項特殊的刑罰類型,即對其控制的人工智能實體進(jìn)行改造以符合法律規(guī)定,或者直接毀滅。在刑事責(zé)任的類型上,鑒于人工智能感受不到痛苦,需要選擇其他的懲罰方式,例如失能與修復(fù)等方式[26]71。當(dāng)前,《羅馬規(guī)約》中尚無任何關(guān)于人工智能的規(guī)定,亟須對相關(guān)的責(zé)任主體、歸因方式與責(zé)任類型做出一般規(guī)定。

(四) 人工智能對國際知識產(chǎn)權(quán)法的挑戰(zhàn)

人工智能的生成之物一般通過兩種方式產(chǎn)生:一是人工智能被人類用作工具,受到人類的直接控制;二是人工智能自主生成。在第一種方式下,人工智能生成之物的知識產(chǎn)權(quán)應(yīng)當(dāng)屬于人類;在第二種方式下,由于具體創(chuàng)作過程缺少人類的參與,人工智能生成之物是否符合發(fā)明、作品或商標(biāo)的標(biāo)準(zhǔn)以及歸屬權(quán)等問題仍存在一定爭議。有學(xué)者認(rèn)為在缺少人類干預(yù)時,人工智能生成的內(nèi)容具有隨機性,缺乏個性特征,并不符合獨創(chuàng)性的要求[27]154-155。但是,創(chuàng)造型人工智能已經(jīng)出現(xiàn),并且在過去幾十年里悄然發(fā)展起來[4]257。人工智能生成的具有價值與創(chuàng)新性的發(fā)明、作品或商標(biāo)應(yīng)當(dāng)受到法律的保護(hù),以鼓勵創(chuàng)新,促進(jìn)經(jīng)濟、文化的發(fā)展。在具體方式上,當(dāng)人工智能在沒有任何有意義的人類交互干預(yù)下自主創(chuàng)造新的知識產(chǎn)權(quán)時,人工智能本身應(yīng)當(dāng)被視為作者或發(fā)明者,但在其進(jìn)入公共領(lǐng)域之前,人工智能的創(chuàng)造者應(yīng)當(dāng)對此享有10年的版權(quán)或?qū)@麢?quán)。由此,既可鼓勵編程者開發(fā)具有自主創(chuàng)新能力的新程序,也能加快該產(chǎn)品進(jìn)入公共領(lǐng)域的進(jìn)度[4]291。

在人工智能生成之物在國內(nèi)逐漸獲得知識產(chǎn)權(quán)的同時,各國關(guān)于人工智能生成之物的保護(hù)標(biāo)準(zhǔn)也將不可避免地產(chǎn)生矛盾,尤其是在部分國家承認(rèn)人工智能自主生成之物的知識產(chǎn)權(quán)而某些國家不承認(rèn)的情況下,當(dāng)未保護(hù)國的國民侵犯該知識產(chǎn)權(quán)時,權(quán)利人僅能在受保護(hù)國主張權(quán)利,這顯然不利于知識產(chǎn)權(quán)的保護(hù),因而需要國際知識產(chǎn)權(quán)法(16)主要指《保護(hù)文學(xué)和藝術(shù)作品伯爾尼公約》《保護(hù)工業(yè)產(chǎn)權(quán)巴黎公約》以及《與貿(mào)易有關(guān)的知識產(chǎn)權(quán)協(xié)定》。積極進(jìn)行協(xié)調(diào)。但是,當(dāng)前國際知識產(chǎn)權(quán)法對人工智能生成之物尚無任何規(guī)定。隨著科技的發(fā)展,國際社會一直在努力推動知識產(chǎn)權(quán)法的更新,知識產(chǎn)權(quán)保護(hù)的范圍也在不斷擴大,例如計算機程式與數(shù)據(jù)。為了使人工智能自主生成之物受到應(yīng)有的保護(hù),國際社會應(yīng)當(dāng)設(shè)定最低的保護(hù)標(biāo)準(zhǔn),在諸如人工智能生成之物的歸屬、保護(hù)期限等方面,各國應(yīng)當(dāng)具有一致性。

(五) 人工智能對國際人權(quán)法的挑戰(zhàn)

傳統(tǒng)上,國際人權(quán)法面臨的挑戰(zhàn)往往來自恐怖主義、戰(zhàn)爭、貧困與環(huán)境惡化等方面。在智能時代,國際人權(quán)法還面臨人工智能的嚴(yán)峻挑戰(zhàn)。一方面,人工智能將會沖擊國際人權(quán)法的部分規(guī)定,例如人權(quán)的主體、人權(quán)的內(nèi)容;另一方面,人工智能的不當(dāng)利用會導(dǎo)致嚴(yán)重侵害人權(quán)的行為,例如人類利用自主武器系統(tǒng)做出違反國際人道法與國際刑法的行為,將會嚴(yán)重危害其他人的生命、財產(chǎn)、自由、發(fā)展、可獲得的食物水源等。

國際人權(quán)法的發(fā)展經(jīng)歷了漫長的過程,真正意義上的國際人權(quán)保護(hù)文件出現(xiàn)在二戰(zhàn)以后?!堵?lián)合國憲章》中有關(guān)人權(quán)的條款為保護(hù)人權(quán)奠定了基礎(chǔ),1966年通過的兩個人權(quán)公約(《經(jīng)濟、社會和文化權(quán)利國際公約》《公民權(quán)利和政治權(quán)利國際公約》)及一個議定書進(jìn)一步細(xì)化了人權(quán)的基本內(nèi)容[8]634-638。人權(quán)既包括個人權(quán)利,也包括集體權(quán)利(17)集體權(quán)利包括民族自決權(quán)、發(fā)展權(quán)、環(huán)境權(quán)、和平權(quán)等,參見白桂梅《論新一代人權(quán)》,載《法學(xué)研究》1991年第5期,第3-4頁。。根據(jù)國際人權(quán)保護(hù)文件的規(guī)定,人類是人權(quán)的唯一主體(18)例如《聯(lián)合國憲章》第1條,《公民權(quán)利和政治權(quán)利國際公約》與《經(jīng)濟、社會、文化權(quán)利國際公約》的序言部分都強調(diào)了人權(quán)的主體是人類。。但是,人權(quán)的主體具有擴大的趨勢。先有關(guān)于集體權(quán)利的主體是個人還是集體的爭議[28]4-5,后有人權(quán)主體從生命主體到人格主體的擴展[29]55-57。例如,法人在諸多國內(nèi)法律和國際條約中已經(jīng)獲得部分人權(quán)(19)1950年《歐洲人權(quán)公約第一補充議定書》第10條規(guī)定:“每個自然人或法人有權(quán)和平享有其財產(chǎn)。”參見徐顯明、曲相霏《人權(quán)主體界說》,載《中國法學(xué)》2001年第2期,第55-57頁。,突破了建立在人類尊嚴(yán)基礎(chǔ)上人權(quán)主體的唯一性(20)有學(xué)者認(rèn)為人的尊嚴(yán)是人權(quán)的基礎(chǔ),參見[美]艾倫·格沃斯《作為權(quán)利基礎(chǔ)的人的尊嚴(yán)》,鐘夏露、孫雨菲編譯,載《中國人權(quán)評論》2015年第2期,第153頁。。

當(dāng)前,人工智能已經(jīng)應(yīng)用于人類生活、學(xué)習(xí)和工作的各個領(lǐng)域,并在逐步取代人類的工作。未來,人工智能的水平會不斷提高,甚至可能超越人類,成為人類生存的主要工具。為了維護(hù)人類的利益,法人被逐步賦予部分人權(quán)。人工智能在成為人類利益的主要創(chuàng)造者和維護(hù)者的時候,也可能被賦予人權(quán)的部分內(nèi)容,例如財產(chǎn)權(quán)、勞動權(quán)。但是,人工智能擁有人權(quán)的目的限于保護(hù)人類的利益。例如,賦予部分“情感陪護(hù)型機器人”以人權(quán),目的是保護(hù)被陪護(hù)人的權(quán)益。因而,當(dāng)人工智能涉及人的情感、利益以及人獲得陪伴、幫助的權(quán)利時,人工智能會因此獲得一些“邊際人權(quán)”。但是,當(dāng)前《聯(lián)合國憲章》第1條以及《世界人權(quán)宣言》、兩個人權(quán)公約的序言部分規(guī)定的人權(quán)主體仍僅限于人類,未來,國際人權(quán)法需要對此做出特別規(guī)定。

(六) 人工智能對國際海洋法、國際海事法的挑戰(zhàn)

在海上航行方面,與無人駕駛汽車和無人機類似的是,人工智能技術(shù)的應(yīng)用使無人船舶成為現(xiàn)實。由于當(dāng)前人工智能在國際海洋法、國際海事法領(lǐng)域中帶來的挑戰(zhàn)都是由無人船舶引起的,因而本文將這兩部分放在一起討論。無人船舶最終的發(fā)展方向是船上沒有人員的完全自動航行[30]60。和人類駕駛型船舶相比,無人船舶在節(jié)約成本、降低風(fēng)險等方面具有獨特優(yōu)勢。雖然當(dāng)前關(guān)于無人船舶的嘗試大多都是學(xué)術(shù)性質(zhì)的,但有一些組織正在尋求將該技術(shù)商業(yè)化[31]198。未來,無人船舶也將會被用于貨物托運、乘客運送等諸多工作中。但是,當(dāng)前國際航運規(guī)范、海洋法和國際海事法的前提是人的存在和控制船舶(21)Chircop A., ″Testing International Legal Regimes: The Advent of Automated Commercial Vessels,″ German Yearbook of International Law, Vol.60 (2017), p.109.,因而需要重新審視相關(guān)國際法規(guī)范以確定哪些可以適用于無人船舶,哪些不能適用于無人船舶。在不能適用時,應(yīng)當(dāng)做出怎樣的改變。

關(guān)于“船舶”一詞,不同國際條約的規(guī)定并不相同,有的甚至沒有做出規(guī)定(22)《聯(lián)合國海洋法公約》未對船舶一詞做出具體規(guī)定,而《國際防止船舶造成污染公約》第2條規(guī)定,船舶包括在海洋環(huán)境中運行的任何類型的船舶。,其實,無人船舶除了缺少船員外,與傳統(tǒng)船舶并無區(qū)別,暫且假定無人船舶屬于船舶的一種。作為船舶,無人船舶的航行也需要考慮適航標(biāo)準(zhǔn)、航行規(guī)則、海上合同、海事賠償責(zé)任等諸多問題,涉及復(fù)雜的國際規(guī)則。尤其是依據(jù)不同的標(biāo)準(zhǔn),無人船舶可以被分為不同的類型(23)例如,根據(jù)是否載人載物,無人船舶可分為載人無人船舶、載物無人船舶以及空船無人船舶三類。根據(jù)人類控制程度的不同,無人船舶可分為遙控船舶、自動化船舶與自主船舶三類,自動化船舶又可進(jìn)一步分類為人為控制、人工授權(quán)控制和人為監(jiān)控控制三類。根據(jù)是否在水面航行,無人船舶可分為無人水面艦艇和無人潛艇兩類?!翱沾痹谧獯瑯I(yè)務(wù)中通常指配備了船員卻沒有載貨或者載客的船舶,將“空船”與“無人”結(jié)合指代沒有載貨和載客且沒有船員的船舶。參見Chwedczuk M., ″Analysis of the Legal Status of Unmanned Commercial Vessels in U.S. Admiralty and Maritime Law,″ Journal of Maritime Law and Commerce, Vol.47, No.2 (2016), pp.128-130; Schmitt M.N. & Goddard D.S., ″International Law and the Military Use of Unmanned Maritime Systems,″ International Review of the Red Cross, Vol.98, No.2 (2016), p.571。,不同類型的無人船舶所適用的規(guī)則存在一定差異,由此也進(jìn)一步加劇了國際規(guī)則的復(fù)雜程度。

例如,在無人船舶的航行規(guī)則方面,根據(jù)《聯(lián)合國海洋法公約》(United Nations Convention on the Law of the Sea,簡稱UNCLOS)第17條和第58條的規(guī)定,船舶在他國領(lǐng)海享有無害通過權(quán)、在專屬經(jīng)濟區(qū)享有航行自由等航行權(quán)利。雖然UNCLOS在制定之初沒有考慮無人船舶,而且在第94條要求船旗國采取保證船舶海上航行安全的必要措施,其中就包括船員的資格和人數(shù)要求,但是鑒于UNCLOS中的大部分內(nèi)容已經(jīng)成為習(xí)慣國際法,無人船舶也應(yīng)當(dāng)享有類似的權(quán)利并履行同等的義務(wù)。同時,考慮到無人船舶的特殊性質(zhì)和潛在危險性,沿海國對無人船舶也應(yīng)當(dāng)享有特殊的管轄權(quán)。例如,UNCLOS第22條規(guī)定沿海國指定或規(guī)定海道和分道通航制,可以適用于無人船舶。為了方便沿海國的管轄,無人船舶本身應(yīng)當(dāng)具有特殊的足以被辨別的標(biāo)記,或者由船舶所有者主動向沿海國做特別報告。

值得注意的是,在UNCLOS中軍艦享有特殊的權(quán)利,例如主權(quán)豁免權(quán)、扣押實施海盜行為的船舶、登臨權(quán)、緊追權(quán),并參與旨在保護(hù)海洋環(huán)境的執(zhí)法行動(24)參見《聯(lián)合國海洋法公約》第32條,第107條,第110條,第111條,第224條。。由于軍艦需要軍官指揮并配備服從正規(guī)武裝部隊紀(jì)律的船員(25)參見《聯(lián)合國海洋法公約》第29條。,無人船舶往往難以滿足軍艦的要求。但是,為政府服務(wù)的其他船舶也具有同樣的權(quán)利(26)參見《聯(lián)合國海洋法公約》第32條,第107條,第110條第5款,第111條第5款,第224條。。除此之外,UNCLOS并沒有施加更多的標(biāo)準(zhǔn)。這意味著只要無人船舶具有相應(yīng)的標(biāo)記并有資格成為船舶,則沒有其他原因可以阻礙無人船舶由政府授權(quán)行使軍艦享有的特殊權(quán)利[32]579。

此外,在海事賠償責(zé)任方面,對于受遠(yuǎn)程控制和監(jiān)督的無人船舶,控制人、監(jiān)督者和船舶所有者應(yīng)當(dāng)對事故承擔(dān)責(zé)任。但是,完全自主的船舶在造成海洋污染或發(fā)生船舶碰撞事故時,應(yīng)當(dāng)由誰承擔(dān)責(zé)任?是所有者、設(shè)計者、建造人,還是船旗國?同時,在追責(zé)過程中還面臨主觀注意義務(wù)如何確定的困境。例如《國際海上避免碰撞規(guī)則》第7條要求船舶判斷是否存在碰撞危險,第8條規(guī)定了避免碰撞的行動。由于無人船舶難以做出理性人的分析,在涉及無人船舶的事故中進(jìn)行疏忽分析往往存在困難[33]421。因而,法律要求的注意義務(wù)目前只能由無人船舶的所有者或設(shè)計者在過錯原則的基礎(chǔ)上承擔(dān)。

三、 國際法應(yīng)對人工智能挑戰(zhàn)的途徑

大數(shù)據(jù)時代,直覺的判斷被迫讓位于精準(zhǔn)的數(shù)據(jù)分析[34]21,人類的衣、食、住、行都被迫與人工智能密切聯(lián)系。在強人工智能時代,人工智能表現(xiàn)出明顯的智能行為,至少在整個認(rèn)知任務(wù)中,與人類一樣先進(jìn)[1]7。艾薩克·阿西莫夫曾在短篇科幻小說《環(huán)舞》中首次提出機器人學(xué)的三大法則(27)第一法則,“機器人不得傷害人,或者坐視人類受到傷害而袖手旁觀”;第二法則,“除非違背第一法則,否則機器人必須服從人類命令”;第三法則,“在不違背第一及第二法則的前提下,機器人必須盡可能地保護(hù)自己”。。雖然這些法則針對的對象不包括其他類型的人工智能實體與研發(fā)者,但是也對今天如火如荼開展的人工智能研發(fā)提出了頗有價值的建議。人工智能的應(yīng)用在促進(jìn)社會發(fā)展的同時,也會產(chǎn)生嚴(yán)峻的安全問題,不排除人工智能的研發(fā)被用于實現(xiàn)非法目的,甚至走到人類難以控制的地步?;诖?,正確處理人工智能技術(shù)發(fā)展與國際法的關(guān)系顯得尤為重要。為此,國際社會必須確立以人工智能安全使用為價值的目標(biāo),始終以其對人類社會的影響為指導(dǎo),積極引導(dǎo)人工智能健康發(fā)展,在防范風(fēng)險的同時為人工智能技術(shù)的發(fā)展留有必要的制度空間。

(一) 制定國際軟法

國際軟法是沒有作為條約或習(xí)慣國際法的地位的形式性國際文書,亦是在形成過程中的未成熟規(guī)范的總稱[35]2。在變革過程中的法領(lǐng)域,由于新規(guī)則的形成存在困難,往往首先用“軟法”形式的文件抽象性地確認(rèn)這些規(guī)則,然后通過國家慣常的積累,將成熟的“軟法”凝固、結(jié)晶化為“硬法”[35]2。在國際軟法中,存在一種超級軟法,其制定主體是相關(guān)利益方、專業(yè)團體、社會和自然科學(xué)家、公司以及民間社會組織形成的無政府無領(lǐng)導(dǎo)的立法機構(gòu)[15]106。在其制定普遍適用的標(biāo)準(zhǔn)時,沒有任何傳統(tǒng)的國際法制定者參與其中,例如主權(quán)國家、國際組織等[15]106。從軟法發(fā)展的歷史來看,其產(chǎn)生的原因主要是新事物的出現(xiàn)和硬法制定的滯后。為了有效治理新事物,不得不率先制定軟法。

人工智能屬于新興領(lǐng)域,許多國家的人工智能技術(shù)尚處于起步或前期發(fā)展階段。雖然主權(quán)國家自身會出臺相關(guān)指導(dǎo)性規(guī)則、行業(yè)調(diào)整規(guī)則等,但是在短期內(nèi),各國難以締結(jié)具有約束力的國際規(guī)范。而人工智能的安全問題不容忽視,其發(fā)展需要得到有效規(guī)范。因此,人工智能的相關(guān)利益方、研發(fā)者、公司以及民間社會組織可以率先組織起來,盡快制定關(guān)于人工智能安全和倫理的技術(shù)標(biāo)準(zhǔn)。與網(wǎng)絡(luò)領(lǐng)域的代碼類似,這些標(biāo)準(zhǔn)將用于解決人工智能的安全和倫理問題。我國阿里巴巴、科大訊飛等科技公司的部分人工智能技術(shù)已經(jīng)處于世界前列,應(yīng)當(dāng)抓住這種領(lǐng)先優(yōu)勢,主動制定或牽頭制定相關(guān)超級軟法,從而掌握人工智能技術(shù)標(biāo)準(zhǔn)的話語權(quán)。同時,相關(guān)國際組織也應(yīng)當(dāng)積極制定規(guī)范人工智能的軟法規(guī)則。

值得注意的是,國際軟法都缺少法律約束力。網(wǎng)絡(luò)領(lǐng)域隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展逐漸制定了硬法,形成了“軟硬結(jié)合”的治理方式。在人工智能領(lǐng)域制定國際軟法雖然能夠解決技術(shù)問題和一定的倫理問題,但其不具有約束力,而且難以應(yīng)對層出不窮的新型社會問題和倫理問題。此外,網(wǎng)絡(luò)域名和地址分配規(guī)則與人工智能標(biāo)準(zhǔn)存在明顯不同。前者屬于靜態(tài)技術(shù),由于網(wǎng)絡(luò)的交互性和普遍性特征,各國需要遵循統(tǒng)一的標(biāo)準(zhǔn);而后者仍處在動態(tài)發(fā)展過程中,任何國家、團體或個人在掌握技術(shù)的情況下皆可創(chuàng)造人工智能實體,缺少遵循統(tǒng)一標(biāo)準(zhǔn)的動力。未來人工智能發(fā)展的高度可能超出人類所能控制的范疇,引發(fā)更深層次的倫理問題,因而需要相關(guān)的國內(nèi)法以及國際法予以指導(dǎo)、規(guī)制和保護(hù)。

(二) 修改和出臺多邊條約

解決各國之間有關(guān)人工智能的爭議、潛在問題以及沖突的最好的辦法就是通過多邊條約的形式[4]235。經(jīng)過長期發(fā)展,部分軟法硬法化是必須進(jìn)行的立法工作。軟法不具有強制力,其作用更多體現(xiàn)為指導(dǎo)性和宣示性。而人工智能仍處于發(fā)展之中,在必須設(shè)置強義務(wù)責(zé)任領(lǐng)域內(nèi)仍然需要硬法進(jìn)行規(guī)制。另一方面,軟法由于在解釋上具有更大的隨意性,也難以在司法程序范圍內(nèi)發(fā)展適用甚至改進(jìn),給國際法治建設(shè)帶來不穩(wěn)定因素。因此,將來有必要將部分人工智能軟法硬法化,促成相關(guān)多邊條約的出臺。同時,通過修改多邊國際規(guī)則,例如國家責(zé)任原則中的具體內(nèi)容,實現(xiàn)對人工智能的有效規(guī)范,避免出現(xiàn)法律漏洞的情況,及時解決人工智能對這些規(guī)則提出的挑戰(zhàn),形成全球性的風(fēng)險防控機制。

當(dāng)前,尚無任何國家或人權(quán)組織去關(guān)注弱人工智能演化為進(jìn)階版人工智能甚至強人工智能的后果。這本是一個應(yīng)該早在科學(xué)家、計算機工程師和程序員成功創(chuàng)建單個或多個超智能機器人或能控制地球的機器之前,就需要解決的可能對人類產(chǎn)生重大影響的問題[14]10-11。在現(xiàn)實生活中,人類在從事一定行業(yè)時往往需要一定的培訓(xùn)并取得資格證書和職業(yè)證書,人工智能在具體應(yīng)用到某一領(lǐng)域時也應(yīng)達(dá)到相應(yīng)的標(biāo)準(zhǔn)[2]419。對此,國際社會宜設(shè)定人工智能的使用標(biāo)準(zhǔn)[4]240-241,以便監(jiān)督管理。

在人工智能武器系統(tǒng)領(lǐng)域,非政府組織Article 36提出了“有意義的人類控制”(Meaningful Human Control)這一新興概念,作為解決AWS所帶來的挑戰(zhàn)的一種可能方案[36]1,并得到聯(lián)合國《特定常規(guī)武器公約》締約國的廣泛認(rèn)同(28)Article 36, ″Article 36 Reviews and Addressing Lethal Autonomous Weapons Systems,″ http://www.article36.org/wp-content/uploads/2016/04/LAWS-and-A36.pdf, 2020-01-31.。該組織將滿足人類控制的關(guān)鍵要素總結(jié)為四點:第一,技術(shù)是可預(yù)測的、可靠的和透明的;第二,使用者必須擁有正確的信息;第三,及時的人類判斷、行動和介入;第四,一定標(biāo)準(zhǔn)下的負(fù)責(zé)制[37]3-4。其實,無論是AWS,還是其他類型的人工智能實體,人類都應(yīng)當(dāng)始終對人工智能的發(fā)展和行為負(fù)責(zé),以避免人工智能本身對人以及人類的權(quán)益造成損害。因而,任何人工智能實體都應(yīng)當(dāng)嚴(yán)格遵守“有意義的人類控制標(biāo)準(zhǔn)”。該標(biāo)準(zhǔn)應(yīng)當(dāng)以法律規(guī)范的形式固定下來,并貫穿于人工智能實體研發(fā)、制造和使用的全過程。

然而,修改與制定國際規(guī)則不是一蹴而就的事情,國家之間的利益分歧往往阻礙新規(guī)則的產(chǎn)生和發(fā)展。從國內(nèi)規(guī)則與國際規(guī)則的互動規(guī)律來看,國內(nèi)規(guī)則與國際規(guī)則之間總是相互影響、相互促進(jìn)的(29)參見趙駿《全球治理視野下的國際法治與國內(nèi)法治》,載《中國社會科學(xué)》2014年第10期,第79-99頁;孔慶江、王藝琳《國際法與國內(nèi)法的關(guān)系:國際組織法律文件的視角》,載《武大國際法評論》2018年第1期,第50-76頁。。國內(nèi)規(guī)則在得到他國認(rèn)同的情況下可能會逐漸上升為國際規(guī)則,同時國際規(guī)則也會在主權(quán)國家承擔(dān)國際義務(wù)的范圍內(nèi)轉(zhuǎn)化為國內(nèi)規(guī)則。在人工智能領(lǐng)域,雖然尚未締結(jié)任何有約束力的國際規(guī)則,但是相關(guān)的國內(nèi)政策和規(guī)則已經(jīng)出現(xiàn)。在制定與修改國際規(guī)則的路徑上,部分主權(quán)國家可以選擇在分歧較小又亟須實現(xiàn)有效規(guī)范的技術(shù)標(biāo)準(zhǔn)領(lǐng)域率先締結(jié)雙邊或區(qū)域性條約,將國內(nèi)法的共識部分上升為國際條約。隨著人工智能的不斷發(fā)展,相關(guān)國際條約的加入國會不斷增加,反過來也會影響國內(nèi)規(guī)則的制定??傮w上,多邊條約將會與相關(guān)行業(yè)規(guī)則、國家立法、國際示范法等相互影響、相互促進(jìn)。

(三) 設(shè)立專門性國際機構(gòu)

為了應(yīng)對人工智能在全球范圍內(nèi)帶來的機遇與挑戰(zhàn),引導(dǎo)人工智能更好地服務(wù)于人類命運共同體的建設(shè),宜在國際層面設(shè)立人工智能的專門性國際機構(gòu)。考慮到各國之間的利益分歧,人工智能專門性國際機構(gòu)并不限于政府間國際組織。在職責(zé)方面,人工智能專門性國際機構(gòu)應(yīng)當(dāng)至少履行以下五個方面的職責(zé):(1)關(guān)注并制定人工智能行業(yè)標(biāo)準(zhǔn)、技術(shù)與倫理規(guī)范;(2)人工智能研發(fā)的合規(guī)、國家規(guī)則協(xié)調(diào)及監(jiān)管;(3)人工智能技術(shù)與知識產(chǎn)權(quán)保護(hù);(4)人工智能爭端與沖突解決;(5)人工智能與現(xiàn)有國際法體系的“融合”等等。

以人工智能的監(jiān)管為例,由于任何一國的強人工智能都可能變成對全人類的威脅,因而迫切需要實現(xiàn)全球性的監(jiān)管合作。根據(jù)《第一議定書》第36條的規(guī)定,一個國家具有自主審查新武器、作戰(zhàn)手段或方法的義務(wù),以確定是否符合國際規(guī)定。然而,由于超智能機器以廣泛共享的人類理想為動力,可以對人類控制新興技術(shù)的危險方面更為有益,從而能夠提高國家的政治、經(jīng)濟和國防優(yōu)勢。沒有一個國家或公司會放棄研究人工智能,因為研究可以獲得某些好處并制衡競爭對手[19]139。因而,主權(quán)國家一般缺少足夠的動力去執(zhí)行自主審查任務(wù),需要獨立的第三方來履行監(jiān)督人工智能技術(shù)發(fā)展的責(zé)任。

作為尖端科技,人工智能技術(shù)在各國和私人機構(gòu)的研發(fā)和應(yīng)用一般處于保密狀態(tài)。但是,如果任由資本和利益驅(qū)動的人工智能技術(shù)發(fā)展,可能會對公平、正義造成毀滅性打擊。在監(jiān)管方式上,各國和私人研發(fā)機構(gòu)應(yīng)當(dāng)定期向?qū)iT機構(gòu)報告研發(fā)進(jìn)程,同時在出現(xiàn)重大技術(shù)創(chuàng)新時也必須及時報告。在監(jiān)管對象上,應(yīng)當(dāng)局限于一定水平基礎(chǔ)上的人工智能核心程序或算法。雖然人工智能可以被應(yīng)用于各個領(lǐng)域,但是專門機構(gòu)的監(jiān)管范圍并不包括所有與人工智能相關(guān)的領(lǐng)域,而應(yīng)當(dāng)被限定在與人類安全息息相關(guān)的領(lǐng)域,例如武器系統(tǒng)等。

由于對人工智能技術(shù)的有效管理需要機構(gòu)擁有專業(yè)技術(shù)知識,因而監(jiān)管部門以及監(jiān)管過程的各個階段都需要高級專家的參與。對此,一方面,可以采取新型的人事分配和交換模式,即臨時性人事分配模式,讓專家在監(jiān)管機構(gòu)、大學(xué)、研發(fā)中心以及其他符合條件的組織之間定期流動。另一方面,可以建設(shè)技術(shù)合作機制,由國際監(jiān)管機構(gòu)委托獨立技術(shù)機構(gòu)檢查、測試部分算法。同時,各國應(yīng)當(dāng)加大與人工智能有關(guān)的教育投入,培養(yǎng)一批專業(yè)的隊伍。

四、 結(jié) 語

人工智能的發(fā)展已經(jīng)成為不可阻擋的潮流和趨勢,也再次突顯了科技與法律的矛盾關(guān)系。追溯遠(yuǎn)古,如果將工具的使用看作科學(xué)創(chuàng)造、把規(guī)則的創(chuàng)制視為發(fā)明,那么科技與法律都是人類為了更好地生存和生活而進(jìn)行的文明構(gòu)建。人工智能的發(fā)展對社會各方面都產(chǎn)生了重大影響。在國際法領(lǐng)域,人工智能不僅極大地挑戰(zhàn)了國際法基本原則,而且深刻影響了國際法的具體領(lǐng)域。面對這些共同的挑戰(zhàn)和風(fēng)險,亟須實現(xiàn)全球治理。盡管國際社會無法在短期內(nèi)達(dá)成較為一致的意見,從而制定國際法規(guī)予以管制,但是技術(shù)層面的自我規(guī)制可率先行動。通過民間力量形成較為可行的技術(shù)標(biāo)準(zhǔn),首先保障人工智能不越界,這也完全符合法的歷史軌跡——從共識到習(xí)慣再到規(guī)則。同時,國際法律工作者應(yīng)主動參與人工智能相關(guān)軟法的制定,并適時促成相關(guān)多邊條約的出臺,設(shè)定“有意義的人類控制標(biāo)準(zhǔn)”,同時設(shè)立國際監(jiān)管機構(gòu),實現(xiàn)對人工智能技術(shù)的有效引導(dǎo)、約束和規(guī)范,使人工智能的發(fā)展在法治的軌道上不斷推進(jìn)。

猜你喜歡
國際法船舶人工智能
《船舶》2022 年度征訂啟事
非國家行為體網(wǎng)絡(luò)行動的國際法責(zé)任認(rèn)定研究
論作為國際法淵源的一般法律原則
國際法和比較法中的法律方法 柔性國際法的疆界及其界定方法
作為國際法淵源的條約
BOG壓縮機在小型LNG船舶上的應(yīng)用
2019:人工智能
人工智能與就業(yè)
船舶 揚帆奮起
數(shù)讀人工智能
南宁市| 渝中区| 凤台县| 钟山县| 苍山县| 舒城县| 准格尔旗| 荃湾区| 门源| 临邑县| 南投县| 兖州市| 临夏县| 盖州市| 云梦县| 洱源县| 宝坻区| 灯塔市| 临泉县| 东乡县| 呼图壁县| 山阴县| 黄大仙区| 环江| 夏河县| 康定县| 凭祥市| 文登市| 高阳县| 格尔木市| 华蓥市| 漳浦县| 绥芬河市| 东乌珠穆沁旗| 和顺县| 思茅市| 宣化县| 青冈县| 三明市| 平和县| 宁远县|