国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能武器對國際人道法的沖擊與回應

2024-11-02 00:00:00付姝菊

摘 要:21世紀以來,軍事領域應用人工智能技術研發(fā)的新型武器如雨后春筍般出現(xiàn)。人工智能武器具有智能性和攻擊性,在法律上可被認為是具有一定自主決策能力并輔助人類進行攻擊的工具。人工智能武器的出現(xiàn)對國際人道法的區(qū)分原則、比例原則和馬爾頓斯條款造成了沖擊,給國際人道法的歸責原則帶來了挑戰(zhàn)。為保證人工智能武器的合理利用,國際社會應強化事前審查制度,構建事中執(zhí)行標準,完善事后追責機制,避免人工智能武器帶來巨大法律風險和倫理危機,捍衛(wèi)人類社會的和平、安全和尊嚴。

關鍵詞:國際人道法;戰(zhàn)爭法;人工智能武器;《特定常規(guī)武器公約》

中圖分類號: D990;TP18 文獻標識碼: A 文章編號: 2096-7055(2024)05-0075-08

一般認為,人工智能武器是指利用人工智能技術和算法來控制、決策和執(zhí)行任務的武器系統(tǒng)。它通過集成人工智能算法和大數(shù)據(jù)分析,自主進行目標識別、決策和打擊,從而減少對人類操作員的依賴。人工智能技術被廣泛應用于武器系統(tǒng),用于搜尋、識別、鎖定、跟蹤目標物,以及啟動對目標物的攻擊。當前各國實際部署的人工智能武器包括反火箭、火炮、迫擊炮系統(tǒng)、巡飛器等[1],這表明人工智能技術的應用在軍事領域取得了巨大進展。然而,人工智能武器可能有違國際人道法的某些原則,甚至損害人類生命、健康或者財產(chǎn)安全,使原本作為人類工具和助手的機器反客為主,成為人類工作崗位的替代者,甚至成為侵略者、統(tǒng)治者。因此,研究國際人道法視域下的人工智能武器法律問題具有重要的理論與實踐意義。

一、人工智能武器:技術本質、法律地位和影響

(一)人工智能武器的技術本質

相比于傳統(tǒng)武器,人工智能武器具有鮮明特點。人工智能武器利用人工智能技術,具備自主學習、決策和執(zhí)行任務的能力。首先,人工智能武器高度自動化,通過傳感器實時獲取、學習和分析環(huán)境信息。其次,它可以通過分析和處理數(shù)據(jù),從中提取有用的信息,并根據(jù)情境做出適當?shù)臎Q策。最后,它能夠在沒有人類操作員直接干預的情況下執(zhí)行任務,根據(jù)預設的指令和算法,自主選擇目標、規(guī)劃路徑,并實施打擊或其他作戰(zhàn)行動。

人工智能武器主要依賴四項關鍵技術。第一,機器學習。機器學習是人工智能武器的核心技術之一。通過訓練模型和算法,人工智能武器可以從大量的數(shù)據(jù)中學習并提取有用的信息。通過分析戰(zhàn)場情報、目標特征和環(huán)境條件等數(shù)據(jù),從中發(fā)現(xiàn)模式和規(guī)律,并做出相應的決策。第二,深度學習。深度學習是機器學習的一個分支,通過構建深層神經(jīng)網(wǎng)絡模型,人工智能武器可以進行更復雜的數(shù)據(jù)分析。深度學習可以幫助人工智能武器進行目標識別、目標跟蹤和行為預測等,提高其感知和認知能力。第三,自然語言處理。自然語言處理技術使得人工智能武器能夠處理和理解人類語言。這對于接收和解釋來自指揮官或其他操作員的指令、報告和情報信息非常重要。通過自然語言處理技術,人工智能武器可以從文本中提取關鍵信息,并根據(jù)指令進行相應的行動。第四,強化學習。強化學習是一種使人工智能武器通過與環(huán)境的交互來學習和優(yōu)化決策的技術。通過獎勵和懲罰的反饋機制,人工智能武器可以不斷調(diào)整行為,優(yōu)化結果。這使得人工智能武器能夠在面對不同情境和敵對行為時做出適應性的決策。

(二)人工智能武器的法律地位

探究人工智能武器給國際人道法帶來威脅的前提是界定其法律人格屬性。學界關于人工智能武器法律人格的定位尚無定論,目前主要有“工具說”“電子人說”和“有限法律人格說”三種觀點。

第一種觀點可稱為“工具說”。該學說認為,只有碳基生物人類才有可能創(chuàng)造知識,人工智能武器只是人類智力勞動成果的科技化、規(guī)?;?、智能化,換言之,人工智能只是一種人造工具[2]。人類以前使用傳統(tǒng)裝置打擊目標,現(xiàn)在通過創(chuàng)建具備分析能力的工具(人工智能武器)打擊目標。二者就像畫家用筆畫像和用相機拍照一樣。另有學者將該學說稱作“奴隸說”,認為人工智能具有能力但不具有法律人格和權利能力,將其視為人類的奴隸而解釋了人工智能為何不承擔法律責任這一問題。還有學者稱其為“行為說”,僅將其視為人工智能研發(fā)者、制造者和使用者的法律行為,是人控制下的、人能力的延伸物,它本身沒有內(nèi)源性的行為能力,也沒有內(nèi)源性的權利能力,故只能是人工智能主體(如設計者、制造者以及使用者等)的法律行為。

第二種觀點可稱為“電子人說”。部分學者認為,人工智能武器自身的自主性取代了人類的意志,故應將其視為法律擬制的主體且具有獨立人格。該學說將硅基人工智能與碳基人類并列起來,認為人工智能武器作為元宇宙的重要元素,具有獨立意識,能進行獨立判斷,已經(jīng)擺脫了人的控制。例如,與人工智能武器類似的生成式人工智能ChatGPT就曾表示自己并非人類,但渴望成為人類。歐盟法律事務委員會向歐盟議會提出關于人工智能的立法建議中,在法律主體資格問題上,建議考慮確認復雜且自主的人工智能“電子人”的法律地位,具體到國際人道法視域下的人工智能武器,就是將其認定為“戰(zhàn)斗員”。

第三種觀點可稱為“有限法律人格說”。有學者認為,人工智能武器并非傳統(tǒng)意義上的工具,它具備決策能力,因此可以具有有限人格。該學說認為,人工智能是人類創(chuàng)造的,但已超越了人與物二元對立的界分,顯然它既不是物也不是人,所以必須跳出“非人即物”的牢籠,考慮賦予人工智能武器有限人格。相比于阿爾法狗一類的單一功能的弱人工智能,人工智能武器可以被賦予法律主體的地位而非僅作為工具。有學者認為,法律主體范圍可以合理擴大,人工智能武器的智能發(fā)展過程是模仿自然人的,與人在本質上是相似的,故可賦予其與自然人等價的事實和法律關系。考慮到人工智能武器在民事行為能力和責任能力方面的不足,故應對其民事行為能力的主體地位和權利給予適當限制,制度設計方面可參照未成年人監(jiān)護制度[3]。

在以上諸多學說中,筆者認同“工具說”。人的尊嚴是法律正當性的來源,賦予人工智能主體地位將會違背“主客體不能置換原理”。就其本身的特性而言,人工智能難以產(chǎn)生獨立意志,無法獨立主張權利和承擔法律責任,人工智能武器更不應具有獨立人格和意識。從法律實施的社會效果看,賦予其法律主體資格將極大地挑戰(zhàn)現(xiàn)有的法律體系,更為嚴重的是,人工智能可能會淪為人類逃避責任的工具。

(三)人工智能武器對現(xiàn)代戰(zhàn)爭與社會的影響

人工智能武器對現(xiàn)代戰(zhàn)爭和現(xiàn)代社會產(chǎn)生了深遠影響。傳統(tǒng)的戰(zhàn)爭形態(tài)正在發(fā)生變化,現(xiàn)代戰(zhàn)場的作戰(zhàn)環(huán)境復雜多變,對軍事力量提出了更高要求。人工智能武器通過自主學習、自主決策和自主執(zhí)行任務,具備了更高的智能化和自動化水平[4],從而更接近現(xiàn)代戰(zhàn)爭的需求。人工智能武器可以通過實時分析情報數(shù)據(jù),快速識別并打擊敵方目標,提高作戰(zhàn)效能、減少誤傷、降低風險。此外,人工智能武器還可以填補人力資源短缺的問題。在一些高強度、高風險的作戰(zhàn)任務中,使用人工智能武器可以減少對士兵的依賴,降低傷亡風險,并提供更長時間的持續(xù)作戰(zhàn)能力。

人工智能武器的出現(xiàn)也引發(fā)了一系列的倫理和安全問題[5]。人類應當意識到,使用人工智能武器需要審慎考慮其合法性、安全性和倫理性,以及對人類和社會的長期影響。人工智能的自主性和自動化特點可能導致其產(chǎn)生無法預測的行為,從而增加誤傷和沖突升級的風險。從國際人道法的角度看,人工智能武器顯著地影響區(qū)分原則、比例原則和馬爾頓斯條款的解讀與落地,需要國際社會共同關注和探討。

二、人工智能武器給國際人道法造成的沖擊

(一)對國際法基本原則造成沖擊

1.對區(qū)分原則的沖擊

國際人道法的基本原則之一是區(qū)分原則,它為國際人道法規(guī)則奠定了基礎。該原則要求在敵對行動時,參與武裝沖突的各方必須區(qū)分戰(zhàn)斗員和平民、軍事目標和民用目標,并對使用的作戰(zhàn)手段和方法加以限制。這一原則首次出現(xiàn)在1868年《圣彼得堡宣言》中,宣言明確規(guī)定無論何種敵對行動或武裝沖突,軍事攻擊的唯一合法目標應是削弱敵對武裝力量。然而,人工智能武器對區(qū)分原則帶來了挑戰(zhàn),這可以用誤擊原則來描述,即在錯誤認定戰(zhàn)斗員和軍用物體的情況下進行攻擊,給平民帶來不必要的傷害和財產(chǎn)損失。

在現(xiàn)實的戰(zhàn)場環(huán)境中,人類戰(zhàn)斗員不一定在每個場景中都能準確區(qū)分平民和戰(zhàn)斗員,以及民用目標和軍事目標。而引入人工智能武器后,區(qū)分原則的遵守將變得更加困難。一方面,人工智能武器可能無法準確區(qū)分戰(zhàn)斗員和平民,因為戰(zhàn)場情況瞬息萬變,角色也可能在轉化。此外,人工智能武器難以區(qū)分戰(zhàn)斗員和失去戰(zhàn)斗能力的人,以及軍事物體和民用物體,因為物體的功能是隨時發(fā)生轉化的。另一方面,人工智能武器面臨難以預測的區(qū)分偏見。由于算法可以根據(jù)已有的歧視性數(shù)據(jù)進行訓練,并且數(shù)據(jù)使用頻率加快、場景增多,人工智能技術可能會使歧視與偏見永久化。

因此,盡管人工智能武器在計算機技術方面取得了進展,但在遵守國際人道法的區(qū)分原則方面仍面臨諸多挑戰(zhàn)。具體而言,人工智能武器在準確區(qū)分戰(zhàn)斗員和平民、軍事目標和民用目標方面缺乏人類的理性判斷,可能對區(qū)分原則產(chǎn)生不良影響。

2.對比例原則的沖擊

比例原則是國際人道法中的重要原則之一,該原則要求在武裝沖突中,一方實施的攻擊行為導致的附帶損害不應超過合理限度,并且在不可避免造成附帶損害時,也不應超過軍事行動預期達到的軍事利益?!妒ケ说帽ば浴泛汀度諆?nèi)瓦公約第一附加議定書》也強調(diào)了比例原則的重要性,要求對戰(zhàn)爭中的武器、作戰(zhàn)方法和作戰(zhàn)手段進行限制,確保攻擊行動僅限定在一定的軍事利益范圍內(nèi),避免對平民和民用物體進行不分青紅皂白的攻擊,以保護平民的生命和財產(chǎn)安全。

從技術角度看,人工智能武器遵守比例原則甚至比遵守區(qū)分原則更具挑戰(zhàn)性,因為比例原則涉及生命價值的選擇等一系列倫理問題。通常認為,只有人類才能感知生命的意義,具備對生命做出判斷、衡量和選擇的能力。而人工智能武器只是搭載了高精尖技術的機器人,缺乏人類的情感智力和觸感,無法理解生命的價值和意義,也無法對軍事利益和可能造成的附帶損害進行衡量[6]。

更為嚴重的是,人工智能武器可能帶來難以控制的附帶損害。一旦激活并選擇完全自主攻擊模式,人工智能武器將根據(jù)預設的算法程序自主識別和選定目標發(fā)起攻擊,可能給人類環(huán)境和文明帶來超出常態(tài)的過度損害,這與軍事利益不成比例,屬于額外、不必要的損害。因此,盡管人工智能武器在技術上取得了進展,但在遵守比例原則方面仍面臨困難。

3.對馬爾頓斯條款的沖擊

馬爾頓斯條款強調(diào),在武裝沖突中,無論是否有明確規(guī)定,任何類型武器的使用都不能違背人道主義原則和公眾良知。該條款要求即使國際條約沒有對相關情況作出具體規(guī)定,參與武裝沖突的各方仍需遵守戰(zhàn)爭法規(guī)和相關慣例,在武裝沖突中應該盡量減少對平民的傷害。這一原則體現(xiàn)了人道主義的核心精神。此外,馬爾頓斯條款在國際人道法中具有重要意義,這是因為國際法律滯后于新型武器的發(fā)展,無法及時制定專門的規(guī)章來約束其使用,馬爾頓斯條款作為一項兜底性原則,填補了在規(guī)制新型武器方面的國際法律空白。

人工智能武器作為一種新型武器,遵守馬爾頓斯條款存在困難。由于人工智能武器缺乏情感和道德判斷能力,缺乏人為控制的關鍵功能,無法準確理解生命的價值和尊嚴,因此可能違反最低限度的人道主義原則和公眾良知。首先,在目標識別方面,人工智能武器依賴算法和數(shù)據(jù)來辨識和區(qū)分目標,但由于技術的局限性和數(shù)據(jù)的不完整性,其可能會錯誤地將平民誤認為軍事目標,從而造成不必要的傷亡和破壞。這種誤判可能違反了馬爾頓斯條款中關于減少對平民傷害的要求。其次,人工智能武器的自主性決定其可以在沒有人類干預的情況下作出決策和執(zhí)行任務。然而,由于缺乏情感和道德判斷能力,人工智能武器可能無法適當考慮戰(zhàn)爭法規(guī)和相關慣例而過度使用武力,導致不必要的痛苦和破壞。這種過度傷害違反了馬爾頓斯條款中關于避免不必要的痛苦和破壞的要求。最后,人工智能武器缺乏可追溯性和透明性也是一個問題。由于其復雜的算法和決策過程,人工智能武器的行為可能難以解釋和追溯,從而難以確定是否符合人道主義原則和公眾良知的要求。這種缺乏可追溯性可能違反了馬爾頓斯條款中關于確保武器使用合法性的要求。

總之,盡管馬爾頓斯條款強調(diào)任何類型的武器使用都不能違背人道主義原則和公眾良知,但人工智能武器的特殊性質和功能限制使其遵守這一原則存在困難[7]。

(二)對國際法歸責機制造成沖擊

在國際人道法框架下,歸責是為了懲治在武裝沖突中違反國際義務的國家和犯下戰(zhàn)爭罪行的個人,因而國際人道法的責任可分為國家責任和個人責任。在人工智能武器尚未投入軍事戰(zhàn)場之前,國際法上的國家責任和個人責任都是相對容易確定的,而人工智能武器的出現(xiàn)改變了這一態(tài)勢。

1.個人責任

人工智能武器使得個人責任難以清楚劃分。首先,人工智能武器的自主性使得判斷和決策過程變得更加復雜,這可能導致難以確定具體的責任人或責任機構。其次,人工智能武器的使用往往涉及跨國行動和多個參與方,這增加了確定責任的難度。例如,在利用無人機攻擊目標的軍事行動中,操作者、制造商、指揮官等多個角色都可能承擔部分責任。再次,人工智能武器的技術復雜性也對調(diào)查和證據(jù)收集提出了挑戰(zhàn)。對于一些自主決策的武器系統(tǒng),很難獲得可靠證據(jù)來證明其是否存在違反國際人道法的行為。最后,國際人道法的歸責機制需要適應新技術的發(fā)展并及時進行更新。隨著人工智能武器的不斷演進,相關法律和規(guī)范也需要相應的更新,以確保對違反國際人道法行為的追責和懲罰,這需要國際社會的合作和協(xié)調(diào)[8]。

2.國家責任

人工智能武器給個人責任劃分帶來挑戰(zhàn)的同時也使得國家責任更難區(qū)分。

首先,難以區(qū)分的個人責任導致國家責任變得模糊。人工智能武器的自主性使得判斷和決策過程變得復雜,可能導致難以確定誰是具體的責任人或責任機構。傳統(tǒng)上,國際人道法中的國家責任通常與軍事指揮官、政府或國家機構相關聯(lián)。然而,對于人工智能武器的行為,責任的認定與劃分可能涉及多個國家的制造商、操作者、指揮官等。因此,確定國家責任變得更加困難。人工智能武器的出現(xiàn)和應用給國家承擔責任帶來了新的影響和挑戰(zhàn)[9]。

其次,人工智能武器的自主性可能導致責任的模糊性,甚至可能會引發(fā)法律和倫理爭議。由于人工智能武器可以在沒有人類干預的情況下作出決策和執(zhí)行任務,當出現(xiàn)意外事故或錯誤行動時,很難確定責任應該歸咎于誰。這可能使國家和相關機構在涉及對平民的傷害時難以追究責任,從而引發(fā)對其合法性和道德性的質疑[10]。

最后,人工智能武器的技術風險和安全威脅對國家承擔責任產(chǎn)生影響。人工智能武器有存在系統(tǒng)漏洞或被黑客攻擊的可能性,這種未經(jīng)授權的行動或誤用可能造成嚴重后果。人工智能武器的自主性和復雜性使得其行為可能難以被解釋和預測,這可能導致國家面臨國內(nèi)和國際社會的批評和指責,進而對其聲譽和國際形象產(chǎn)生負面影響。換言之,在人工智能武器造成的刑事犯罪中,過失犯罪、間接故意犯罪等應承擔何種責任,需要當前國際刑法做出回應。

三、國際人道法對人工智能武器的回應路徑

鑒于人工智能武器給國際人道法帶來了基本原則和歸責原則方面的挑戰(zhàn)和影響,國際社會需要加強對人工智能武器的監(jiān)管和規(guī)范以應對人工智能武器帶來的責任問題,確保其使用符合法律規(guī)定和道德要求。包括完善事前審查制度、建立適當?shù)姆煽蚣堋⒅贫▊惱頊蕜t、加強技術安全措施,并加強國際合作和對話等。只有通過合理的管控和規(guī)范,國際社會才能更好地履行人工智能武器使用的責任,確保其符合人道主義原則,使人工智能科技之“善”應用于人類的根本利益和最廣大人民的福祉,進而構建更加合理公正的社會秩序[11]。

(一)事前審查制度

事前評估人工智能武器的合法性有助于武裝部隊提前預判實施的相關行為是否違反國際義務。

國際社會應在國內(nèi)建立國家強制性審查機制以審查人工智能武器的合法性。2001年,《特定常規(guī)武器公約》的第二次審查會議敦促尚未建立武器合法性審查機制的國家開展對新武器的審查,但目前只有部分國家建立了國內(nèi)強制性武器審查機制。人類對人工智能武器的追求和國家怠于審查人工智能武器的合法性這一矛盾是未來人工智能武器違反國際人道法的主要風險之一。因此,建立國家強制性武器審查機制并建立健全國家怠于審查人工智能武器的責任制度,是國際社會當前亟須解決的問題。

對人工智能武器的合法性審查,需要貫穿從系統(tǒng)研發(fā)到采購及使用的整個過程。合法性審查標準應包括以下內(nèi)容:是否屬于人道法嚴禁使用的武器;是否采用禁止使用的作戰(zhàn)手段和方法;是否遵守國際人道法的區(qū)分原則、比例原則和預防原則等。此外,還有一種觀點提出了道德準則嵌入的概念,即通過合法性審查和倫理審查來實現(xiàn)對人工智能武器系統(tǒng)有意義的人類控制,最大限度地減少對人類產(chǎn)生不利影響的風險。

(二)事中遵守規(guī)范

國際法中一直存在限制武器使用的規(guī)定,要求參與武裝沖突的各方在武器的選擇和使用方法上都要受到限制和約束,包括禁止使用可能造成過分傷害或過分痛苦的武器,以及不能區(qū)分戰(zhàn)斗員和民用物體的武器。此外,還有一些規(guī)制或禁止使用特定武器的公約,包括禁止使用生化武器、殺傷人員地雷、激光致盲武器的公約。《日內(nèi)瓦公約第一附加議定書》第三十六條規(guī)定,在研發(fā)和使用新武器、新作戰(zhàn)手段及方法時,締約方應當考慮此種新武器、新作戰(zhàn)手段和方法是否被國際法所禁止?!短囟ǔR?guī)武器公約》強調(diào),在武裝沖突中作戰(zhàn)手段和作戰(zhàn)方法的選擇并不是不受任何約束的,任何時候都要將平民和戰(zhàn)斗員置于人道主義的保護之下。鑒于此,國際社會可以考慮將人工智能武器納入國際法審查中。具體而言,人工智能武器事中遵守規(guī)范應包括適當?shù)姆煽蚣?、倫理準則、技術安全規(guī)范等。

第一,建立適當?shù)姆煽蚣?。從國際法的角度出發(fā),確立適當?shù)姆煽蚣苁枪芾砗鸵?guī)范人工智能武器使用的重要步驟。首先,國際社會可以考慮制定新的國際公約或協(xié)定,專門針對人工智能武器的使用進行規(guī)范。這些公約或協(xié)定應該包括明確的原則、準則和規(guī)則,以確保人工智能武器的合法性、透明性和道德性。此外,公約或協(xié)定還可以規(guī)定國家之間的合作機制,促進信息共享、技術合作和相互監(jiān)督。其次,國際社會可以通過解釋和擴展現(xiàn)有的國際法來適應人工智能武器的特殊性。例如,根據(jù)國際人道法和國際人權法的原則,可以解釋人工智能武器使用時的合法性、比例原則和減少對平民傷害的要求。此外,可以考慮將人工智能武器的使用納入禁止或限制使用的武器類別中。再次,各國可以在國內(nèi)制定相關法律和監(jiān)管措施,以管理和規(guī)范人工智能武器的研發(fā)、生產(chǎn)、出口和使用。這些法律和監(jiān)管措施應要求人工智能武器符合人道主義原則和公眾良知。同時,國家還應加強對人工智能武器的監(jiān)督和審查,確保其安全性和可靠性[12]。最后,國際社會可以通過加強信息共享、技術合作、能力建設和經(jīng)驗交流等方面的國際合作來應對人工智能武器的挑戰(zhàn)。同時,可以建立專門的國際機構或委員會來監(jiān)督和評估人工智能武器的使用,并促進國際合作和對話。

第二,制定倫理準則。從國際法的角度出發(fā),制定適當?shù)膫惱頊蕜t是管理和規(guī)范人工智能武器使用的重要一環(huán)。一是尊重人權和人道主義原則。倫理準則應強調(diào)人權的尊重和保護,確保人工智能武器的設計、開發(fā)和使用不會違反人權法和國際人道法,包括減少對平民的傷害、避免不必要的痛苦和破壞,以及尊重生命的價值和尊嚴。二是透明度和可解釋性。倫理準則應促進人工智能武器的透明度和可解釋性。這意味著人工智能武器的決策過程應該能夠被理解和解釋,使其使用者和相關當事人能夠理解為什么做出了特定的行動或決策。三是可追溯性和問責制。倫理準則應要求人工智能武器的行為可以被追溯和審查。這包括記錄和存儲相關數(shù)據(jù),以便在需要時調(diào)查和評估其使用的合法性。此外,應建立相應的問責機制,確保對人工智能武器的使用者和相關當事人進行必要的問責。四是公正和非歧視性。倫理準則應強調(diào)人工智能武器的設計和使用應該公正和非歧視,人工智能武器不應基于種族、性別、宗教、國籍等因素偏袒或歧視某些人群,而是根據(jù)客觀和合理的標準進行行動和決策。五是人為控制和審查性。應確保人工智能武器的使用在人為控制和審查之下,人類操作員應該負有最終的決策權和責任,并且能夠對人工智能武器的行為進行必要的監(jiān)督和干預。

第三,加強技術安全措施。一是安全設計和開發(fā)。人工智能武器的設計和開發(fā)應將安全性作為首要考慮因素,包括采用安全的軟硬件架構、強化系統(tǒng)防護措施、確保數(shù)據(jù)的完整性和機密性,以及防止未經(jīng)授權的訪問和操縱。二是強化身份認證和訪問控制。為了防止未經(jīng)授權的訪問和操縱,人工智能武器應該采用強化的身份認證和訪問控制機制,包括使用多重身份驗證、加密通信和訪問權限管理等技術手段,確保只有經(jīng)過授權的人員才能使用和操作人工智能武器。三是數(shù)據(jù)隱私和保護。人工智能武器使用的數(shù)據(jù)應采取加密和匿名化技術,同時確保數(shù)據(jù)的獲取和使用符合相關隱私法律和規(guī)定。四是漏洞和威脅監(jiān)測。為了及時發(fā)現(xiàn)和應對安全漏洞和威脅,人工智能武器應該建立有效的監(jiān)測和預警機制,開發(fā)實時監(jiān)控系統(tǒng)、網(wǎng)絡入侵檢測系統(tǒng)和安全事件響應計劃等,以確保對潛在威脅的及時識別和應對。五是技術合作和信息共享。國際社會應加強技術合作和信息共享,提高人工智能武器的安全性,分享最佳實踐、技術標準和安全經(jīng)驗,促進跨國界合作和協(xié)調(diào),共同解決人工智能武器面臨的技術挑戰(zhàn)和安全問題。

需要指出的是,制定法律框架、完善倫理規(guī)范和加強技術安全措施需要各國之間的合作和協(xié)商[13]。國際社會應通過國際合作機制和多邊協(xié)商,共同制定技術標準和最佳實踐,以確保人工智能武器的安全使用。此外,技術安全措施應與法律框架和倫理準則相互協(xié)調(diào),形成一個綜合的管理體系,以確保人工智能武器的使用符合法律規(guī)定和道德要求。

(三)事后追責機制

明確使用人工智能武器的國家責任至關重要。當一個國家實施了相關的不法行為并造成損害時,該國應當承擔相應的國家責任。強化使用人工智能武器的國家責任可以在一定程度上促使國家對人工智能武器的使用更加謹慎。為了避免違反國際義務、避免被追究國家責任以及減少違法成本,一個國家會對人工智能武器的研發(fā)、生產(chǎn)和使用采取更加審慎的態(tài)度。因此,在國際法層面,可以通過強化國家責任來引導人工智能武器的規(guī)范發(fā)展[14]。

明確和加強國家對其不法行為所應承擔的責任,可以有效減少由人工智能武器使用所帶來的國際人道法風險。一方面,國家責任的增加將使人工智能武器的研發(fā)者背負更大的壓力,從而更加謹慎地處理人工智能武器算法的設計和編程。另一方面,在軍事戰(zhàn)場上,為了避免不法行為的發(fā)生和不必要的沖突,國家會限制指揮官的自由裁量權。人工智能武器的指揮官需要在法律框架內(nèi)行使決策權,遵守嚴格的法律規(guī)定和程序,以確保人工智能武器的使用符合國際人道法的基本框架,并滿足其基本要求[15]。

此外,還應該明確個人使用人工智能武器的責任。如前所述,人工智能武器涉及研發(fā)者、指揮官和操作者等個人。在某些情況下,個人應當承擔國際刑事責任。例如,如果研發(fā)者故意將有錯誤或嚴重技術缺陷的程序輸入人工智能武器系統(tǒng),導致其違反國際人道法,那么研發(fā)者應當承擔國際刑事責任。同樣,如果人工智能武器的指揮官或操作者故意或放任其從事違反國際人道法的行為,那么他們也應當承擔國際刑事責任。然而,在某些情況下,指揮官和操作者可能并無犯罪故意,而是由于他們過于相信人工智能武器,沒有預測可能的行為后果而導致結果發(fā)生。目前的國際刑事責任框架難以實現(xiàn)對這種過失行為的追究。因此,隨著人工智能武器的快速發(fā)展,有必要進一步完善對戰(zhàn)爭罪等國際刑事責任的界定,將過失作為構成此類國際刑事責任的要素之一[16]。

四、結論

作為《特定常規(guī)武器公約》的締約國,我國始終積極關注人工智能武器的發(fā)展與應用。由我國代表團2018年在《特定常規(guī)武器公約》第20次締約國會議上的發(fā)言可知,我國認同不斷完善的國際軍控與防擴散體系為維護世界和平與穩(wěn)定發(fā)揮了重要作用,但也提到軍事應用給人類安全乃至生存帶來了巨大的潛在風險與威脅。我國學界普遍認為,人工智能武器的出現(xiàn)對現(xiàn)代戰(zhàn)爭和社會產(chǎn)生了深刻的影響,帶來了新的挑戰(zhàn)和機遇。使用人工智能武器應審慎考慮其合法性、安全性和倫理性,以及對現(xiàn)代戰(zhàn)爭和社會的長期影響。為了確保人工智能武器的合法使用,國際社會需要加強合作,制定更加全面、適應性更強的法律和規(guī)范,以實現(xiàn)人類社會的和平、安全和尊嚴。國際社會應在現(xiàn)有國際法基礎上,本著普遍安全的理念,致力發(fā)展預防性外交,遏制高科技領域的軍備競賽勢頭,維護國際和平與穩(wěn)定。各國應通過廣泛參與、平等協(xié)商,增進軍事互信,共同推進各項工作取得新進展。

我國應該在平衡處理各國軍事安全和人道主義關切的基礎上,不斷加強和完善常規(guī)軍控法律機制。一方面,積極抓住人工智能技術發(fā)展的良機,加快智能化軍事建設。另一方面,通過轉化、納入等方式將相關國際條約落實到國內(nèi)。學界應研究國際法律規(guī)定,盡快出臺符合國際法的智能武器裝備制造規(guī)定和標準,使得智能武器裝備的發(fā)展規(guī)范化、流程化。此外,還應設立完善的人工干預機制,在對智能武器裝備的行為進行監(jiān)管時,建立相應的追溯機制。

作為重要的全球參與者,我國應以負責任的態(tài)度,推動國內(nèi)人工智能武器制造的規(guī)范化和標準化進程。通過設立完備的人工干預機制、建立追溯機制以及嚴謹?shù)谋O(jiān)管體系,使人工智能武器保持可控,并避免產(chǎn)生不可預見的嚴重后果。此外,我國還可以與其他國家和國際組織合作,促進國際社會就人工智能武器的規(guī)范和監(jiān)管達成共識,以建立相關領域全球法律框架。只有通過多邊對話和合作,加強信息交流和經(jīng)驗分享,才能共同應對人工智能武器給國際人道法帶來的挑戰(zhàn)。

參考文獻:

[1]

張衛(wèi)華. 人工智能武器對國際人道法的新挑戰(zhàn)[J].政法論壇,2019,37(4):144-155.

[2] 江國強,裴長利.人工智能體刑事主體資格的冷思考[J].華北水利水電大學學報(社會科學版),2020,36(4):77-82.

[3] 付姝菊.生成式人工智能視域下的人權:張力、威脅與中國因應:以ChatGPT為例[J].湖南科技大學學報(社會科學版),2023,26(3):126-134.

[4] 朱榮生,馮紫雯,陳琪,等.人工智能的國際安全挑戰(zhàn)及其治理[J].中國科技論壇,2023(3): 160-167,179.

[5] 李傳軍.人工智能發(fā)展中的倫理問題探究[J].湖南行政學院學報,2021(6):38-48.

[6] 侯嘉斌,李軍.人工智能武器:法律風險與規(guī)制路徑[J].中國信息安全,2019(12):90-93.

[7] 楊成銘,魏慶.人工智能時代致命性自主武器的國際法規(guī)制[J].政法論壇,2020,38(4):133-143.

[8] 張煌,杜雁蕓.人工智能軍事化發(fā)展態(tài)勢及其安全影響[J].外交評論(外交學院學報),2022,39(3):99-130, 7-8.

[9] 李享,羅天宇.人工智能軍事應用及其國際法問題[J].信息安全與通信保密,2021(1):99-108.

[10] 魏東.人工智能犯罪的可歸責主體探究[J].理論探索,2019(5):5-13.

[11] 伏志強,孫偉平.科技向“善”:人工智能發(fā)展的價值遵循[J].甘肅社會科學,2021(2):97-103.

[12] 杜瑾.人工智能武器犯罪類型界分與風險控制[J].學術探索,2022(5):74-84.

[13] 傅瑩.人工智能與國際安全治理路徑探討[J].人民論壇,2020(36):6-7.

[14] FUZAYLOVA E. War torts, autonomous weapon systems, and liability: why a limited strict liability tort regime should be implemented[J].Cardozo Law Review,2019,40:1327-1366.

[15] JENKS C. False rubicons, moral panic amp; conceptual cul-de-sacs: critiquing amp; reframing the call to ban lethal autonomous weapons[J].Pepperdine Law Review,2016,44(1):1-70.

[16] VESTNER T,ROSSI A.Legal reviews of war algorithms[J].International Law Studies,2021,97:509-553.

The Impact of Artificial Intelligence Weapons on International

Humanitarian Law and Responses

FU Shuju

(Law School, Beijing Normal University, Beijing 100875, China)

Abstract:

New weapons developed using artificial intelligence technology in the military field have emerged rapidly. AI weapons are characterized by their intelligence and offensiveness, and can be considered as tools to assist human attacks with a certain degree of autonomous decision-making ability. The emergence of AI weapons has impacted the principles of distinction, proportionality and the Maltens Clause of international humanitarian law, posing challenges to the principle of accountability within this framework. To ensure the rational use of AI weapons, the international community should strengthen the prior review system, establish standards for implementation during the event, improve the mechanism for accountability after the event. These measures aim to achieve peace, security, and dignity in human society, thereby avoiding significant legal risks and ethical crises brought about by AI weapons.

Key words:

international humanitarian law; the laws of war; Artificial Intelligence weapons; Convention on Certain Conventional Weapons

(編輯:孫樹勛)

若羌县| 梓潼县| 托克托县| 江北区| 麦盖提县| 克拉玛依市| 临猗县| 肃北| 永靖县| 米易县| 阿拉善右旗| 喀什市| 浪卡子县| 石首市| 富川| 渝中区| 阿拉善右旗| 广元市| 古蔺县| 邹平县| 岳池县| 潞西市| 秦安县| 积石山| 老河口市| 乌恰县| 宜良县| 东源县| 登封市| 花莲市| 德阳市| 高阳县| 左权县| 五华县| 双牌县| 营口市| 北宁市| 建平县| 长子县| 峡江县| 清徐县|