摘要:原則主義是當前全球人工智能倫理研究和實踐推進的主導性理論。原則主義是結合了道義論、后果論與美德倫理學等哲學理論的“價值規(guī)范組合”,回到某個單一經(jīng)典倫理立場,既無法解決理論自洽問題,還會出現(xiàn)“極端化”或者僵化適用的問題。為應對這些挑戰(zhàn),可對其作適應性改造:運用演化心理學的基礎道德理論來重構公共道德理論,提升理論深刻性;采用行為機器學路徑方向的技術社會系統(tǒng)理論,對“反思平衡機制”進行改造,解決因價值規(guī)范面對技術變革能力不足的僵化問題。基于原則主義與法學在方法與思路上具有高度相似性,法學與應用倫理學可無縫融合,通過倫理原則的“法化”來提升人工智能倫理制度可操作性。
關鍵詞:人工智能倫理;原則主義;社會系統(tǒng)理論;人工智能法
中圖分類號:D90;B82" " 文獻標志碼:A" " 文章編號:1001-862X(2024)05-0139-009
本刊網(wǎng)址·在線雜志:www.jhlt.net.cn
*基金項目:國家社會科學基金重點項目“支持全面創(chuàng)新的基礎法律制度研究”(22AFX003)
作者簡介:李學堯(1977—),浙江瑞安人,上海交通大學凱原法學院教授、博士生導師,法律與認知智能實驗室主任,主要研究方向:法學理論、法律與科技創(chuàng)新。
近年來,人們關于人工智能倫理的討論重點已經(jīng)從尋求共識、凝練倫理原則轉向了相關原則規(guī)范的實踐化、技術化[1];在這個過程中,相關學術研討主要聚焦在對科技倫理中原則主義思路的反思、辯護和超越。(1)當前,如何使得人工智能倫理原則“可確定、可預期和可操作”,不僅是一個實務性的應用需求,還涉及科技創(chuàng)新工作中政府職責再厘定、營商環(huán)境優(yōu)化以及新質生產(chǎn)力促進發(fā)展中的價值平衡等緊迫性課題。因此,有必要對其作超越應用倫理學、生物醫(yī)學倫理學的跨學科對話和討論(2),以便更好地為相關立法和政策制定提供科學化的參考。
一、科技倫理學中的原則主義
研討人工智能原則的實踐化,無法回避生物醫(yī)藥倫理或者科技倫理的主流理論:原則主義理論。原則主義理論由湯姆·L·博尚普(Tom L. Beauchamp)和詹姆斯·F·柴德雷斯(James F. Childress)于1979年在《生物醫(yī)學倫理學原則》一書中提出。他們試圖通過對自主、行善(仁慈)、不傷害和公正這四個原則的提煉,建立一個超越文化和個人差異、普遍適用于生物醫(yī)學環(huán)境的共同道德框架。
原則主義的生物醫(yī)學倫理觀目前已經(jīng)被廣泛應用于臨床倫理決策和相關的政策制定。世界各國醫(yī)療和相關領域的專業(yè)人員經(jīng)常使用這四個原則作為清單,以應對如知情同意、臨終關懷和醫(yī)療資源分配等倫理困境問題。
博尚普和柴德雷斯所提出的倫理決策方法之所以被稱為“原則主義(Principlism)”,是他們的批評者克勞澤(K. Danner Clouser)和格特(Bernard Gert)在1990年發(fā)表的一篇批判論文中的稱呼,最初具有貶義內(nèi)涵,后來逐漸被接受為對一個學術流派的中立性指稱??藙跐珊透裉匾约捌渌麑W者對原則主義的批判可以概括為以下幾點。
一是,缺乏統(tǒng)一的道德理論基礎??藙跐珊透裉卣J為,博尚普和柴德雷斯提出的基于四原則的倫理決策方法,無非就是盡可能通過清單方式,例舉一些相互存在沖突、邏輯關系難以界定的倫理原則。他們稱呼原則主義理論為沒有哲學深度的 “縫合怪”。[2]
二是,缺乏可操作性。批判者們認為抽象的倫理原則難以直接轉化為具體的操作指南,原則主義的四項核心原則也無法作為行為指南來為實踐提供操作性指引,特別是復雜案例中,對于優(yōu)先考慮哪個原則提供的指導能力有限。原則主義設定的從“道德理論”到“原則”再到“規(guī)則”,最后落腳于“特殊的判斷和行動”的道德推理方式會落入相對主義的陷阱之中。[3]
三是,成為事后合理化工具的嫌疑。與相對主義相關的是,各個原則背后都有自己獨立的理論邏輯(合法性來源),因此這些倫理原則混雜在一起來為倫理困境決策者提供指導,最后的結果是:不管倫理困境中的人們?nèi)绾巫龀鰶Q策,他們都可以依據(jù)原則主義倫理原則使自己處于正確的地位。[3]
四是忽視情景和文化差異。原則主義不僅忽略具體應用場景的特殊性,不能作為行為指引[3],而且,還無法反應不同文化背景下對四項核心原則的差異性理解。與此相關的一系列批判觀點還包括原則主義是一種西方文化中心主義,甚至美國中心主義的理論。[4]
在克勞澤和格特等人的持續(xù)批判下,原則主義的理論也不斷演化,甚而在“原則主義”的批判性概念框架下逐漸體系化、哲理化。主要的修正性理論裝置有三。
一是,公共道德論(common morality)。原則主義的創(chuàng)始人博尚普對“公共道德”這一類似于“公共善”(common good)的概念進行證立。他試圖超越義務論、結果論和美德倫理,將原則主義的四個原則表述為人類社會中普遍接受的道德規(guī)范。他認為,公共道德是人類社會在長期的道德演變過程中逐漸形成了某些廣泛認可的道德原則;原則主義中的四項核心原則是公共道德的具體表達,不僅是生物醫(yī)學倫理,也是人類其他領域道德決策的指導原則。[5]
二是,文化可適用性(cultural adaptability)和情景敏感性(contextual sensitivity)。一則,反對相對主義,強調倫理原則具有跨文化的適應性,因而主張在醫(yī)學倫理中應堅持某些普遍性的倫理原則。[6]基于公共道德論,這些原則是全球性的,超越宗教、文化和倫理學理論背景,體現(xiàn)在各種文化和法律體系中。[5]二則,可以進一步增強倫理原則的靈活性,強調每個原則的應用可能因不同文化背景而不同。[7]三則,承認倫理決策過程中不同情境的多樣性。通過引入對具體情境的敏感性,原則主義變得更加靈活,允許對原則進行動態(tài)調整。[5]
三是,反思平衡機制(reflective equilibrium)。羅爾斯在《正義論》中的反思平衡機制理論主要思路是通過在道德直覺和道德原則之間的反復調整,尋找平衡點。原則主義將其改造成具體判斷、倫理原則和相互調整的三要素機制,來解決具體情境和倫理原則過于抽象化的問題。[5]
四是,實用性(practicality)面向和共識性決策(consensus-based decision-making)方法。為了應對原則主義缺乏處理實際倫理爭議的指導力的批判,原則主義的回應思路是與具體的倫理案例相結合,強調在處理醫(yī)療倫理、法律倫理、公共政策等領域的問題時,原則必須通過具體的情境分析來加以適用。通過具體案例的分析,原則主義被應用于更廣泛的實際問題中,具有了更強的操作性。[5]與此相關的是共識性決策方法,其旨在通過群體討論來形成對倫理問題的集體共識,特別是在處理醫(yī)療倫理委員會或公共政策倫理問題時,群體成員通過對倫理原則的共同反思達成一致。這一機制幫助原則主義從個體層面擴展到了群體層面的倫理判斷。[8]
二、原則主義在人工智能倫理研究和政策制定中的主導地位
隨著人工智能倫理討論的興起,近年來,原則主義理論延續(xù)了生物醫(yī)學倫理對人工智能倫理的深刻影響,主導了人工智能倫理的理論研究和政策制定。人們的普遍思路是:借鑒生物醫(yī)學倫理的四項核心原則的方法論體系,將人工智能倫理的實質性內(nèi)容概括為一系列原則,比如“增進(人類)福祉、反偏私和公平、準確性、透明度和參與性、可解釋性、保護隱私、可追責”的七原則說[9],或者“可信、安全和負責任人工智能”的三原則說[10],或者在生物醫(yī)學倫理四原則基礎上加上“可解釋性”的五原則說[11]等模式,試圖通過此種路徑建立一套指導人工智能發(fā)展和應用的道德框架。具體表現(xiàn)如下。
一是,四項核心倫理原則與現(xiàn)有人工智能倫理原則的對稱性關系。很多同時研究生物醫(yī)學倫理和人工智能倫理的學者認為,原則主義的四大倫理原則——尊重自主、行善、不傷害和正義——能夠跨越不同領域,適用于多種倫理情境,包括人工智能技術的開發(fā)、使用和監(jiān)管。由于人工智能的應用范圍極其廣泛,從醫(yī)療、金融到公共服務等多個領域,公共道德性質的四項核心原則能夠幫助這些領域的研究者和政策制定者采用一致的倫理框架。比如,在人工智能的應用中,特別是在與個人數(shù)據(jù)處理相關的領域,尊重用戶的隱私權和選擇權成為關鍵問題。人工智能的自動化決策可能侵犯個人自主權,原則主義的自主原則為這些問題提供了倫理框架,強調透明性和告知同意的重要性。又如,仁慈和不傷害原則能夠指導人工智能設計時必須確保技術造福人類并避免造成傷害,特別是在涉及醫(yī)療和公共安全的人工智能應用中。此外,正義原則還能保障人工智能技術的公平使用,特別是在數(shù)據(jù)偏見、算法歧視和公平性問題上。該原則確保在設計和實施人工智能系統(tǒng)時,考慮到社會各階層的公平受益,不讓技術發(fā)展加劇社會不平等。[12]
二是,各類倫理原則和準則框架基本上依賴原則主義的理論框架。世界各國政府或者國際組織的各種人工智能倫理指南都有一個共同的目標:支持和改善人工智能的道德發(fā)展、設計和部署。這些表述的另一共同點是,它們都假設人工智能倫理提供了一個普遍的基礎——包括理論、原則、價值觀等——設計者可以將其應用于個案,從而提高人工智能發(fā)展的倫理可持續(xù)性。
歐盟發(fā)布的人工智能倫理指南、美國政府發(fā)布的人工智能戰(zhàn)略文件中都反映了原則主義的影響。歐盟委員會指定的人工智能高級專家組在起草頒布歐盟《人工智能法》時,就較為明確地指明了它與原則主義理論的關系。[13]而美國發(fā)布的人工智能戰(zhàn)略文件中將“可信人工智能”解釋為公平、非歧視、透明、安全和有保障的人工智能,也被學術界視為是其重點在于確保人工智能發(fā)展遵循四項核心倫理原則。
三是,作為倫理決策方法在實務中的廣泛應用:以自動駕駛和人工智能醫(yī)療為例。自動駕駛汽車技術的開發(fā)涉及安全性和自主權的沖突。原則主義為這種情境下的道德決策提供的指導是:既要保護乘客和行人的安全(不傷害原則),又要尊重使用者的自主權和自由(尊重自主原則)。這種靈活的框架允許多種因素的權衡,使得人工智能倫理問題的復雜性得以應對。[14]基于行善原則,要求自動駕駛系統(tǒng)的開發(fā)應優(yōu)先考慮如何提升安全性和可靠性,最大限度地減少交通事故,尤其是通過改進傳感器和決策算法。自動駕駛公司在部署技術時應關注社會福祉,例如通過共享交通數(shù)據(jù)來減少擁堵并提高交通效率。[15]正義原則還涉及如何處理人工智能系統(tǒng)中的算法偏見。正義原則要求開發(fā)者在設計自動駕駛技術時,確保算法的公平性,并避免基于種族、性別或其他社會因素的歧視。[16]
原則主義在人工智能醫(yī)療倫理研究中的應用尤為明顯。人工智能在醫(yī)療領域的應用涉及深刻的倫理問題,例如如何確保人工智能診斷工具符合醫(yī)療倫理標準。原則主義通過四項核心原則提供了一個全方位的框架,確保人工智能技術不僅對患者有利(行善),還不會帶來意外的傷害(不傷害),同時保障患者的隱私和知情同意(尊重自主)以及公平分配醫(yī)療資源(正義)。在人工智能診斷技術中,原則主義被用來評估技術應用對患者的影響,指導人工智能醫(yī)療工具的設計和使用。特別是行善與不傷害的原則幫助研究者評估人工智能系統(tǒng)可能帶來的風險,并確保這些系統(tǒng)真正有助于提升醫(yī)療服務質量。[17]
在實際應用中,人工智能技術的倫理挑戰(zhàn)往往涉及不同原則之間的沖突。例如,在開發(fā)具有自主性的人工智能時,如何在確保自主權與保護社會安全和不傷害之間進行平衡,是一個典型的倫理難題。原則主義的框架允許在不同情境中權衡和調和這些原則,這使得它成為制定人工智能倫理決策的重要工具。[18]
三、原則主義在人工智能倫理應用中的困境
近年來,隨著原則主義的人工智能倫理觀在實踐中的不斷推進,特別是在歐盟的正式法律文本中,《可信人工智能倫理指南》(2019)和明確前述文件法律效力的《人工智能法》對原則主義思路的確認,在學理上延續(xù)了生物醫(yī)學倫理關于原則主義的相關批判,并根據(jù)人工智能倫理的理論場景作了一些加強型的批判論證。主要觀點可以概括為原則間沖突的權衡困難、抽象性導致的操作性不足、對技術復雜性的忽視、責任與權力分配的模糊性以及缺乏對全球性文化差異的考量??梢?,盡管原則主義為人工智能倫理提供了一個重要的分析框架,但它在應對人工智能技術的復雜性和全球化挑戰(zhàn)方面仍然存在局限性。
一是,可操作性問題。醫(yī)學和人工智能發(fā)展之間存在重大差異,人工智能倫理的應用場景更加多樣、倫理沖突的困境更加復雜,原則主義的思路很難轉化為技術路線。[17]人工智能倫理原則如“尊重自主”或“行善”雖然提供了高層次的指導,但如何具體實施這些原則尚缺乏操作細節(jié)。例如,在數(shù)據(jù)隱私保護中,人工智能系統(tǒng)需要處理大量用戶數(shù)據(jù),但“尊重自主”該如何具體落實為技術措施,如數(shù)據(jù)處理協(xié)議或算法透明度,往往模糊不清。
在人工智能倫理領域,原則主義還常常面臨不同倫理原則之間的沖突,尤其是在尊重自主、行善、不傷害和正義之間的平衡上,原則間的沖突可能導致倫理原則無法有效指導實際決策。例如,開發(fā)人工智能的企業(yè)往往要在尊重隱私(自主權)和提供更好的個性化服務(行善)之間做出權衡,而原則主義缺少詳細的權衡標準,尤其是在復雜的技術應用場景中。又如,自動駕駛汽車的決策場景中,尊重用戶自主權和確保行人或乘客的安全(不傷害)之間可能存在矛盾。在實際應用中,如何權衡這些原則缺乏明確的指導。[15]
二是,“倫理漂白(ethical whitewashing)”問題。主要的觀點就是認為企業(yè)或者國家通過宣稱遵守高尚的倫理原則來掩蓋其實際行為中的倫理問題。其中,最大的批判對象是《可信人工智能倫理指南》(2019),批判觀點集中在兩個方面。一方面因為倫理原則內(nèi)容的空洞性和模糊性,使得相關企業(yè)的實際行為無法被約束,所謂的“尊重人類尊嚴”或“促進社會福利”可能在不同情境下有不同的解釋,容易被企業(yè)用于粉飾其有爭議的行為,用于正當化不道德行為。[10]例如,強調“創(chuàng)新”或“效率”原則,來掩飾對隱私或公平的侵犯;批評者通過分析具體案例,如某些科技公司在人工智能應用中存在的偏見和歧視問題,來說明原則主義如何被用于掩蓋實際的倫理缺陷。[19]另一方面通過公開宣稱遵守倫理原則,企業(yè)可能試圖轉移公眾對其不道德行為的關注,或者推遲更嚴格的法律監(jiān)管。這被視為一種策略,以維持現(xiàn)有的商業(yè)模式,而不做出實質性的改變。[20]
三是,忽視了人工智能系統(tǒng)所依賴技術的復雜性。批判者認為,原則主義在處理高度復雜的人工智能技術問題時,容易忽視技術本身的復雜性。例如,人工智能系統(tǒng)的訓練數(shù)據(jù)往往來自于人類行為數(shù)據(jù),這些數(shù)據(jù)本身可能存在偏見,導致人工智能系統(tǒng)產(chǎn)生不公正的決策。原則主義中關于“正義”的抽象指導難以應對如何具體消除算法偏見這一技術問題。此外,人工智能系統(tǒng)的“黑箱”特性,即決策過程的復雜性和不透明性,給倫理監(jiān)督帶來了巨大的挑戰(zhàn),而原則主義在這些問題上的指導顯得無力。[21]
四是,缺乏關于技術權力與責任關系的討論。原則主義框架內(nèi)對“責任”的討論通常圍繞個人或個體行為者進行,較少涉及技術權力結構的問題。隨著人工智能技術的廣泛應用,人工智能開發(fā)者、使用者和管理者之間的責任劃分變得越來越復雜。例如,自動駕駛汽車發(fā)生事故時,誰應對事故負責?是開發(fā)算法的程序員,使用車輛的個人,還是提供平臺的公司?原則主義缺乏對這些多方權力(利)關系的深入討論,使得它在處理技術應用中權責分配的復雜問題時顯得不足。此外,人工智能技術的迅猛發(fā)展使得這些權力關系變得更加模糊和動態(tài),傳統(tǒng)的倫理框架難以適應。
與此相關的批判還集中于以下兩個方面。一方面是個人原子主義的問題。原則主義往往關注個體行為,而忽略了更廣泛的社會和結構性問題,如權力失衡、系統(tǒng)性歧視和不平等。另一方面是原則主義理論框架缺乏多元化利益相關者參與機制的制度設計。僅由技術專家或企業(yè)高層制定的倫理原則,可能無法反映社會的多元價值和需求。缺乏受影響群體的參與,使得這些原則可能偏頗或不全面。
五是,全球性倫理挑戰(zhàn)與文化差異討論的不足。雖然原則主義辯護者認為其倫理原則具有普遍適用性,但批判者認為在全球不同文化和社會背景下,人工智能倫理問題的討論往往呈現(xiàn)出不同的價值取向,具有強烈的西方中心主義的色彩,原則主義沒有深入探討文化差異,在全球范圍的適用性上受到挑戰(zhàn)。例如,隱私權在西方文化中受到高度重視,而在一些亞洲國家,集體福祉可能被優(yōu)先考慮。如何在全球化的人工智能技術應用中處理這些文化差異,是原則主義框架難以應對的問題。[22]
四、超越之道:演化心理學與社會技術系統(tǒng)理論的改造思路
在上述批判性的批評觀點中,也隱含了批判者的解決思路。一是在實務化程度方面,應采取更具體和可操作的措施。這包括制定明確的法規(guī)、建立獨立的監(jiān)督機構,以及促進公眾和多元利益相關者的參與。二是應重視強調社會正義和權力關系,倫理討論應更關注社會正義和權力結構,質疑誰在制定原則,誰受益,誰受損。這有助于揭示隱藏的利益沖突和不公平。三是倡導透明度和問責制,防止“倫理漂白”,確保企業(yè)的倫理承諾可以被外部審查和評估,并對違規(guī)行為追究責任。四是促進利益相關方參與,采用風險評估以及為政策制定提供價值基礎等方式。原則主義具有開放性的理論屬性,需要我們對其插入類似于公共道德論、反思平衡機制的理論裝置。
原則主義本質上是一種結合了道義論、后果論與美德倫理學等哲學理論的“價值規(guī)范組合”,回到某個單一經(jīng)典倫理立場(如道義論、后果論或美德倫理學),無法解決理論自洽問題,在可操作性方面會造成“極端化”或者僵化的現(xiàn)象,還無法具備原則主義周全性、共識性和靈活性的優(yōu)勢。為應對這些批判和挑戰(zhàn),可對原則主義進行適應性改造。一方面,運用演化心理學改造“公共道德論”,提升理論自洽性、深刻性和動態(tài)化。另一方面,重點采用行為機器學意義上的社會技術系統(tǒng),將道德改革思路導入反思平衡機制中,解決因價值規(guī)范面對技術變革能力不足的僵化問題。
(一)增強融貫性:演化心理學視角下的“公共道德論”
公共道德論是一個將多樣的倫理學理論糅合在一起的理論概念,包含了美德倫理學、康德的義務論、效益主義、社會契約論和自然法等多個哲學傳統(tǒng)。
公共道德論可以追溯到亞里士多德的美德倫理學,雖然它并不直接從美德倫理學發(fā)展而來,但強調共同倫理觀念符合美德倫理學中的“理性中道”思想。公共道德論吸收了康德義務論的部分要素,尤其是在“尊重自主”原則上。在公共道德論中,尊重個體的自主權是核心的倫理原則之一,這與康德強調人作為道德主體的尊嚴相一致。[23]行善和不傷害原則體現(xiàn)了效益主義的思想。行善原則要求行動應有助于他人的福祉,而不傷害原則則要求避免給他人帶來傷害,這些都可以與效益主義的倫理考量聯(lián)系起來,盡管公共道德論并沒有全面采納效益主義的全部主張。[24]
公共道德論的另一重要淵源可以追溯到自然法傳統(tǒng),尤其是托馬斯·阿奎那等人提出的自然法理論。自然法倫理學主張,有一些道德原則是基于人類理性的普遍性和自然秩序的必然性。這為公共道德論提供了理論支持,因為它同樣主張某些倫理標準是跨文化、跨歷史的普遍共識。[5]
由于原則主義的公共道德理論試圖調和各種哲學理論的對立性關系,因此,除非我們試圖在理論建構上另起爐灶,否則,我們不可能退回到上述某個具體理論框架,比如回到純粹的道義論,或者純粹的義務論,或者純粹的美德倫理學進行展開。因為,它事實上違背了原則主義“周全性”,在某些場景失去可適用性。但是,不可回避的是,它又因為包羅萬象而使得內(nèi)部關系很難調和,確實會容易陷入相對主義的倫理決策陷阱。那么,該如何有效解決這一問題呢?筆者的思路是將演化心理學中與公共道德類似的道德基礎理論(moral foundation theory)請進來,對公共道德理論進行改造,增強其理論統(tǒng)一性的同時,夯實其應對具體情景和社會變遷而變革的合法性規(guī)范基礎。
公共道德理論和道德心理學具有相似性:二者都探索了跨文化的普遍道德原則或基礎,都承認理性在道德推理中的重要作用,都試圖通過不同的方式來解釋和指導道德行為,都承認情境在道德判斷中的重要性。因此,將兩者進行融合,能夠具備明顯的優(yōu)勢。
一是,夯實了統(tǒng)一性規(guī)范基礎。道德心理學,特別是喬納森·海特(Jonathan Haidt)的“道德基礎理論”,探討了人類如何通過進化和社會化形成道德判斷。海特提出,人類具有一些基本的道德“基礎”,例如關懷、公平、忠誠、權威和純潔,這些基礎是跨文化的普遍道德觀念的心理根基。盡管不同文化可能在具體表達上有所差異,這些道德基礎在全球范圍內(nèi)廣泛存在。與此同時,這種理論也深入探討了跨文化視角下道德差異的演化機制。[25]
二是,對理性和經(jīng)驗關系更加科學的動態(tài)化闡述。在理性的概念之下,能夠對行為主體的經(jīng)驗進行分類分級,從而達到責任追究的科學化和可解釋性。原則主義認為,公共道德規(guī)范是通過理性和經(jīng)驗形成的,人們可以通過理性推理和社會實踐來理解并接受這些規(guī)范。雖然公共道德強調了規(guī)則的普遍性,但也允許在具體情境中靈活應用這些規(guī)范,依靠個體的理性判斷來權衡。道德心理學,特別是在勞倫斯·科爾伯格(Lawrence Kohlberg)發(fā)展出來的道德發(fā)展理論中,探討了人類道德推理的理性進程??茽柌裾J為,個體通過不同的發(fā)展階段,逐漸能夠理解和應用更為復雜的道德原則,特別是在更高的道德發(fā)展階段,個體開始關注普遍的倫理原則,而非簡單的規(guī)則遵循。這種思路能夠在邏輯上緩解原則主義的“相對主義”批判。[26]
三是,為具體道德決策提供可量化、可檢驗的科學化技術工具。道德心理學對于道德行為心理機制的廣泛研究,可以為醫(yī)療倫理之外的所有人工智能應用領域的復雜道德決策提供科學有效、可量化檢驗的行為指導。公共道德理論的主要功能目標是為復雜、沖突的技術道德決策提供有效的行為指導,而在過去的四五十年中,道德心理學在研究道德決策的心理機制中積累了豐富的理論和實證基礎。比如,雙系統(tǒng)理論(dual-process theory)表明,道德決策結合了情感驅動與理性分析的作用。如果將演化心理學導入公共道德理論,將大大提升公共道德理論可操作性、可技術化的程度,并且最終能夠通過人工智能技術以及生物醫(yī)學技術本身來對其進行道德增強的應用。[27]
(二)消除相對主義:從反思平衡機制到社會技術系統(tǒng)理論
在人工智能倫理制度構建過程中,社會技術系統(tǒng)理論(social-technical systems theory,STS)是一種社會學家的理論方案,它源自對技術與社會的交互作用的研究,最早由社會學家Hughes 和 Bijker 等人提出。他們認為技術系統(tǒng)不僅僅是技術問題,技術的發(fā)展和應用與社會結構、文化、經(jīng)濟、政治等多種因素緊密相關。社會技術系統(tǒng)理論特別關注技術系統(tǒng)在復雜社會背景下如何塑造人類行為、重構權力關系以及對社會的影響。在人工智能倫理中,社會技術系統(tǒng)理論強調,人工智能技術不僅是一種工具,它嵌入并影響了整個社會技術系統(tǒng)的運作。社會技術系統(tǒng)理論的主要思路是,通過技術設計和政策干預來解決這些倫理問題。例如,在人工智能的倫理問題中,社會技術系統(tǒng)理論會考慮人工智能對隱私、權力分配、就業(yè)等方面的影響,認為要解決這些問題需要多方的參與和制度設計。[28]
社會技術系統(tǒng)理論可以通過其系統(tǒng)性和多維度的社會分析視角,為反思平衡機制提供改進的思路,使其更適應技術驅動社會中復雜倫理問題的處理。在此過程中,社會技術系統(tǒng)理論對社會、技術、政策、文化等多元因素的考量,可以擴展反思平衡機制的分析范圍,特別是在處理人工智能和其他復雜技術系統(tǒng)時。具體改造的思路和優(yōu)勢表現(xiàn)在通過引入社會技術系統(tǒng)理論,使反思平衡機制更適應技術復雜性和社會系統(tǒng)性的倫理問題,反思平衡機制通過擴展倫理考量要素范圍、多方參與的共同反思機制、技術運用預防性反思機制等,運用長期社會影響分析視角、跨文化視角來調整道德直覺和原則。
一是,擴展反思平衡機制的范圍:用技術嵌入的方式來建構道德反思機制。傳統(tǒng)反思平衡機制專注于個體或小規(guī)模群體的道德直覺與道德原則之間的協(xié)調。然而,面對復雜的技術社會,如人工智能、自動化系統(tǒng)等,其可能無法有效應對技術所帶來的廣泛系統(tǒng)性影響。通過引入社會技術系統(tǒng)理論,可以擴展反思平衡的范圍,將技術對社會的宏觀影響納入道德反思之中。通過社會技術系統(tǒng)的改進,反思平衡機制不再僅僅是通過個體或群體的道德直覺來調整倫理判斷,而是通過分析技術如何影響整個社會(例如,技術對就業(yè)、隱私、權力分布等的系統(tǒng)性影響),來重新調整這些直覺和原則。技術不再是外在變量,而是與社會相互嵌入的因素,需要一并納入倫理判斷。[27]
二是,從個體化決策到系統(tǒng)性決策:實現(xiàn)多方利益相關者的平衡。傳統(tǒng)反思平衡機制更適用于個體或小團體的決策,在處理個人或醫(yī)生與患者的倫理決策時發(fā)揮作用。然而,社會技術系統(tǒng)理論強調技術問題的多方利益相關者的復雜性,如在人工智能領域,涉及技術開發(fā)者、使用者、政策制定者、被影響的社會群體等多個利益相關方。通過引入社會技術系統(tǒng)理論,反思平衡機制可以從單一主體的反思擴展到多方利益相關者的反思過程。每一方都可以在這個平衡機制中表達其利益、關切和道德直覺,并通過不同技術影響的考量進行權衡。此方式特別適用于需要跨多個社會層面(例如,政策制定、技術設計、社會影響)協(xié)調的復雜技術倫理決策。[29]
三是,引入社會動態(tài):反思技術對社會結構的長期影響。反思平衡機制通常是基于短期倫理決策,強調在當前情境中的道德權衡。然而,技術的發(fā)展往往伴隨著長期的社會結構變化,社會技術系統(tǒng)理論則能夠評估技術對社會結構、權力關系、文化規(guī)范等方面的深遠影響。通過引入社會技術系統(tǒng)理論,反思平衡機制可以納入對技術的長期影響分析,考慮技術在未來如何重構社會,改變權力關系和文化規(guī)范。例如,人工智能在長期內(nèi)如何影響就業(yè)市場、政治決策或人類自主性等。這使得反思平衡不僅局限于當前情境的直覺與原則的調整,還擴展到對未來社會技術動態(tài)的預見和考量。[8]
四是,增強跨文化的道德反思:社會技術系統(tǒng)與文化背景的融合。傳統(tǒng)反思平衡機制多基于普遍性的道德原則,如尊重自主、行善、不傷害和正義,而往往沒有充分考慮技術在不同文化背景中的不同影響。社會技術系統(tǒng)理論強調技術的應用在不同文化、經(jīng)濟、政治環(huán)境下會產(chǎn)生不同的倫理問題。通過社會技術系統(tǒng)理論的視角,反思平衡機制可以在不同文化和社會背景中進行更加細致的平衡調整。例如,在不同文化中,技術的影響可能涉及不同的道德價值(如隱私、權威、群體合作等),反思平衡機制通過結合這些背景,能夠更好地調整和應用道德原則,以適應全球不同背景的倫理決策。[27]
五是,結合技術設計的倫理思維:預防性反思機制。反思平衡機制多用于事后反思,即當倫理沖突發(fā)生時進行調整。而社會技術系統(tǒng)理論可在技術設計的早期進行預防性反思,通過提前預測技術的社會影響,減少潛在的倫理沖突。結合社會技術系統(tǒng)理論,反思平衡機制可以在技術設計和實施階段引入倫理預見(ethical foresight),在技術開發(fā)的早期階段通過反思平衡調整技術設計,以避免技術對社會帶來負面影響。這可以通過增加技術倫理評估工具或倫理委員會在技術設計階段來實現(xiàn)。[28]
當然,社會技術系統(tǒng)理論仍是一個不斷發(fā)展的理論體系,內(nèi)部也存在諸多類似于技術決定論和社會結構論、技術專家主導和用戶廣泛參與、靜態(tài)系統(tǒng)和動態(tài)系統(tǒng)、人類中心與技術中心等二元化的紛爭。這既反映了技術與社會互動中的復雜性和多樣性,也說明如果把握不好,其還會增加原則主義的相對化程度。筆者的思路是,要回到機器行為學、機器心理學和復雜適用系統(tǒng)理論,通過理論簡化回到“可計算化”的技術本身,來處理技術的自主性、社會影響以及人類與技術協(xié)作的相關問題。(3)
結語:法律理論應用的可能性
演化心理學和技術社會系統(tǒng)理論本質上是一種“抽象性理論”,如何將理論轉化為行為指南,從而解決人工智能倫理制度的可操作性問題呢?這是基于“法化”過程中的人工智能倫理的實操性需求所引發(fā)的思考。從思考“如何開展人工智能倫理的立法工作”[30]、“如何開展人工智能倫理的審查工作”[31],到剖析原則主義的理論論辯,最后,需要綜合借鑒各種理論對原則主義理論框架進行理論改造,以通過理論自洽性、可演化性來提升原則主義的可操作性。這一改造的最終目的,是為了能夠在有關人工智能倫理法的專門立法或者章節(jié)性立法(比如《人工智能法》中的一個部分)的文本中展開周全性、科學性、有效面向守法和司法實踐的條款擬制,以及科學設計一個能夠注重價值權衡過程的倫理審查制度。
在這里,可以通過對應用倫理學中的原則主義(四項核心原則)與法學中的比例原則的比較,來展開解釋上述研究思路的可行性(運用法學的思考路徑和方法來討論科技倫理)。這兩個產(chǎn)生于20世紀70年代風險社會之后的決策指引方法——一個主要面向生物醫(yī)學倫理難題的決策者、一個主要面向司法決策或者執(zhí)法決策難題的決策者,具有高度的相似性。(4)因為這種相似性,可以發(fā)現(xiàn),在人工智能倫理的研究和實務操作中,完全可以將應用倫理學與法學進行無縫融合的交叉研究的可能性。
更重要的是,不管原則主義如何演化,它都沒有改變一個特征,即它屬于“自上而下”的規(guī)范性方法,它的方法論本質有點類似于法學中的“比例原則”:從基于道義論為主的基本權利出發(fā),在實務操作中為了適應風險社會紛繁復雜的場景,導入了諸多功利主義的方法和規(guī)范,比如必要性原則、成本收益(適當)原則、均衡性原則,等等。但是對于何時適用哪個子原則、子規(guī)則,完全依賴于具體司法判例中的情景進行判斷。也正因如此,比例原則的研究必須借助于各種各樣邏輯上難以被體系化的具體司法案例的匯編。這與原則主義注重倫理審查和決策的案例性指導有著異曲同工之處。而事實上,在法學內(nèi)部,在法律適用或者法律實踐中占據(jù)主流的分析實證主義法學就試圖運用比例原則等裝置來緩和“過于自由裁量”的法律原則和“可能導致僵化”的法律規(guī)則之間的矛盾。[32]
注釋:
(1)最近幾年,國內(nèi)不斷發(fā)表實質性介入原則主義理論討論的論文。參見白惠仁:《科技倫理中的原則主義》,載于《道德與文明》2023年第6期;陳化:《原則主義的理論進路、倫理爭論及其啟示》,載于《醫(yī)學和哲學》2023年第6期,等等。
(2)法學界的類似研究可參見Ramak Molavi Vasse’ I,The Ethical Guidelines for Turstworthy AI- A Procrastination of Effective Law Enforcement,Journal of Computer Law Review,vol.5,2019,pp.128-136; 張兆翔、張吉豫、譚鐵牛:《人工智能倫理問題的現(xiàn)狀分析與對策》,《中國科學院院刊》2021年第11期。在張吉豫等人文章中,他們所指稱的“對立理論”,在某種意義上就是原則主義。
(3)最新研究可參見Thilo Hagendorff,Machine Psychology: Investigating Emergent Capabilities and Behavior in Large Language Models Using Psychological Methods,https://arxiv.org/abs/2303.13988,最后訪問時間2024年10月1日。
(4)在比例原則的法學研究中,關于類似于原則主義四項核心原則內(nèi)部關系秩序建構以增進可操作性的討論,可以參見蔣紅珍:《比例原則位階秩序的司法適用》,《法學研究》2020年第4期。
參考文獻:
[1]李學堯.人工智能倫理的法律性質[J].中外法學,2024(4):884-898.
[2]范瑞平,等.倫理原則主義:不同的觀點[J].中國醫(yī)學倫理學,2019(6):591-601.
[3]Clouser, K.D., Gert, B. A Critique of Principlism[J].The Journal of Medicine and Philosophy,1990(2):219-236.
[4]Callahan, D. Principlism and Communitarianism[J].Journal of Medical Ethics,2003(5):287-291.
[5]James Childress.倫理原則主義:丘卓斯的回答[J]. 謝文野,孫思涵,白劼,譯.范瑞平,校.中國醫(yī)學倫理學,2019(4):421-428.
[6]Macklin, R., Against Relativism: Cultural Diversity and the Search for Ethical Universals in Medicine [M]. Oxford University Press,1999:1-28.
[7]Gordon,D. R. Tenacious Assumptions in Western Medicine[M]. In Understanding and Applying Medical Anthropology , McGraw-Hill,2011:52.
[8] Davis R. B., The Principlism Debate: A Critical Overview [J]. The Journal of Medicine and Philosophy,1995(1):85-105.
[9]Floridi, L., Cowls, J. A Unified Framework of Five Principles for AI in Society [EB/OL].(2019).doi:10.1162/99608f92.8cd550d1.
[10]孫偉平,李揚.論人工智能發(fā)展的倫理原則[J].哲學分析,2022(1):3-14,196.
[11]Floridi, L. Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical[J].Philosophy & Technology,2019,32(2):185-193.
[12]Jobin, A., Ienca, M., Vayena, E. The Global Landscape of AI Ethics Guidelines[J]. Nature Machine Intelligence,2019(9):389-399.
[13]European Commission Ethics Guidelines for Trustworthy AI[EB/OL].(2019).https://ec.europa.eu/digital-strategy/news-redirect/62405.
[14]Gurney, J. K.Crashing into the Unknown: An Examination of Crash-optimization Algorithms Through the two Lanes of Ethics and Law[J].Albany Law Review,2016(1):183-267.
[15]Goodall, N.J. Machine Ethics and Automated Vehicles. In Road Vehicle Automation[M]. Springer,Cham,2014:93-102.
[16]Binns, R. Fairness in Machine Learning: Lessons from Political Philosophy[C].Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency,2018:149-159.
[17]汪琛.醫(yī)療人工智能的原則主義審思及治理探析[J].中國醫(yī)學倫理學,2024(9):1052-1060.
[18]Lin, P. Why Ethics Matters for Autonomous Cars. In Maurer, M., Gerdes, J. C., Lenz B., Winner,H. (Eds.),Autonomes Fahren [M].Springer Vieweg,2015:69.
[19]Mittelstadt, B. Principles Alone Cannot Guarantee Ethical AI[J].Nature Machine Intelligence,2019(11):501-507.
[20]Wagner,B. Ethics as an Escape from Regulation: From “Ethics-Washing” to Ethics-Shopping? In: Being Profiled: Cogitas Ergo Sun [M]. Amsterdam University Press,2018:84-89.
[21]O’ Neil,C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy[M].Crown Publishing Group,2016:13.
[22]Dignum,V. Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way[M].Springer,2019:4.
[23]Davis R. B., The Principlism Debate: A Critical Overview [J]. The Journal of Medicine and Philosophy,1995(1):85-105.
[24]Clouser, K. D., Gert, B. A Critique of Principlism [J]. The Journal of Medicine and Philosophy,1990(2):219-236.
[25]Haidt ,J. The Righteous Mind: Why Good People are Divided by Politics and Religion[M].Pantheon,2012:1.
[26]Kohlberg, Lawrence; Hersh, Richard H. Moral development: A review of the theory[J]. Theory into Practice. 1977 (2): 53-59.
[27]Greene, J.D. Moral Tribes: Emotion,Reason,and the Gap Between Us and Them[M].Penguin Press,2013:289.
[28]Floridi, L., Strait, A. Ethical Foresight Analysis: What it is and Why it is Needed?[J]. Minds & Machines, 2020(30):77-97.
[29]Johnson, D. G.,amp; Powers, T. M. Computer Systems and Responsibility: A Normative look at Technological Complexity[J].Ethics and Information Technology,2005(2):99-107.
[30]楊建軍. 可信人工智能發(fā)展與法律制度的構建[J].社會科學文摘, 2024(9):112-114.
[31]宋華琳.法治視野下的人工智能倫理規(guī)范建構.數(shù)字法治,2023(6):1-9.
[32]陳景輝.原則、自由裁量與依法裁判[J].法學研究,2006(5):121-137.
(責任編輯 吳 楠)