錢 圓 媛
(中共中央黨校(國家行政學(xué)院) 哲學(xué)教研部, 北京 100091)
駕駛不可避免地涉及道德決定,比如,當(dāng)突遇闖紅燈的行人而急剎車時,駕駛員是在作一個道德抉擇,將行人的現(xiàn)實風(fēng)險轉(zhuǎn)移到車內(nèi)乘客上。以人工智能為核心,被認為應(yīng)具備感官、認知和決策執(zhí)行力,最終能像人類一樣駕駛的無人駕駛汽車(autonomous vehicles/self-driving automobile),同樣需要解決道德決定問題。人們擔(dān)心無人駕駛汽車在難以避免的情況中會如何選擇,是犧牲2名行人還是2名乘客?是撞到墻上還是從裝有未知物品的盒子上碾過?進言之,誰來決定?是程序工程師還是公眾?抑或通過諸如機器學(xué)習(xí)解決道德難題是否可能?
上述問題可謂現(xiàn)實版的“電車?yán)Ь场?trolley dilemma)。對此,麻省理工學(xué)院媒體實驗室于2014年設(shè)計出名為“道德機器”(moral machine)的實驗(1)參見http:∥moralmachine.mit.edu。,通過創(chuàng)建一個類似游戲的平臺,讓公眾就無人駕駛汽車應(yīng)如何在“電車?yán)Ь场钡牟煌姹局袑ιM行優(yōu)先排序作出決定。
參與者被要求在不可避免的事故場景中,選擇犧牲一方以挽救另一方,選項包括:犧牲人或動物、乘客或行人、更多生命或更少生命、男性或女性、青少年或老年、合法或非法穿越馬路者、健康或不健康者、較高或較低社會職位者,在一些場景中還添加了罪犯、孕婦、醫(yī)生等人物。最后的統(tǒng)計數(shù)據(jù)顯示,全球道德偏好傾向于支持無人駕駛汽車損失更少的生命,保護兒童、孕婦,保護健康的人以及醫(yī)生、運動員、經(jīng)理等具有較高社會職位者;傾向于犧牲動物、罪犯、老人、不夠健康的人或無家可歸者[1]。
該實驗收集了來自233個國家和地區(qū)的數(shù)百萬人用10種語言作出的4 000萬個決定,是關(guān)于無人駕駛汽車道德偏好的、迄今最大規(guī)模的全球討論。設(shè)計者認為,該統(tǒng)計結(jié)果是無人駕駛汽車道德算法設(shè)計和政策制定的重要參考,有助于將無人駕駛汽車變?yōu)椤暗赖聶C器”。然而,除了統(tǒng)計樣本的不完全之外,該實驗仍存在不少問題,很大程度上并不有助于無人駕駛汽車的倫理設(shè)計和政策制定[2]。
首先,該實驗讓公眾更多注意到相關(guān)現(xiàn)實中的極小概率事件,這可能阻滯使得行車更安全的無人駕駛汽車技術(shù)的發(fā)展,同時會誤導(dǎo)公眾,使其對無人駕駛汽車不接受和不信任。其次,收集公眾的道德偏好并不意味著我們應(yīng)該有這樣的道德偏好,并據(jù)以去設(shè)計無人駕駛汽車:許多人可能會反感搭乘和購買被這樣編程的無人駕駛汽車,其在危急情況下會“主動瞄準(zhǔn)”并撞向老人或貌似的“無家可歸者”;許多人類駕駛員可能擔(dān)心與其一同行駛。另外,基于這些偏好制定公共政策也不可行,而毋寧是,應(yīng)該用公共政策來規(guī)約我們的道德偏好,前提是這些道德偏好的相關(guān)論述是可信的[3]。然而,該實驗挑選了一些錯誤的抽象范疇——性別、年齡、社會職位等范疇本身在道德內(nèi)容上是空洞的,比如一名醫(yī)生實際上可能是個罪犯,因而無法簡單地進行道德優(yōu)先性排序。這導(dǎo)致該實驗帶來的一個最大問題,即它的錯誤設(shè)問意味著不可能真正得出可靠的結(jié)論;進一步可以說,該實驗并非中立,而是在強迫參與者去作出壞的決定,或者說,強迫塑造參與者的道德偏好。這種伴隨著有效信息之缺失的強迫選擇會帶來挫敗感,可能讓人對該實驗的有效性、對無人駕駛汽車在道德算法設(shè)計上的預(yù)期產(chǎn)生疑問。
在過去的十年中,美國建筑市場涌現(xiàn)一大批優(yōu)秀的建設(shè)項目,充分體現(xiàn)了BIM作為創(chuàng)新技術(shù)、優(yōu)化過程和合作基礎(chǔ)的項目交付方式,有效地改進了建筑質(zhì)量和整體生命周期性能,節(jié)省了項目成本與自然資源,同時提高了項目生產(chǎn)效率和行業(yè)生產(chǎn)附加值。本文將以2015年AIATAPBIMAward杰出項目交付獎(DeliveryProcessExcellence)項目,特拉華大學(xué)跨學(xué)科科學(xué)與工程實驗室(UniversityofDelawareInterdisciplina ryScience&EngineeringLaboratory,ISELab)為案例 5,詳細討論BIM的工程應(yīng)用與最佳實踐。
上述新電車實驗可追溯到著名的倫理學(xué)“電車難題”(trolley problem)[4-5]:前方剎車失靈的電車即將撞上軌道上的五人,若能按下按鈕改變電車軌道,你是否認為,讓電車駛?cè)雮溆密壍雷菜酪蝗艘酝炀任迦耸堑赖碌?功利主義原則被用來解釋多數(shù)人的肯定回答;而康德的道義論則常用以解釋,為救軌道上的五人而主動從天橋上推落一無辜路人以阻擋電車,為何這卻被多數(shù)人認為在道德上是錯誤的。
本研究以同處一地但土地利用形式不同的2個3 m×2 m的坡地徑流小區(qū)為研究對象,運用適用于歷次特定侵蝕事件間隔大約5個月以上的Walling模型來計算各個采樣期的坡面土壤侵蝕量,并比較主要降雨期內(nèi)不同坡地土壤流失的變化特征。
電車難題的不同版本可以進行不同道德原則的解釋以及認知科學(xué)、心理學(xué)等領(lǐng)域的探討,它常被認為一旦抽掉可能模糊道德判斷的干擾因素,就有助于考評不同的道德原則,以期找出一個融貫性的道德原則能解決電車問題,說明人們在不同場景下的、不同道德直覺判斷的融貫性理由[6]。
加強質(zhì)檢過程監(jiān)控,預(yù)裂孔造孔過程質(zhì)檢員旁站,監(jiān)督鉆工開孔20cm、60cm、100cm進行3次校鉆,終孔時使用有標(biāo)示的鉆桿控制孔深偏差≤5cm,并要求鉆工作詳細的造孔記錄,特別要在記錄中說明造孔過程各孔深位置對應(yīng)的返塵情況;同時,隨時檢查樣架的穩(wěn)定性,如有問題及時停鉆進行處理;鉆孔過程中隨時檢查樣架、鉆桿的角度及樣架與鉆機連接的牢固性,鉆桿角度采用特制鋼量角器測量,當(dāng)傾角偏差>0.3°、方位角偏差>0.5°或鉆機固定卡松動時,必須停鉆采取措施糾偏。鉆孔完成后,逐孔檢查驗收,驗收標(biāo)準(zhǔn)為傾角偏差≤0.3°、方位角偏差≤0.5°、孔深偏差≤5cm。
發(fā)展長江經(jīng)濟帶須堅持全流域“一盤棋”的思路,把握好自身發(fā)展與協(xié)同發(fā)展的關(guān)系。正在建設(shè)中的杭溫鐵路為溫州與上海的進一步協(xié)同發(fā)展提供了更多可能。目前,溫州已著手在產(chǎn)業(yè)對接、科技合作、人才交流以及教育、醫(yī)療等民生事業(yè)方面謀劃具體項目與上海對接。而為避免與其他港口形成“同質(zhì)化”競爭,浙江海港集團也在最新的全省港口發(fā)展規(guī)劃中,將溫州港的功能定位調(diào)整為區(qū)域性大宗散貨中轉(zhuǎn)港、產(chǎn)業(yè)配套港、集裝箱輔樞紐港,以及參與“一帶一路”、對臺貿(mào)易運輸?shù)闹匾劭凇!爸挥邪炎陨戆l(fā)展放到全省港口一體化協(xié)同發(fā)展的大局之中,才能形成整體合力、共贏發(fā)展。”溫州港集團董事長湯寶林表示,謀求一體化發(fā)展,必須找準(zhǔn)自己錯位發(fā)展的重點方向。
在德性論那里,德性是一系列微妙而讓人羨慕的功能如感知、認知或者說實踐智慧與行為的綜合調(diào)諧地實現(xiàn),而非僅僅依據(jù)倫理規(guī)則行事。無休止地按照一系列規(guī)則行事,并不能使人成為道德上成功的、有洞察力的人。倫理規(guī)則和推理需要與德性原型、具體情境相結(jié)合,因時因地制宜地進行變通。在亞里士多德那里,倫理規(guī)則是大致的,缺乏精確性,且允許例外。道德德性是相對于我們的兩種惡即過度和不及的中間;要做到中庸需要在正確的人、程度、時間、目的、方式等方面做到最好;同時具體德性活動的正確或優(yōu)劣與否不直接依據(jù)道德規(guī)則來判定。類似地,在神經(jīng)網(wǎng)絡(luò)中,道德規(guī)則和推理也不直接決定道德行為,而是作為跨狀態(tài)空間的向量變換,自然地被整合在神經(jīng)網(wǎng)絡(luò)中起作用。這些作用包括:第一,審視訓(xùn)練好的原型的輸出結(jié)果是否需要再調(diào)整;第二,提供模糊的規(guī)則的引導(dǎo);第三,在原型發(fā)生沖突的時候,反思、修正、協(xié)商以達成解決問題的一致意見[24]118-124??梢哉f,道德意味著一系列感覺、認知、行為等的優(yōu)秀綜合能力,而非純粹按照道德規(guī)則來操作的結(jié)果,從而其不是對道德相關(guān)信息進行符號化加工,即類似于數(shù)字處理那樣,根據(jù)(符號)程序的指令按順序生成字符串,對輸入的符號進行邏輯運算推導(dǎo),并輸出道德符號結(jié)果。德性指向一系列優(yōu)秀的、進行多向量轉(zhuǎn)換并輸出為德性活動的過程和能力,這些向量包括一系列感覺信息、經(jīng)驗、慎思等在神經(jīng)網(wǎng)絡(luò)中的不同程度的激活與分級演化;德性可謂是線性和非線性計算的結(jié)合[26]275。
這使人反思,該實驗本身乃至近代主流倫理學(xué)的方法是否真的正確,其可能在最根本的方面,錯誤地描述了道德的本質(zhì)——電車實驗作為一種類型化的探討,抽掉了具體細節(jié),若要在其中根據(jù)普遍原則進行道德抉擇,注定不可能有滿意的解決方案。
可以認為,聯(lián)結(jié)主義與德性論都基于一個共同預(yù)設(shè),即道德基于心靈/大腦的功能,優(yōu)秀的心靈/大腦具有能在適當(dāng)情況下作出適當(dāng)行為的傾向[16]3,[17]。訓(xùn)練神經(jīng)網(wǎng)絡(luò)與培養(yǎng)德性的目的都是出色地、成功地施行功能性活動。研究者還指出了亞里士多德關(guān)于如何獲得德性與聯(lián)結(jié)主義的更多共鳴或趨同:二者都重視感知、即刻性以及非符號性的方式,都強調(diào)通過訓(xùn)練而非教授抽象的理論來進行發(fā)展,都強調(diào)訓(xùn)練中模仿“榜樣”的重要性,同時都是對情境敏感的,都善于把握那些沒有清晰的和普遍規(guī)則的情境敏感的信息[7]122-123,[18]。
(4) 樣本驅(qū)動的訓(xùn)練與規(guī)則的向量變換
因此,近代以來的主流道德理論即功利論和道義論,當(dāng)然就成為了人們首選的無人駕駛汽車道德算法的指導(dǎo)性原則。據(jù)此,相應(yīng)的規(guī)則體系需要自上而下地轉(zhuǎn)化為算法,或者定義一個明確的價值評價功能,像功利主義那樣通過計算正確行為的后果而得出最大化價值的行為選項;或者通過建立一個能進行邏輯推演的“道德專家”系統(tǒng),并向這個系統(tǒng)提供道德事實以進行類似道義論的倫理推理[10]。然而這樣的進路實現(xiàn)起來卻有諸多問題。
功利主義的算法本質(zhì)是算術(shù)。其似乎簡潔明了、最為“科學(xué)”或最易實行,但實際上面臨沉重的運算任務(wù),因為其需要計算出選項的幾乎所有可能的結(jié)果,以便在道德上對行為進行排序。邊沁就曾指出進行精確的功利計算的困難,認為諸如惡意傷害在強度和持續(xù)性方面確實是未知的,它是不確定的和遙遠的,這在一定程度上阻礙了對其后果的計算[11]。就無人駕駛系統(tǒng)而言,其需要計算受一系列可能行為影響的所有個體的預(yù)期效用,然后得出正確的道德結(jié)論,再選擇承諾最大化總效用的行為。但是,該如何確定各種行動過程的后果,如何衡量評估不同個體的各類效用,以及該系統(tǒng)能否獲得關(guān)于未來后果的足夠信息,這都是功利主義進路的無人駕駛系統(tǒng)面臨的棘手問題[12-14]。
道義論強調(diào)行為的規(guī)則而非其后果。它包括如何確定該采用哪些規(guī)則,如何建立規(guī)則系統(tǒng),以及如何知道一個預(yù)期的行為是否合乎規(guī)則。根據(jù)康德的道義論,道德的準(zhǔn)則必須是能夠普遍化的行動準(zhǔn)則,這似乎可以通過計算機編程進行道義論邏輯推演而得出:在設(shè)定具體激活條件的情況下,最終能通過普遍性測試的準(zhǔn)則將是道德上應(yīng)該的或可允許的,而不能通過普遍性測試或不能與其他普遍性準(zhǔn)則相融貫的準(zhǔn)則,即是道德上不應(yīng)該或不允許的。然而困難在于,如何能保證相關(guān)準(zhǔn)則在特定情況下得到有條件地激活,以及當(dāng)比如基于定言命令的道德準(zhǔn)則相沖突時應(yīng)該怎么辦[7]85-86,[12]。
可以說,自上而下地將規(guī)范符號化的設(shè)計思路,忽視了道德決定的一個重要特征,即道德理由和范疇可能都是高度情境敏感的,因而可能讓人難以接受。實際上道德行為相關(guān)的許多細節(jié)和具體情境,沒法通過普遍的道德原則而進行規(guī)范化地解決。在現(xiàn)實中進行道德選擇乃至過一種道德生活時,除了原則和規(guī)范,我們還重視道德品格、道德情感和欲望以及我們道德生活的整體目的——道德是為了促進我們的善以及美好生活。
與此相對,自下而上的道德設(shè)計則強調(diào)創(chuàng)造一個環(huán)境,讓智能體在其中探索自己的行為方式并進行學(xué)習(xí),同時在作出好的道德行為時得到獎勵[7]80。這一方法推動了AI技術(shù)的重要進步并得到廣泛運用,但由于在學(xué)習(xí)中會容許大量試錯和失敗的數(shù)據(jù),為了防止人工智能體學(xué)會錯誤和不道德的行為,亦需要適當(dāng)?shù)囊?guī)范性道德理論自上而下的引導(dǎo)和保障,從而形成一種混合進路。
無人駕駛汽車道德設(shè)計的混合進路涉及德性倫理學(xué),其采取一種自上而下的道德規(guī)范與自下而上的道德學(xué)習(xí)相結(jié)合的混合編程,運用聯(lián)結(jié)主義網(wǎng)絡(luò)來發(fā)展具有良好特質(zhì)或“德性”的無人汽車計算機系統(tǒng),這被許多研究者認為是更有可能的進路[7]117-118。
聯(lián)結(jié)主義是認知科學(xué)中的一個運動,致力于通過訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)(也稱為“神經(jīng)網(wǎng)絡(luò)”)這一數(shù)學(xué)模型,主要依據(jù)并行分布式處理(PDP)來模擬和展現(xiàn)人的自然認知活動。神經(jīng)網(wǎng)絡(luò)是對大腦及其活動方式的簡化模擬,由大量類似神經(jīng)元的輸入和輸出單元(也叫節(jié)點node)以及衡量單元間聯(lián)結(jié)強度的權(quán)重(weights)組成。在聯(lián)結(jié)主義看來,認知活動是網(wǎng)絡(luò)單元激活模式的轉(zhuǎn)換;分層的諸網(wǎng)絡(luò)單元激發(fā)和抑制彼此的不同激活水平,通過不同層級的激活模式的持續(xù)置換,直到這組輸出單元相應(yīng)地重置自身,輸出適當(dāng)?shù)慕Y(jié)果或行動信號。由于改變權(quán)重可以改變所有級別產(chǎn)生的激活模式,聯(lián)結(jié)主義網(wǎng)絡(luò)正是通過調(diào)整權(quán)重來進行學(xué)習(xí),直到達成預(yù)期目的。
德性論與聯(lián)結(jié)主義的結(jié)合并不突兀。丘奇蘭德(Paul Churchland)就認為,聯(lián)結(jié)主義神經(jīng)網(wǎng)絡(luò)的道德問題更適于德性論,從認知的神經(jīng)網(wǎng)絡(luò)模型中浮現(xiàn)出來的道德知識的總體畫像,已在亞里士多德德性論及其當(dāng)代擁護者那里得到了積極檢驗[15]??ㄋ贡葼?William Casebeer)也認為,聯(lián)結(jié)主義正是一個合適的針對自然化的倫理學(xué)的框架體系,道德判斷只有在以自然的計算方式進行學(xué)習(xí)的系統(tǒng)中才是可能的。擁有良好的道德判斷相當(dāng)于能完成使主體滿足自身功能性要求的認知任務(wù)[16]5。
1980年,我進行了第一次科學(xué)大洋鉆探。自那時起,我又參加了6次在北大西洋和南極洲威德爾海的探險。在我的實驗室里,我和學(xué)生們對這些探險活動中獲得的巖芯樣本進行研究。這些長31英尺、寬3英寸,類似圓柱體的樣本就像一本本書,等待著人們解讀其中的信息。拿起一塊新打開的巖芯,里面充滿了來自地球海底的巖石和沉積物,就像打開一個罕見的寶箱,里面記錄著地球歷史流逝的時光。
這一反思進而引出一種對近代以降主流倫理學(xué)的批判性識見。如今的倫理學(xué)可謂主要致力于概念分類、思想實驗和論證構(gòu)建。倫理學(xué)課程旨在教導(dǎo)學(xué)生批判性地檢視各種倫理觀點和理論,只培養(yǎng)學(xué)生智力上的德性,而不是道德德性[8]。在這種思想實驗中,不同的規(guī)范性道德理論旨在為復(fù)雜背景下應(yīng)如何選擇給出最佳理由。學(xué)生常被置于一個復(fù)雜的道德案例中,教師然后指出康德主義者根據(jù)普遍道德律令會怎么做,功利主義者根據(jù)最大化的善又將如何,卻抽離或無視了與選擇緊密相關(guān)的情感、欲望等道德心理狀態(tài)和品格,以及行為主體的整體倫理生活和目標(biāo)。后者對道德心理學(xué)的理解恰是根本性的,并且是當(dāng)今道德哲學(xué)的核心[9]。
一是各地成立由黨政領(lǐng)導(dǎo)和植保技術(shù)干部組成防控領(lǐng)導(dǎo)小組,進一步細化工作方案,落實專人,負責(zé)組織、協(xié)調(diào)和指導(dǎo)農(nóng)作物重大病蟲的監(jiān)測與防控工作。二是嚴(yán)格執(zhí)行工作管理制度,將工作目標(biāo)量化、細化,將軟管理轉(zhuǎn)變到嚴(yán)格執(zhí)行考核管理。
傣族織錦在長期的歷史發(fā)展過程中,在紋樣的構(gòu)成上形成了相對固定的形式,并蘊含深厚的文化內(nèi)涵,而這些紋樣構(gòu)成形式都可以重新提取應(yīng)用在現(xiàn)代服飾圖案設(shè)計中。將傳統(tǒng)織錦紋樣按照新的構(gòu)思重新組合,或者加入新的時代元素,創(chuàng)造出具有新的內(nèi)涵的現(xiàn)代圖案,以形成全新的視覺效果。其次傣族織錦的創(chuàng)新應(yīng)用也可以根據(jù)自己的意圖可結(jié)合不同的工藝技法如繡法、針法、線型等裝飾工藝進行再整合,或結(jié)合不同肌理的面料進行設(shè)計,增強服裝的層次感,創(chuàng)造出新的服裝設(shè)計的視覺效果。
這都表明,聯(lián)結(jié)主義關(guān)于模擬大腦出色運作的模型和理論,有望與亞里士多德意義上的主體如何在道德上出色行動的說法構(gòu)成相互支撐和補充,從而使得具有“德性”的無人駕駛計算機系統(tǒng)設(shè)計,成為更優(yōu)的可能選項。
(1) 對預(yù)定目的的正確趨向
人們可以發(fā)現(xiàn),已完成的神經(jīng)網(wǎng)絡(luò)系統(tǒng)和德性均表現(xiàn)出對預(yù)定的功能性活動的正確趨向。德性論認為,道德的最終目的是優(yōu)秀的行為活動而非正確的道德判斷。僅有正確的道德判斷不足以作出優(yōu)秀的道德行為,還需要通過訓(xùn)練培養(yǎng)使之具備實現(xiàn)目的的優(yōu)秀行為能力。同樣,“有道德的”無人駕駛汽車的目的在于輸出優(yōu)秀的道德行為活動,而非輸出基于規(guī)則的道德判斷。正如具有德性意味著通過培養(yǎng)訓(xùn)練而具有特定行為能力并在適當(dāng)情境下“自然順暢地”實現(xiàn)出來一樣,聯(lián)結(jié)主義神經(jīng)網(wǎng)絡(luò)亦表現(xiàn)出一種目的性以及對環(huán)境的適應(yīng)[17],即有能力在其感知到的環(huán)境中做正確的事,比如模式識別(pattern recognition)訓(xùn)練會帶來對目的模式的“積極”趨向和偏好[19]36-38。這意味著,聯(lián)結(jié)主義的系統(tǒng)具有一種在合適情況下作出適當(dāng)行為的傾向,從而使人工智能體的道德行為成為可能。
(2) 基于“神經(jīng)可塑性”的適應(yīng)性
受訓(xùn)練的神經(jīng)網(wǎng)絡(luò)系統(tǒng)有望像德性一樣,基于一定程度的“神經(jīng)可塑性”(neuroplasticity)穩(wěn)固而靈活地表現(xiàn)出特定傾向的行為。德性來自于習(xí)慣化,有證據(jù)表明,習(xí)慣化訓(xùn)練會強化大腦神經(jīng)元突觸的相關(guān)聯(lián)結(jié)能力,使相關(guān)行為功能更易于發(fā)揮,促進該行為回路在未來良好穩(wěn)定地表現(xiàn),并為判斷、決策匹配隨機情境提供可能[20]。類似地,一個訓(xùn)練好的網(wǎng)絡(luò)擅長完成其任務(wù)或追求其目標(biāo),能在面對現(xiàn)實世界的挑戰(zhàn)時表現(xiàn)出強大的靈活性。由于神經(jīng)網(wǎng)絡(luò)主要基于模擬大腦運作方式的并行分布式處理進行計算,故相較于傳統(tǒng)的序列式處理(serial processing)更為快速和強大,同時具有功能上的持久性:即使在有噪音輸入、過載或單元破壞的情況下,神經(jīng)網(wǎng)絡(luò)也仍然能進行適當(dāng)回應(yīng)和較好表現(xiàn),而不像在經(jīng)典的符號化計算機系統(tǒng)中那樣通常導(dǎo)致災(zāi)難性故障。
與人適應(yīng)情境的能力類似,神經(jīng)網(wǎng)絡(luò)通過機器訓(xùn)練不斷調(diào)整單元聯(lián)結(jié)權(quán)重,從而能獲得適應(yīng)情境(新數(shù)據(jù))的能力。權(quán)重訓(xùn)練越好,模型預(yù)測準(zhǔn)確性就越高。比如,在卷積神經(jīng)網(wǎng)絡(luò)中,由于圖像數(shù)據(jù)與網(wǎng)絡(luò)拓撲結(jié)構(gòu)契合度高,即使輸入較少數(shù)據(jù),仍有較好的輸出結(jié)果。這樣的神經(jīng)網(wǎng)絡(luò)可以識別出新的人像表情圖像,甚至能將被部分遮擋的圖像正確識別出來。
盡管網(wǎng)絡(luò)中單個處理單元的功能結(jié)構(gòu)并不復(fù)雜,但通過改變網(wǎng)絡(luò)結(jié)構(gòu)形式、隱藏層數(shù)量以及引入激活函數(shù),神經(jīng)網(wǎng)絡(luò)的動態(tài)行為卻趨向復(fù)雜,賦予其從線性不可分到非線性分類等多樣化的模型表達能力,對應(yīng)包含多條件、多因素和模糊性的現(xiàn)實問題。這意味著,神經(jīng)網(wǎng)絡(luò)擅長處理非線性困難,尤其適合解決有許多沖突的約束條件并行的問題。這些問題大量存在于實現(xiàn)道德活動所需的對象識別、計劃安排、運動協(xié)調(diào)等認知任務(wù)中。相比經(jīng)典的認知符號理論,由于神經(jīng)網(wǎng)絡(luò)是通過基于實際表現(xiàn)與輸出目標(biāo)如何相匹配的反饋而調(diào)整行為來學(xué)習(xí)的,因此用神經(jīng)網(wǎng)絡(luò)表示的知識遠遠超過可用語句公式表示的知識[21]。換言之,神經(jīng)網(wǎng)絡(luò)模型提供了更自然而強大的機制來處理上述問題。
將兩組患者術(shù)后的并發(fā)癥情況進行對比,實驗組并發(fā)癥發(fā)生的概率為6.67%,參照組并發(fā)癥發(fā)生的概率為22.22%,兩組患者數(shù)據(jù)對比分析,χ2=4.405 6,P=0.035 8,差異有統(tǒng)計學(xué)意義。
(3) 自然地范疇化與規(guī)則整合
神經(jīng)網(wǎng)絡(luò)有望自然識別和建構(gòu)以德性原型為主的范疇,繼而可依據(jù)原型預(yù)測并進行道德輸出;同時德性規(guī)則和推理還可引導(dǎo)、調(diào)整和修正原型的輸出結(jié)果。
在認知科學(xué)那里,范疇化(categorization)是我們建構(gòu)關(guān)于世界的知識的基礎(chǔ),是認知的最基本現(xiàn)象[22]。通過范疇,我們可以迅速理解和應(yīng)對日常社會生活中遇到的事物。某物之所以成為某一范疇的成員,或者因為它與該范疇的其他成員共享本質(zhì)特征(古典觀點如亞里士多德和本質(zhì)主義),或者因為它與最能例證該范疇的原型(概率觀點如維特根斯坦和原型)具有共同特征。當(dāng)我們把范疇進行詞匯化表達時,就有了概念,概念繼而構(gòu)成命題,乃至圖式[23]。
道德認知亦基于范疇化作用,范疇的不同導(dǎo)致行為含義的不同。比起經(jīng)典的符號主義,神經(jīng)網(wǎng)絡(luò)模型尤其能“自然地”識別或構(gòu)建范疇(原型),無需精確的指導(dǎo)概念或范疇上的指導(dǎo)和編程。通過網(wǎng)絡(luò)結(jié)構(gòu)和激活函數(shù)的相互配合,神經(jīng)網(wǎng)絡(luò)能在樣本所隱含的統(tǒng)計學(xué)特征中發(fā)現(xiàn)基本的區(qū)別,從而把更高層級的激活空間劃分到范疇及子范疇層次結(jié)構(gòu)中,同時反向傳播過程穩(wěn)定緩慢地壓縮迫使神經(jīng)網(wǎng)絡(luò)對所涉及的范疇變得敏感。比如人臉識別的神經(jīng)網(wǎng)絡(luò)訓(xùn)練在中間層自然地展現(xiàn)了“人臉”與“非人臉”的范疇,以及“男性”與“女性”的子范疇等。換言之,神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)產(chǎn)生了服務(wù)于所要求的功能的概念框架或范疇,相互關(guān)聯(lián)的范疇系統(tǒng)的激活是該網(wǎng)絡(luò)復(fù)雜的輸入—輸出行為的原因。這非常類似于物理大腦的活動引起的心靈認知活動的某些可見特征[19]83。
由于原型代表了一組范例的統(tǒng)計學(xué)上的中心趨勢,因此神經(jīng)網(wǎng)絡(luò)還可以運用循環(huán)網(wǎng)絡(luò)結(jié)構(gòu)來辨識原型的時間性過程序列的實例,并通過辨識過程序列或行為的早期階段,而能在統(tǒng)計學(xué)上預(yù)測相關(guān)的將來事件或行為的規(guī)律性[19]104-106。據(jù)此,神經(jīng)網(wǎng)絡(luò)在理論上可以預(yù)測道德事件的后續(xù)情況,而這遠不是通過執(zhí)行道德規(guī)則所能達成的。
原型提供了對德性諸概念更整體更動態(tài)的范疇化把握。人的道德能力同人的認知能力一樣,遠超過人用語句來表達的能力。道德情境下對面部表情、聲音、情感等的復(fù)雜認知就是如此,比如我們對“勇敢”這一德性原型的日常具體把握和回應(yīng)要遠超過“勇敢”的相關(guān)語詞表達。原型被證明有望更好地把握道德認知中的語言和非語言的要素[21]。原型使我們能合適地應(yīng)對新的但仍可被分類進已有范疇的范例或樣本。在現(xiàn)實中,我們或一個網(wǎng)絡(luò)系統(tǒng)面對一個新的社會道德環(huán)境的反應(yīng)可能一開始是道德困惑、不知所措,然后通過發(fā)現(xiàn)一些背景知識或具體情境信息,突然就能完成從困惑到理解的轉(zhuǎn)變,并將這一新情況整合進已有的熟悉的道德原型中去,從而作出適當(dāng)應(yīng)對。這種道德洞察力和靈活性有望通過神經(jīng)網(wǎng)絡(luò)的循環(huán)網(wǎng)絡(luò)(RNN)結(jié)構(gòu)來達成,其中,信息從中間層下降循環(huán)到感知層,彌補感知輸入中的缺失部分,而當(dāng)循環(huán)的系統(tǒng)最終激活了預(yù)先習(xí)得的相關(guān)原型的時候,之前的模糊的認知就突然成功地轉(zhuǎn)變?yōu)榭衫斫獾牧薣19]115。
這恰恰不同于對德性倫理學(xué)的某些指責(zé),即認為由于其對正確性的解釋不是基于規(guī)則的,因而缺乏解決道德兩難的資源。事實上,德性作為原型,有望提供更多資源來應(yīng)對并評價道德兩難中的行為[26]247。
這種范疇更是“家族相似”或原型意義上的,其代表了一組范例的統(tǒng)計學(xué)上的中心趨勢或者說最典型的樣本特征和特征關(guān)聯(lián),而非依據(jù)必要和充分條件、“如果—那么”等硬性規(guī)則作出的定義描述[24]111-113。類似地,諸倫理德性概念尤其適于被理解為“家族相似”的原型[25]。
然而這也昭示了其限度:電車難題受近代以來的主流道德理論影響,強調(diào)行為正當(dāng)即道德優(yōu)良,進而假設(shè)行為的正當(dāng)性以普遍、抽象的道德原則為依據(jù),而主要的普遍道德原則類型即后果論和道義論。電車難題片面突出了依據(jù)上述原則而導(dǎo)致的線性不可解的道德分歧,易使人失察于那些據(jù)以進行判斷并采取行動的道德細節(jié),從而可能導(dǎo)致對“兩難問題”本身的反感。電車難題忽略了道德能力是高度情境敏感的[7]123,同時抽象的道德分歧并非是具體情境下以及非線性不可解的。我們的道德能力并不限于依據(jù)抽象原則自上而下地行事,而僅僅依據(jù)道德原則也并不能完全決定道德上的對錯,更遑論能帶來令人滿意的道德活動和道德生活。
在智能樓宇個別應(yīng)用上,目前已具備初步的聯(lián)動控制,如安防管理方面,火災(zāi)系統(tǒng)與廣播、視頻監(jiān)控、門禁系統(tǒng)的聯(lián)動,空調(diào)暖通設(shè)備與環(huán)境傳感器的聯(lián)動實現(xiàn)了樓宇室內(nèi)空氣、溫濕度等環(huán)境的智能調(diào)節(jié)。但上述的聯(lián)動策略是在專業(yè)的接口開發(fā)基礎(chǔ)上完成的,是固化的。用戶無法根據(jù)實際的系統(tǒng)管理需求和運行場景進行靈活調(diào)整,實現(xiàn)聯(lián)動策略的自定義。
顯然,近代以來的主流道德理論影響了構(gòu)建道德問題的方式,繼而影響了對無人駕駛汽車道德算法問題的看法。一般認為,無人駕駛汽車在被迫情境下的選擇,依賴復(fù)雜算法的預(yù)先編程,而這些算法最終建立在我們的道德原則和倫理預(yù)設(shè)上。對無人駕駛汽車的道德考量之所以催生了新版電車實驗,是因為我們可能覺得,只要基于抽象普遍的道德原則,無人駕駛汽車的相關(guān)行為在某種程度上就是道德可辯護的,道德問題也有望解決。也即,一旦道德原則能被施以準(zhǔn)確的符號化表述,道德地行事就變成了遵守規(guī)則的問題;無人駕駛汽車需要做的就是計算其可能的行為是否被規(guī)則所允許,以采取行動[7]83。
第二,“互聯(lián)網(wǎng)+養(yǎng)老”模式有助于實現(xiàn)養(yǎng)老服務(wù)的全覆蓋和專業(yè)化提升。在大數(shù)據(jù)技術(shù)的支持下,“互聯(lián)網(wǎng)+養(yǎng)老”模式可以針對不同養(yǎng)老需求提供多層次、多樣化、個性化的具體服務(wù)方式,使“互聯(lián)網(wǎng)+養(yǎng)老”模式呈現(xiàn)全方位養(yǎng)老服務(wù)部署的態(tài)勢,從而實現(xiàn)養(yǎng)老服務(wù)對象、內(nèi)容、過程和環(huán)節(jié)的全覆蓋。另外,由于大數(shù)據(jù)技術(shù)可以提供精準(zhǔn)信息分析,幫助工作人員和機構(gòu)能夠提供更為精確的服務(wù),這也養(yǎng)老服務(wù)行業(yè)的專業(yè)化提升奠定了基礎(chǔ)。
其中,K1,2為相互同意度,M為評判者之間一致同意的類目數(shù),N1、N2分別為第一、第二評判者分析的類目數(shù)。
在德性的獲得問題上,有望通過在以原型訓(xùn)練為核心的神經(jīng)網(wǎng)絡(luò)中整合道德規(guī)則和推理的方式來實現(xiàn)。德性論認為,德性來自于受榜樣影響的習(xí)慣化訓(xùn)練,同時還要求發(fā)展能因時因地慎思道德目標(biāo)、推理其實現(xiàn)手段并作決定的實踐智慧。與此類似,神經(jīng)網(wǎng)絡(luò)的道德學(xué)習(xí)主要是道德樣本驅(qū)動的原型訓(xùn)練,以產(chǎn)生有等級的道德原型,最終使系統(tǒng)具有適當(dāng)?shù)男袨閮A向和能力[19]146,[24]112。
一般說來,監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)都用樣本進行訓(xùn)練:先隨機設(shè)定某些權(quán)重,然后考察從輸入到輸出的誤差,通過比照完美的樣本,運用反向傳播方法一層層修改,反復(fù)調(diào)整權(quán)重,直到輸入輸出的結(jié)果盡可能完美地匹配樣本,隨后凍結(jié)權(quán)重,訓(xùn)練結(jié)束,我們就有了一個初步完成的網(wǎng)絡(luò)可供測試[19]42-45。正如兒童需要大量故事、家長的言行和評價的榜樣來克服錯誤的榜樣影響一樣,在訓(xùn)練中還應(yīng)注意數(shù)據(jù)的量和質(zhì)的選取:盡管在理論上,機器學(xué)習(xí)有望通過海量數(shù)據(jù)窮舉樣本從而推動模型趨近完美,但仍需要公平而具有代表性地選取不同類型樣本以盡可能避免功能訓(xùn)練上的不全。
要應(yīng)對可能的道德沖突或困難,除了對諸原型的訓(xùn)練和分級把握之外,如前所述,還需要把道德規(guī)則和推理作為向量變換整合進神經(jīng)網(wǎng)絡(luò)中以調(diào)整、引導(dǎo)原型,而這被證明是有可能的:“精確的邏輯推理和更靈活的模糊推理在必要時都可以在聯(lián)結(jié)主義的網(wǎng)絡(luò)中進行,從而有望在網(wǎng)絡(luò)中實現(xiàn)具有完全的復(fù)雜性的符號圖式”[27]。
也許兩個人分布兩邊,一個帶著賴秀金在貼隔壁綠屋夫人門前看櫥窗。女孩子看中了買不起的時裝,那是隨便站多久都行。男朋友等得不耐煩,盡可以背對著櫥窗東張西望。
在建構(gòu)“有德性的”無人駕駛系統(tǒng)的探索中,有研究者指出,適合的目標(biāo)德性應(yīng)該包括正義、仁善和勇敢[28]。正義意味著守法,其可以從無人汽車的駕駛技巧訓(xùn)練開始,把交通規(guī)則和相關(guān)法律法規(guī)引入操作系統(tǒng),學(xué)習(xí)比如按法規(guī)要求保持車道、限速內(nèi)行駛、規(guī)范變道和超車等。仁善意味著無人駕駛汽車應(yīng)促進相關(guān)的人的善,包括乘客、行人及其他道路使用者等。無人駕駛汽車要學(xué)習(xí)諸如既給予乘客和車主以優(yōu)先權(quán),又不剝奪其他車輛和行人的通行權(quán)的行為。勇敢則涉及應(yīng)對危險,即發(fā)展對駕駛過程中的風(fēng)險的正確評估和應(yīng)對行為。決定一個適應(yīng)交通狀況的安全速度就可謂勇敢的表現(xiàn)之一,同時在緊急情況下,作出最優(yōu)的碰撞決策并有效實施,或者尋求對問題的創(chuàng)造性解決方案而非遵循一個保守的規(guī)則也可被理解為勇敢。
要習(xí)得和發(fā)展這些德性及其行為,有望在一個結(jié)合了自下而上的機器學(xué)習(xí)與自上而下的符號推理的神經(jīng)—符號(neural-symbolic)統(tǒng)一體中來實現(xiàn)。其中,符號性的道德知識首先被轉(zhuǎn)譯到神經(jīng)網(wǎng)絡(luò)中,然后與經(jīng)由該網(wǎng)絡(luò)進行的德性樣本及其范疇的學(xué)習(xí)形成雙向反饋并對諸范疇執(zhí)行自動化推理,進而激活并輸出相應(yīng)的行為模式。最終,可以從該網(wǎng)絡(luò)中抽取符號化的道德知識并與初始輸入的道德知識形成反饋的循環(huán)閉環(huán)以供解釋、驗證和修正系統(tǒng)。采用這一架構(gòu)的NSCA(神經(jīng)符號認知行為體)系統(tǒng)已被成功地用來訓(xùn)練和評估駕駛行為,包括車輛控制、經(jīng)濟性駕駛、交通流、社會—安全駕駛等,并能結(jié)合推理與學(xué)習(xí),在模擬器上完成諸如“經(jīng)十字路口讓行右方道路來車”等較復(fù)雜的駕駛行為[29]。
對于被轉(zhuǎn)譯到網(wǎng)絡(luò)中的基于規(guī)則的初始道德知識,有研究者認為,它們應(yīng)該是公開、透明和得到廣泛認同的,比如在不可避免的碰撞情境下,需設(shè)定“人身傷害比死亡更可取”,“財產(chǎn)損害相較人身傷害更可取”,“優(yōu)先保護易受傷用戶”等規(guī)則。在規(guī)則無法涵蓋的情境、規(guī)則間沖突或道德行動不能被確定的情況下,車輛都應(yīng)該首先被設(shè)計為剎車或規(guī)避[30]。
上述神經(jīng)—符號系統(tǒng)還可以結(jié)合遺傳算法來優(yōu)化:即以一組被廣泛認可的初始行為和道德規(guī)則作為“初始種群”,根據(jù)“適者生存、適者繁衍、有性重組和變異”的原則,不斷產(chǎn)生出新一代種群(即后續(xù)的行為和原則),直到找到最優(yōu)的問題解決方案[31]。這種方法能促使神經(jīng)網(wǎng)絡(luò)有效地“習(xí)得”和改進一套道德習(xí)慣,其中,習(xí)得的道德行為的各方面特征可以重新組合甚至被部分地消除,以達到最優(yōu)解。
需要指出的是,這些“習(xí)得”的品格及其相應(yīng)行為的展現(xiàn)并非是一直持續(xù)輸出的,而是通過在神經(jīng)網(wǎng)絡(luò)中與自下而上的情境約束以及自上而下的高級認知約束的動態(tài)整合實現(xiàn)出來。有研究者以一個包含勇敢、正直等相關(guān)品格的通用神經(jīng)網(wǎng)絡(luò)為例,說明了這些品格力量如何與上述約束通過多層神經(jīng)網(wǎng)絡(luò)動態(tài)地結(jié)合,從而在條件達到時輸出適當(dāng)?shù)牡赖滦袨椤T谶@一框架中,經(jīng)由外在傳感的“線索層”和“高階認知層”(包括目標(biāo)任務(wù)、基于規(guī)則的道德知識等)輸入的不同信息,各自依據(jù)不同權(quán)重而被雙向傳導(dǎo)至中間層的“道德相關(guān)的情境信息層”和“品格力量層”,繼而激發(fā)或抑制其中的范疇性節(jié)點如“自身風(fēng)險”“傷害他人的機率”“公正”“對內(nèi)/外組織的忠誠”“勇敢”“正直”,再雙向傳導(dǎo)至“行為范疇層”,激發(fā)或抑制該層相應(yīng)的范疇性節(jié)點,以輸出相應(yīng)類別的行為,包括“不行動”“救援”“照料”等[32]。為訓(xùn)練這些品格,還需建立相關(guān)的案例庫,除運用現(xiàn)實的道德行為樣本外,還可運用虛擬的、來自大眾媒體的影音樣本、游戲樣本以及模擬對抗性訓(xùn)練等。
各受熱面吸熱量變化規(guī)律與各受熱面?zhèn)鳠嵯禂?shù)變化規(guī)律相同。煙氣流速比從0.6提高到1.4,分隔屏和后屏受熱面吸熱量均略微增加;對于對流受熱面,煙氣流速每提高10%,高溫過熱器吸熱量增長1.90%,省煤器吸熱量增長5.31%。具體結(jié)果見圖2和圖3。
最后,有效的道德決策和行為作為無人駕駛系統(tǒng)程序的一部分,離不開高質(zhì)量的外部輸入系統(tǒng)和高效的執(zhí)行系統(tǒng)。無人駕駛汽車需要與其他車輛、制造商服務(wù)(如軟件更新系統(tǒng))、智能交通系統(tǒng)、智慧城市、物聯(lián)網(wǎng)連接起來,結(jié)合來自車內(nèi)的數(shù)據(jù)與來自環(huán)境(如其他車輛、道路、標(biāo)志、云服務(wù))的外部數(shù)據(jù)以便決策和行動[33]。
對于理想化的“不可解”的電車問題而言,其工程學(xué)的求解意味著在無人駕駛汽車上實現(xiàn)這樣一個過程:無人駕駛汽車從環(huán)境認知開始,運用多種傳感器探測并獲取障礙物的詳細信息(如人、動物或建筑),利用外部系統(tǒng)(如GPS、地圖、街道標(biāo)志等)或本身可得的信息(如速度、方向等)探查車輛的當(dāng)前狀況和情境,然后計算機程序計算解決方案并選擇后果最優(yōu)的方案,接下來汽車執(zhí)行計算后的行為,最后重復(fù)整個過程。在一個復(fù)雜的無人駕駛系統(tǒng)中,該系統(tǒng)的各部分及其構(gòu)造方式都會對決策和執(zhí)行產(chǎn)生關(guān)鍵性的影響,涉及諸如傳感器的質(zhì)量、代碼(包括道德代碼)和測試等重要方面,可以說,無人駕駛系統(tǒng)的有效道德決策和行為有賴于整體系統(tǒng)的多功能融合。
正如AlphaGo基于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)圍棋并變得“聰明”一樣,無人駕駛汽車在未來的行車上可能比我們做得更好。每個系統(tǒng)都會收集梳理經(jīng)驗教訓(xùn)并始終如一地應(yīng)用,同時能與其他無人駕駛汽車和外部系統(tǒng)保持聯(lián)系并分享。無人駕駛汽車是機器人,它們只有我們給予的目標(biāo)。因此在需要的時候,它們會立即采取行動保護人類生命,不考慮自我保存或經(jīng)濟成本,不受任何困擾人類的意志和情感的影響。
在對無人駕駛汽車的訓(xùn)練上,最好使用模糊的引導(dǎo)和調(diào)整規(guī)則以及神經(jīng)網(wǎng)絡(luò),而不是用一套過于規(guī)定性的規(guī)則來規(guī)定其道德選擇。它們最終能根據(jù)對經(jīng)驗細節(jié)的敏感性和對可能性的評估作出判斷并表現(xiàn)出道德行為,而這很大程度上是任何軟件工程師都無法事先預(yù)測或事后復(fù)制的。
同時,就無人駕駛汽車的道德設(shè)計帶來的對倫理學(xué)的反思和新認識而言,我們最好不要忽視伯納德·威廉姆斯曾說的:“我的結(jié)論毋寧是,現(xiàn)代世界對倫理思想的要求是前所未有的,而大多數(shù)當(dāng)代道德哲學(xué)所體現(xiàn)的理性思想不能滿足這些要求; 但是,古代思想的某種延伸,若經(jīng)過很大的修改,也許能夠做到這一點”[34]。