国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

嵌入黑箱:一種人機(jī)協(xié)作的可能性及其問題

2023-11-27 16:34:17林建武
江漢論壇 2023年11期

摘要:在當(dāng)代,人類的命運已經(jīng)牢牢地與機(jī)器,尤其是人工智能機(jī)器的發(fā)展關(guān)聯(lián)在一起。與此同時,智能機(jī)器的黑箱化也成為我們迫切需要面對的一個問題。這其中,像算法機(jī)制這種對人們生活產(chǎn)生全方位影響的“機(jī)器”原理,一方面對于普通人而言幾乎就是一個難以理解的黑箱結(jié)構(gòu),另一方面又對我們的日常生活產(chǎn)生直接且重大的影響。然而,試圖通過讓智能機(jī)器變得更“透明”,更具有“可解釋性”,對于緩解機(jī)器的黑箱狀態(tài)并沒有太大的幫助。人機(jī)之間良好協(xié)作關(guān)系的破壞往往不是由于機(jī)器的黑箱化導(dǎo)致的。人與機(jī)器在人機(jī)協(xié)作中存在各自目的與功能上的差異,因此更合理的思路是在充分理解人與機(jī)器各自功能的基礎(chǔ)上,通過在人機(jī)在協(xié)作過程中建立一種嶄新的,同時也基于人和機(jī)器各自“趨向性”的目的來保證人機(jī)協(xié)作的順利開展。當(dāng)然,要徹底消除智能機(jī)器黑箱化的威脅,我們需要在考慮人機(jī)功能和目的之差異的基礎(chǔ)上推進(jìn)一種人機(jī)之間嵌入式的協(xié)作機(jī)制,此種機(jī)制有可能通過賦予機(jī)器一種“實踐智慧”來使其擺脫黑箱化的責(zé)難。

關(guān)鍵詞:人機(jī)協(xié)作;黑箱化;嵌入式人機(jī)協(xié)作系統(tǒng)

中圖分類號:TP249;TP182 文獻(xiàn)標(biāo)識碼:A 文章編號:1003-854X(2023)11-0065-07

在今天,人類的快樂與幸福,或者說,人類的命運和危機(jī),都已經(jīng)牢牢地與機(jī)器,尤其是人工智能機(jī)器的發(fā)展密切關(guān)聯(lián)在一起。而擁抱或者接受這一點的人迫切需要回應(yīng)的基本問題是,我們應(yīng)當(dāng)如何與機(jī)器進(jìn)行交互(互動),我們應(yīng)當(dāng)如何在機(jī)器進(jìn)入我們生活時,處理機(jī)器相對于人的“異質(zhì)性”?當(dāng)機(jī)器發(fā)展出越來越強(qiáng)大之“超人”能力時,我們?nèi)绾伪WC依然維持與其處于一種“協(xié)作”甚至“操作”關(guān)系而不被機(jī)器所吞噬,并因此避免我們的生活陷入不幸?甚至我們會十分擔(dān)心,人類所看重的價值是否會在機(jī)器能力的迅速發(fā)展過程中被抹除和顛覆?假如我們相信信息哲學(xué)家的判斷,“信息與通信技術(shù)正在極大地改變我們的世界,它們正在創(chuàng)造新的現(xiàn)實,并推動著對世界和生活的方方面面的信息化解讀?!€上的數(shù)字世界正在逐漸溢出到線下世界,并漸漸融入其中”(1),那么,建構(gòu)一種新型人機(jī)協(xié)作關(guān)系似乎迫在眉睫。

一、面對智能機(jī)器黑箱狀態(tài)的人機(jī)協(xié)作可能性分析

當(dāng)前,人機(jī)協(xié)作中一個重要且緊迫的困擾是,智能機(jī)器(2)相對于人來說往往處于黑箱狀態(tài)。(3) 問題在于,我們?nèi)绾文軌虬残牡厥褂靡粋€完全黑箱化的工具并且與之展開協(xié)作?不過,從技術(shù)發(fā)展歷史來看,我們其實并不曾停止使用黑箱式的工具或者所謂的準(zhǔn)黑箱式工具。一個工人不需要知道他所操作的機(jī)器究竟是如何運作的,他只需要知道如何操作機(jī)器,以及這樣的操作將會帶來什么樣的功效。一般來說,做到這些就意味著,他能夠利用工具進(jìn)行工作,或者說,工人與機(jī)器處于一種良好的“協(xié)作”關(guān)系之中——無論如何,工具已然有效地“服務(wù)于”工人的工作。此時,機(jī)器的黑箱化對于工人并沒有產(chǎn)生可見的威脅,可以說,工人依然“掌控”著機(jī)器。有人可能會指出,在工業(yè)革命時期,工人對于機(jī)器機(jī)制的不了解可能是導(dǎo)致工人在機(jī)器大生產(chǎn)中被機(jī)器所“異化”的一個原因。但實際情況是,資本的剝削力量才是給工人帶來危機(jī)的根源,工人和機(jī)器之間的緊張關(guān)系不是因為工人不夠“了解”機(jī)器,而是因為資本主義生產(chǎn)制度通過機(jī)器來對工人進(jìn)行殘酷的剝削壓榨。那么,是否這意味著資本家相對工人而言就有了一個更加清晰的對于機(jī)器的“了解”,或者說,機(jī)器對于工人是黑箱而對于資本家而言是透明的?情況顯然并非如此。資本家也不需要對于機(jī)器的“黑箱”狀態(tài)有一個完全明晰的領(lǐng)會:他們只需要把機(jī)器買回來,然后強(qiáng)迫工人使用機(jī)器進(jìn)行生產(chǎn)進(jìn)而剝削工人的剩余價值。資本家是機(jī)器的擁有者,但不是機(jī)器專家??梢?,在工業(yè)革命時期,完全清晰地理解機(jī)器既不是正常使用機(jī)器操作機(jī)器的前提,也不是擁有機(jī)器,利用機(jī)器進(jìn)行剝削的前提。

今天,人們普遍認(rèn)為,在機(jī)器變得更加智能化時,如果我們要讓機(jī)器全面,徹底地進(jìn)入我們的生活,甚至具有改變我們的生活,改變整個人類生活樣貌的可能,也即,讓一種智能機(jī)器更加密切地作用于我們的生活,我們就不得不警惕這種智能機(jī)器的“黑箱”狀態(tài)。當(dāng)然,智能機(jī)器和工業(yè)革命時的機(jī)器,其所謂的“黑箱”特質(zhì)是完全不同的。智能時代的一個特征是,機(jī)器的“黑箱”狀態(tài)和之前相比,對于人類(無論是機(jī)器的所有者還是機(jī)器的操作者)可能是一個更加純粹意義上的“黑箱”,也可能會是一個更加重大的威脅。智能機(jī)器這種更加純粹的“黑箱化”趨向來自于技術(shù)本身的高度專業(yè)化和復(fù)雜化。在工業(yè)革命時代,一個普通人或許可以通過自學(xué)掌握機(jī)械原理進(jìn)而對機(jī)器有一個大致的理解;但在智能化時代,即使是信息專業(yè)人士,可能也無法完全清晰地說明智能機(jī)器的工作原理,尤其是在進(jìn)入到深度學(xué)習(xí)和大數(shù)據(jù)時代之后。智能機(jī)器“黑箱化”相對于普通機(jī)器而言成為一個更加重大威脅的原因是,在今天的時代,不僅是人類的生產(chǎn)活動,而且人類的日常生活,都嚴(yán)重地依賴于此種智能機(jī)器的有效運作。這種深度依賴是不斷疊加的,即,人類對智能機(jī)器的依賴推動了智能機(jī)器越發(fā)地強(qiáng)化自身的地位,而這種強(qiáng)化又會進(jìn)一步增強(qiáng)人對智能機(jī)器的依賴。

那么,我們要如何應(yīng)對今天遍布于我們生活中的智能機(jī)器的黑箱化趨勢?一個自然的想法是提升智能機(jī)器的透明度,嘗試建立人機(jī)之間更為清晰明確的關(guān)聯(lián)方式,讓更多的人掌握智能機(jī)器的運行機(jī)制和底層邏輯。但筆者認(rèn)為這種意義上的透明度的實現(xiàn)是不可能的。理由是,在我們與智能機(jī)器的“交互”中,我們確實可以主張一種相對于機(jī)器操作者的“透明度”,因此,一些智能產(chǎn)品也會給用戶很詳細(xì)的說明書,上面可能羅列了機(jī)器的性能與詳細(xì)參數(shù)。但這是一種廣義上的透明度,因為正常情況下,我們很難告訴公眾智能機(jī)器的運作原理(大多數(shù)人對此并不感興趣)。畢竟,人機(jī)之間的所謂“接口”和“交互界面”從來都不是以獲得更大透明度為主要目標(biāo)。所有智能機(jī)器產(chǎn)品,其接口在設(shè)計時除了讓用戶更容易上手之外,更多的是以機(jī)器自身的目的和高效運行為考量的,絕非首先是為了讓使用者能夠更好地理解“機(jī)器”。

對人工智能機(jī)器的透明度的要求實際上等于說我們需要一種可解釋的人工智能(explainable AI),而這暗含的一個預(yù)設(shè)是,只要我們在今天這個時代能夠更好地“理解”人工智能系統(tǒng)的運作機(jī)制和決策過程,我們就會因為能對其行為進(jìn)行解釋和預(yù)測而提升對它的信心,進(jìn)而在一種現(xiàn)實的層面上更加信任人工智能機(jī)器并展開更緊密的協(xié)作。這里需要澄清的問題是,透明是否等于可解釋性?它是否可以破除機(jī)器尤其是智能機(jī)器的黑箱狀態(tài)?在我看來,透明是一種較為籠統(tǒng)的說法,我們對智能機(jī)器的透明要求對應(yīng)的是它所呈現(xiàn)的黑箱狀態(tài),也就是說,我們因著智能機(jī)器黑箱狀態(tài)給我們生活帶來的威脅而想當(dāng)然地認(rèn)為,要消除這種威脅需要機(jī)器實現(xiàn)某種意義上的“透明”;可解釋性確實部分地關(guān)聯(lián)于此種透明,例如,對于專業(yè)人士來說,程序的可解釋性意味著它的運行機(jī)制能夠被理解,因而在專業(yè)人士眼中會變得“透明”,但此種透明性依然不是公眾所理解和要求的應(yīng)對黑箱化威脅的透明。因此,我們只能說,智能機(jī)器的透明特性通過幫助專業(yè)人員理解機(jī)器、掌控機(jī)器,部分實現(xiàn)了公眾對于透明特性解除智能機(jī)器黑箱化狀態(tài)的希望。但在很多時候,可解釋性并不能真正做到“破除智能機(jī)器黑箱化”所追求的更高層次的目標(biāo),即實現(xiàn)一種更加健康、良善的人機(jī)協(xié)作。例如,即使我們知道存在著某種通過AI而暗中實施的不正義(例如算法歧視,算法偏見),我們也很難僅僅通過追求人工智能機(jī)器的可解釋性來解決這個問題。認(rèn)為一個可解釋的智能機(jī)器能夠變得更道德,這完全基于一種將道德或者說所謂正當(dāng)簡化為理性認(rèn)知能力的立場,認(rèn)為對象只要足夠理性,就不會做壞事;而機(jī)器只要足夠透明,足夠具有解釋力,就能夠避免做壞的事情。但實際情況是,理性的智能機(jī)器完全可以被濫用來做道德上不正當(dāng)?shù)氖虑槎贿`背自身的“可解釋性”。

針對智能機(jī)器的可解釋性對于破除黑箱狀態(tài),以及破除黑箱狀態(tài)給人機(jī)協(xié)作帶來的困擾并沒有太大的作用。有些研究者提出了另外一種應(yīng)對思路:為了讓人機(jī)協(xié)作更加高效并且讓智能機(jī)器在對人類的助益之中不會因著某種黑箱狀態(tài)給人帶來巨大的壓力與威脅感,更為直接意義上的“好的”人機(jī)協(xié)作模式要求機(jī)器尤其是智能機(jī)器具有更高的靈活度,使之可以配合人類的主觀目標(biāo),如此,我們只要保證人機(jī)協(xié)作中的“人”有著良善的目標(biāo),那么,靈活地與之協(xié)調(diào),并努力配合人實現(xiàn)目標(biāo)的智能機(jī)器似乎就可以在不追求透明狀態(tài)下起到“好的”作用。這里的靈活度指的是,人們希望機(jī)器能夠不斷地依據(jù)實際情形與協(xié)作對象的變化對自身做出調(diào)整。例如,在對人工智能道德體的設(shè)想中,學(xué)者們就認(rèn)為,“即使人工道德智能體未能進(jìn)到對所有關(guān)系都起疑的世界中,但在與其他人或計算系統(tǒng)互動的過程中,它們需要具備動態(tài)地調(diào)整或摸索著去提高信任程度的能力”。(4)盡管這樣一種判斷是對于可能的“人工道德智能體”的想象,但也說明,人機(jī)之間的互動協(xié)作在未來的一個方向可能就是智能機(jī)器更高靈活度的實現(xiàn)。這種靈活度依賴于機(jī)器高速發(fā)展的計算能力,因為計算能力的提升才有可能帶來實時動態(tài)的交互可能。然而,更靈活的交互似乎既不意味著機(jī)器在可解釋性上的提升,也不意味著一種良善人機(jī)協(xié)作模式的唾手可得。原因如下:

首先,智能機(jī)器的靈活度與黑箱狀態(tài)的破除沒有關(guān)聯(lián)。智能機(jī)器靈活度的提升往往被認(rèn)為意味著它會更趁手、更便捷,就像一輛剛剛升級了最新智能系統(tǒng)的無人駕駛汽車會標(biāo)榜自己“以更靈活的姿態(tài)滿足用戶的需求”。此時,從人工道德智能體的層面上說,“良好的行為依賴于對他人的意圖和需求保持敏感性。自主道德智能體將需要知道人們想要什么。在它們與人類的互動中,機(jī)器人需要清楚與其角色相關(guān)聯(lián)的社會習(xí)俗和期待”。(5)智能機(jī)器的靈活性大體與此類似。一種對于人類的“投其所好”當(dāng)然會提升我們與機(jī)器之間交互的便利性,進(jìn)而強(qiáng)化我們與機(jī)器的協(xié)作關(guān)系。但盡管在此種情況下,機(jī)器可能成為一個馴服的“奴隸”,但依然不見得是“透明清晰的”:它依然可能是一個“黑箱”,并不對“奴隸主”呈現(xiàn)完全的透明狀態(tài),但作為“奴隸”的智能機(jī)器會為了更好地服務(wù)“奴隸主”而提升交互性,提升自身的可利用度。同時,這個“奴隸”會不斷提升自身的“技能”,變得更加具有靈活度,更加能夠滿足“奴隸主”的需求。此時,這個靈活的“奴隸”,這個智能機(jī)器似乎更像是處于一種可“協(xié)作”的黑箱狀態(tài)中。

其次,智能機(jī)器更高的“靈活度”有時給予人的是一種“虛假的良善協(xié)作”的可能,即更靈活的智能機(jī)器看起來更聽話,實際上卻在人類的生活中孕育更大的風(fēng)險。我將這個風(fēng)險稱作黑格爾主奴辯證法在智能機(jī)器層面上的具體展開。大致上說,一開始是智能機(jī)器通過提升自身的“靈活度”以便更好地實現(xiàn)人機(jī)協(xié)作,但隨著智能機(jī)器變得越來越靈活,原先居于主導(dǎo)地位的協(xié)作者(人類)為了更高效地協(xié)作,為了適應(yīng)高速發(fā)展的計算能力,調(diào)整自身以適應(yīng)進(jìn)而認(rèn)同這種協(xié)作過程,從而讓自身變得更加靈活,并習(xí)慣于對照智能機(jī)器來調(diào)整自身的協(xié)作目的與協(xié)作方式。具體的發(fā)生進(jìn)程是,盡管機(jī)器的使用者(主人)是在操控(奴役)機(jī)器(奴隸),但是在機(jī)器不斷發(fā)展自身以更好地滿足使用者需求的過程中,它變得越發(fā)靈活,對于人來說可能也變得越發(fā)不可解釋,越發(fā)“黑箱化”了。而這一“黑箱化”的外在顯現(xiàn)卻可能是,機(jī)器越發(fā)能夠滿足使用者的要求了,而且這種滿足可能還是智能的。久而久之,使用者習(xí)慣了這種機(jī)器的巨大力量與對使用者需求的滿足,他們雖然可能也想要讓機(jī)器能夠更透明,更加具有可解釋性,但機(jī)器已經(jīng)充滿靈活性地將自身的性能與價值關(guān)聯(lián)于這種“黑箱結(jié)構(gòu)”,此時,使用者開始發(fā)現(xiàn),一個能夠進(jìn)行深度交互的靈活機(jī)器(一個聽話的能干的奴隸)可能正是一個不可解釋的機(jī)器(一個心思深沉的奴隸)。而這導(dǎo)致的一個可能結(jié)果是,為了維持這種交互關(guān)系,作為使用者的主人開始嘗試調(diào)整自身:一方面,使用者將去學(xué)習(xí)接受機(jī)器的黑箱化,甚至將不透明當(dāng)作機(jī)器的本質(zhì)屬性;另一方面,他反而選擇讓自身變得更加可解釋,更加透明,以此來實現(xiàn)機(jī)器與我們交互時的“高效靈活”,即為了更好地被服務(wù),人要打開自身。

二、機(jī)器黑箱化與人機(jī)協(xié)作中的目的及功能分配

那么,我們究竟有沒有在人機(jī)協(xié)作過程中應(yīng)對機(jī)器尤其是智能機(jī)器黑箱化的辦法呢?要實現(xiàn)這個目標(biāo),我們首先要搞清楚的一個問題是,當(dāng)人機(jī)交互要實現(xiàn)真正意義上的協(xié)作時,交互與協(xié)作的目的到底是什么?或者說,智能機(jī)器性能的不斷提升,智能機(jī)器界面的不斷改進(jìn),最終是為了什么?一般來說,人們會贊同如下看法:“在人機(jī)交互過程中,信息與通信技術(shù)通常被用于創(chuàng)造、便利與改進(jìn)人類使用者與計算機(jī)系統(tǒng)之間的交流。”(6)在一些學(xué)者看來,廣義上說,機(jī)器或者說機(jī)器背后的技術(shù),其本質(zhì)就在于實現(xiàn)各種各樣的屬人目的:“技術(shù)的本質(zhì)就是對自然的編程,它是一種對現(xiàn)象的捕捉,并駕馭這些現(xiàn)象為人類的目的服務(wù)。某個個體技術(shù)對許多現(xiàn)象進(jìn)行‘編程,并精心安排策劃這些現(xiàn)象,最后使它們能夠密切配合以完成特定的目的。”(7) 在這個過程中,無論是對人機(jī)之間交流的改進(jìn)還是對世界現(xiàn)象的“編程”,都不是技術(shù)、機(jī)器、智能機(jī)器本身的目的。

然而,一個進(jìn)一步的問題是,如果在不考慮人的目的的前提下,機(jī)器可能有自身的目的嗎——這個目的或許會要求機(jī)器處于黑箱之中?如果機(jī)器有自身的目的,這一目的是以一種什么方式區(qū)分于人的目的?以人工智能為例,倘若作為機(jī)器的人工智能有自身的目的,那么什么是具有此一目的的作為機(jī)器的人工智能“自身”?即,人工智能機(jī)器有沒有一種關(guān)于機(jī)器自身的概念,或者說,人工智能機(jī)器能否將自身認(rèn)同為一個“統(tǒng)一體”,這種對自身作為一個“統(tǒng)一體”的認(rèn)知又能否讓人工智能機(jī)器將自身作為目的?實際上,筆者認(rèn)為,如果目的僅僅是一個向著某種狀態(tài)的“趨向”,一個任務(wù)序列,那么機(jī)器可能相比于人會具有更強(qiáng)的“目的性”和“整體感”,因為在人工智能體這樣的存在中,機(jī)器的運行機(jī)制本身已然是為了某個特殊目的而展開的。從這個角度說,機(jī)器相比于人在“作為趨向的目的論”的意義上只會更強(qiáng)調(diào)目的。我們總是設(shè)想著,人因為某種同一性、某種整全性而更可能接近目的;但我們忘記了人類行動者很多時候是脆弱的和難以預(yù)測的,即使存在著某種意義上的同一性,也不能保證人的目的的始終一致。

這里我們就遇到了另一個重要的問題,我們能否要求機(jī)器完全以人的目的作為自身的目的,而在這個過程中,我們又能夠充分信任機(jī)器最終將會有助于而不是有害于人的目的?在智能機(jī)器出現(xiàn)之前,盡管人們也會擔(dān)心機(jī)器力量過于強(qiáng)大可能導(dǎo)致一些濫用,進(jìn)而帶來對于人類整體福祉的危害(例如核武器),但這其中涉及的核心問題還是人的目的本身的問題,或者說是不同的人群將自身不同的目的寄托在機(jī)器身上導(dǎo)致的沖突與危害,而不是機(jī)器自身的可能趨向目的性給人帶來的威脅。有關(guān)機(jī)器的危害的發(fā)生有時是因為利用這些機(jī)器的人錯誤地評估了自身的目的,或者出于邪惡的動機(jī)為自身設(shè)定了一個邪惡的目的,然后利用機(jī)器來實現(xiàn)它。然而在智能機(jī)器中,“如果給予多功能機(jī)器以信任,讓它們脫離其設(shè)計者或主人去運行,并設(shè)計程序,使之靈活地對真實或虛擬世界中的環(huán)境做出反應(yīng),那么我們就需要相信它們的行為會滿足適當(dāng)目的。這超越了傳統(tǒng)的產(chǎn)品安全問題?!绻粋€自主系統(tǒng)要使傷害最小化,它就必須‘知道其行為可能的有害后果,并且必須根據(jù)其‘知識去選擇行動,即使‘知道‘知識這些術(shù)語只是在隱喻意義上用于機(jī)器”。(8) 從瓦拉赫和艾倫的這個判斷可以得出如下推論:(1)智能機(jī)器在“脫離設(shè)計者去運行”時,其趨向可能會與人的目的發(fā)生偏差;(2)這種偏差不等于一般意義上的機(jī)器出現(xiàn)“產(chǎn)品安全問題”,這種偏差可能意味著機(jī)器目的可被獲得與凸顯并有了與人的目的的可能分離。那么,如果我們要完全確定智能機(jī)器會以人類的目的為自身的目的,會維持一種健康良善的人機(jī)協(xié)作模式,那么,我們必須讓其擁有某種所謂的關(guān)于人類目的的“知識”。而在某種深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的意義上,我們還希望機(jī)器能夠自己來獲得這種“知識”,并且承認(rèn)這種“知識”對于其自身的目的是有意義的。這就等于說,在出現(xiàn)了智能機(jī)器目的與人的目的的可能分離之后,我們要努力讓智能機(jī)器的目的重新契合于人的目的。而這意味著,人工智能機(jī)器需要兩種層次上的知識,一種是關(guān)于什么是人類目的的知識;另一種是關(guān)于如何實現(xiàn)人類目的的知識,或者說,需要一種關(guān)于“協(xié)作”的知識,這后一種知識(9)的獲得才是此種狀況中人機(jī)協(xié)作得以健康展開的保證,也是我們認(rèn)為黑箱化的機(jī)器可能無法向我們清晰允諾的——黑箱化的機(jī)器可能能夠保證自己是一臺功能強(qiáng)大的機(jī)器,但無法向我們保證它是一臺具有“實踐智慧”的,有助于人機(jī)協(xié)作和人類福祉實現(xiàn)的“好機(jī)器”。所以,現(xiàn)在的問題是,我們?nèi)绾巫屩悄軝C(jī)器獲得此種“實踐智慧”從而更好地為人機(jī)協(xié)作服務(wù)?

筆者的一個基本判斷是,在智能時代,智能機(jī)器的出現(xiàn)一方面可能因其有更復(fù)雜的不透明目的而對人的目的產(chǎn)生威脅,進(jìn)而破壞人機(jī)協(xié)作的健康展開;但另一方面,智能也為我們提供了一種給予機(jī)器以“實踐智慧”,使得它擁有在自身的運作過程中自發(fā)地將人類目的當(dāng)作自身之趨向性和目的的可能。借用弗洛里迪在《第四次革命》一書中對于技術(shù)層級的劃分,我們可以更好地理解智能機(jī)器如何在不喪失自身可能“趨向性目的”的前提下?lián)碛杏欣谌藱C(jī)協(xié)作、充分考量人的目的的“實踐智慧”。在弗洛里迪看來,信息與通信技術(shù)是一種被稱為“三級技術(shù)”的東西,這種技術(shù)的目的在于“將低效率的人類媒介從技術(shù)循環(huán)的回路中去除”(10) ,它是一種溝通人(作為使用者)與二級技術(shù)(例如,前智能時代的機(jī)器)的橋梁。以智能家居為例,如果家中有一臺掃地機(jī)器人,那么它是一種二級技術(shù);如果以智能的方式將掃地機(jī)器人并入“智能家居”系統(tǒng),使之成為“物聯(lián)網(wǎng)”構(gòu)造中的一部分,那這種智能化就是一種三級技術(shù)。我們很難想象在“二級技術(shù)”的層面上實現(xiàn)人類目的的置入,即,我們很難認(rèn)為一臺掃地機(jī)器人會將“人的目的”作為自身的目的,但我們可以將人的目的置入到“三級技術(shù)”中。實際上,廠商們往往宣稱,整個“三級技術(shù)”構(gòu)架的初衷就是以實現(xiàn)人的目的(比如家居的智能化)為目的的。智能機(jī)器的“實踐智慧”可能就體現(xiàn)在此種“三級技術(shù)”之中。

除了目的,要應(yīng)對智能機(jī)器可能的黑箱化威脅,實現(xiàn)基于人類目的的機(jī)器與人的良好協(xié)作,另一個關(guān)鍵點是,我們需要廓清機(jī)器與人之間的功能分配。功能本就關(guān)聯(lián)于目的,不切實際地想要實現(xiàn)超出自身功能的目的會帶來大麻煩。在今天,機(jī)器,尤其是智能機(jī)器的黑箱化趨向往往伴隨著人機(jī)協(xié)作之中人與機(jī)器各自功用上的混淆與隨之而來的目的錯亂。所以,對于人機(jī)協(xié)作而言,為了實現(xiàn)良好的協(xié)作以達(dá)到“共同”的目的,人和機(jī)器各自需要干些什么必須得到澄清。當(dāng)然,這種立場預(yù)設(shè)了一個重要的前提是,人類的思維模式和機(jī)器的思維模式(或者說機(jī)器的運行機(jī)制)在很大意義上是不同的。人們通常認(rèn)為,人類的思維模式是一種發(fā)散思維,往往具有更多的創(chuàng)造力;而機(jī)器的運行機(jī)制基于一種分析思維,具有更強(qiáng)的邏輯推理能力。無論此種觀點是否成立,必須要承認(rèn)的是,在大多數(shù)人(包括機(jī)器的制造者和人工智能的訓(xùn)練者)看來,機(jī)器和人類在思維模式上是有差異的,因而二者在功能上也應(yīng)當(dāng)是有差異的。

問題是,人機(jī)之間在協(xié)作時應(yīng)當(dāng)如何依照各自的功能進(jìn)行任務(wù)分配才是合理的,且有助于人機(jī)協(xié)作之目標(biāo)的實現(xiàn)?過去的想法是,基于人機(jī)之間功能上的差異,機(jī)器將在協(xié)作中完成那些較為低級的任務(wù),那些不需要創(chuàng)造力的任務(wù),而人類則需要扮演統(tǒng)籌的角色,扮演最后的仲裁者和監(jiān)督者的角色,同時主導(dǎo)創(chuàng)造性工作。這一點在無人駕駛汽車中體現(xiàn)得尤為明顯。當(dāng)前的無人駕駛汽車技術(shù)已經(jīng)進(jìn)入到一個極其成熟的階段,但由于倫理責(zé)任上的劃分問題,無論是公共輿論還是汽車廠商抑或是消費者,都無法接受無人駕駛汽車的智能系統(tǒng)作為最終“裁定者”的角色。人們更為認(rèn)同的是,無人駕駛汽車要為人類司機(jī)留下最終的“裁定權(quán)”,即,最后需要由人類司機(jī)來對某些極端狀況進(jìn)行評估,做出裁定。這意味著,盡管智能機(jī)器的能力在不斷提升,人們依然認(rèn)為,人才是協(xié)作中最后做決定的一方。但一個機(jī)器進(jìn)步論的支持者可能會提出如下的問題:假如我們已經(jīng)承認(rèn),深度學(xué)習(xí)培養(yǎng)出來的圍棋選手可以在圍棋的計量上勝過人類(給出更優(yōu)解),那么,深度學(xué)習(xí)培養(yǎng)出來的汽車駕駛系統(tǒng)為何無法在駕駛策略上勝過人類呢?對此,一種可能的回應(yīng)是,能力上的“勝過”并不代表一種決策的必然正當(dāng)性,人類的實踐領(lǐng)域會受到多種要素的影響(比如各種復(fù)雜的價值觀念),圍棋策略并不能囊括人類實踐領(lǐng)域的多樣性。筆者的看法是,這樣的一種反駁即使成立,也無法證明任何東西。因為,倘若我們承認(rèn)任何能力上的提升都無法帶來更好的決策機(jī)制,達(dá)到更好的決策后果,那么,我們無異于是在說,在人類的生活領(lǐng)域,并沒有一個更優(yōu)解可以給出:無論機(jī)器還是人,無論是更聰明的機(jī)器還是更聰明的人,都無法做到這一點。

三、嵌入?yún)f(xié)作:一種面向整體任務(wù)的人機(jī)系統(tǒng)與機(jī)器黑箱化的解決可能

如果我們要開創(chuàng)一種人機(jī)協(xié)作的新局面,即一種機(jī)器通過真正具有某種人類認(rèn)可的實踐智慧,并且在人類面前消除黑箱化的可能威脅,以更大的比重參與到人類目的的實現(xiàn)中,我們需要重新思考協(xié)作的方式與條件。人機(jī)協(xié)作本質(zhì)上說,是要組成一個嶄新的“實體”,或者叫組合體,為人機(jī)之間建立一種類似于人與人的關(guān)系,并且人類一方能夠保證機(jī)器在協(xié)作過程中不會有不利于人類的目的、功能、決策、行動(而機(jī)器尤其是智能機(jī)器的黑箱化往往無法向人類保證這一點)。在這其中,協(xié)作的基本要素包括:(1)總體目標(biāo)的設(shè)定;(2)協(xié)作雙方的互動,且這個互動乃是以總體目標(biāo)為指向的,或者說,是為了幫助對方更好地實現(xiàn)目標(biāo);(3)不同的參與者之間構(gòu)成一個平等或者正常的關(guān)系,使協(xié)作得以有效延續(xù)。

然而,人們可能會質(zhì)疑的是,機(jī)器會進(jìn)行“協(xié)作”嗎?協(xié)作首先是作為一種人類之能力被規(guī)定的。在德目表中,善于協(xié)作、具有德性精神被認(rèn)為是一種好的品格,這意味著,如果我們想要讓機(jī)器與我們協(xié)作,我們需要假設(shè)兩點:(1)機(jī)器能夠具有一種“德性”;(2)機(jī)器能夠具有“協(xié)作”這樣一種“德性”。問題是,機(jī)器不一定能夠通過第一重測試,即它不一定具有我們所謂的“德性”。瓦拉赫與艾倫在《道德機(jī)器》中就明確指出,“人們對他人‘做正確的事的信任,源自于共享的道德情感基礎(chǔ)。對于人工道德智能體的設(shè)計者來說,難就難在如何給一個‘冷冰冰的、無情的機(jī)器去設(shè)置這樣的穩(wěn)定性”。(11) 換句話說,機(jī)器要獲得德性,需要具備某種情感;而當(dāng)前機(jī)器的“無情感性”又被當(dāng)作某種意義的“德性”(好的特征),這顯然是自相矛盾的:要么否定情感作為德性基礎(chǔ)的設(shè)定,要么否定機(jī)器需要一種德性,或者,直接認(rèn)為機(jī)器的“德性”不同于人類的“德性”,而且,這不同性質(zhì)的“德性”之間,還是可以互相協(xié)作的。如果我們認(rèn)同這種協(xié)作,就意味著我們已經(jīng)放棄了讓機(jī)器通過進(jìn)化的方式獲得與我們“類似”之品格的可能。對此一個可能的解釋是,我們希望在當(dāng)下能夠快速獲得“協(xié)作”的效用,而不是要實現(xiàn)對智能機(jī)器某種“品格”與“德性”的養(yǎng)成:那太花時間了,太不確定了。因此,機(jī)器具有善于協(xié)作的“德性”目前來看很難被證明。

其次,人機(jī)之間的協(xié)作是否必定預(yù)設(shè)機(jī)器作為一個“行動者”的可能?筆者認(rèn)為,這也并不是人機(jī)協(xié)作的必要條件。相反,機(jī)器的“行動者”預(yù)設(shè)往往伴隨著對此一行動者黑箱狀態(tài)的默認(rèn)。因為,機(jī)器的“行動者預(yù)設(shè)”所指向的人機(jī)協(xié)作關(guān)系對照的是人與人的協(xié)作關(guān)系,而一個人類合作者對于另一個人類合作者來說有極大的可能是一個“黑箱”。此外,如我們在本文第二部分所指出的,人與機(jī)器之間在目的與功能上的差異也使我們在試圖將機(jī)器預(yù)設(shè)為“另一個行動者”時困難重重。所以筆者的看法是,人機(jī)協(xié)作是可行的:這種可行性并不意味著我們需要將機(jī)器理解為一個對等的行動者,一個有著明確目的論趨向的情感性存在,或者一個可能具身化以呈現(xiàn)自身作為一個統(tǒng)一體的存在。

因此,我們需要構(gòu)思一種新型的人機(jī)協(xié)作模式,筆者將這種新型的協(xié)作模式稱為“嵌入式”的人機(jī)協(xié)作。它有如下幾個特征:第一,嵌入式的人機(jī)協(xié)作不需要為機(jī)器在協(xié)作過程中是否具有明確的目的而擔(dān)心。因為嵌入本就預(yù)設(shè)了人類具有一個關(guān)于自身的明確目的,機(jī)器只是憑著自身的獨特功能而嵌入到人類實現(xiàn)自身目的的進(jìn)程中來的,此時,我們不用擔(dān)心機(jī)器會因著自身的目的而呈現(xiàn)出對人有威脅的“黑箱化”趨向。第二,嵌入式的人機(jī)協(xié)作能夠解釋并辯護(hù)今天機(jī)器對于人的深層次介入,其理由是,嵌入式的人機(jī)協(xié)作意味著今天的智能機(jī)器并不會在協(xié)作過程中成為人自身的“主宰者”與控制者,人并不會在人機(jī)協(xié)作過程中喪失自主性。第三,嵌入式的人機(jī)協(xié)作為人機(jī)之間的深度融合提供了一個空間。我們需要明確的是,嵌入式的人機(jī)協(xié)作并不意味著人消失在機(jī)器中(此時人面對機(jī)器的黑箱化與不可解釋性無所適從),也不意味著機(jī)器消失在人中(此時機(jī)器很難基于自身的獨特功能而真正在人機(jī)協(xié)作中發(fā)揮創(chuàng)造性的作用),它是在承認(rèn)機(jī)器與人在功能與目的有所差異的前提下,通過一種融貫性的整合,重新構(gòu)造出一種以人機(jī)有效協(xié)作為目標(biāo)的整體,機(jī)器的不可解釋性甚至黑箱化趨向會在此種嶄新的協(xié)作整體中變得不再具有威脅。此時,機(jī)器尤其是智能機(jī)器就像我們自身的器官一樣。我們想象一下,我們的手臂的運作機(jī)制可能對于人來說也是一個“黑箱”,但由于我們的手臂深度地嵌入到我們作為人的整體結(jié)構(gòu)中,因此,我們并不會因為搞不清楚我們自身手臂的運作機(jī)制而如臨深淵、惶惶不安。

一個嵌入式人機(jī)協(xié)作的范例是Iyad Rahwan提出的SITL模型(Society-in-the-loop)。按照Rahwan的解釋,這種模型會產(chǎn)生“一個可被解釋的系統(tǒng),它能更好地融入嶄新的算法社會契約,與人類共生存,而不必成為敵對的關(guān)系”。(12) 換句話說,這種嵌入模型是將社會契約作為一種“黏合劑”加入到人機(jī)的協(xié)作當(dāng)中去。我們先不討論這一黏合劑是否有效,首先必須承認(rèn)的一點是,對于一個異質(zhì)性的各個要素進(jìn)入其中的協(xié)作系統(tǒng)來說,要實現(xiàn)一個良序的運轉(zhuǎn),我們確實需要一種優(yōu)秀的“黏合劑”。而基于SITL模型的人機(jī)協(xié)作模式,將會要求把社會整體的價值觀嵌入到某種智能機(jī)器中,嵌入到某種協(xié)助社會治理的算法之中。這種嵌入導(dǎo)致的一個結(jié)果是,我們能夠在價值觀的意義上對智能機(jī)器產(chǎn)生一種認(rèn)同,而這種認(rèn)同的建立類似于人體以及人體中的某個器官對于另一個器官的認(rèn)同,從而黑箱化和可能的不透明在嵌入式黏合中不再具有威脅。

一般認(rèn)為,SITL是一種對于HITL(human in the loop)的替代。按照HITL方案的基本方針,在設(shè)計出某個人機(jī)協(xié)作的模型時,我們需要“讓不同的利益相關(guān)者參與設(shè)計自動學(xué)習(xí)系統(tǒng)或者機(jī)器學(xué)習(xí)系統(tǒng)”,從而共同建構(gòu)一個協(xié)作方案。在HITL方案中,人作為操作者在人機(jī)協(xié)作的建構(gòu)中扮演著決定性的角色,他們負(fù)責(zé)控制機(jī)器、監(jiān)督機(jī)器,同時,他們也承擔(dān)優(yōu)化程序和維持人機(jī)協(xié)作整體的工作。這實際上是一種較為陳舊的人機(jī)協(xié)作模式。在HITL系統(tǒng)中,人的作用更大,人承擔(dān)的責(zé)任也更多,他們往往就是那個負(fù)責(zé)任的實體存在。然而,隨著技術(shù)的進(jìn)步,當(dāng)機(jī)器和智能機(jī)器開始呈現(xiàn)出人所不能夠清晰領(lǐng)會的諸多特征時,HITL模型的這種運作模式將讓人感到越發(fā)乏力,進(jìn)而陷入一種面對機(jī)器黑箱化的掌控力消失體驗。根本上來說,我們必須要承認(rèn),人作為操作者,其實很難再僅僅憑借自身的力量黏合自身與人工智能機(jī)器之間的關(guān)系。這類似于如下的狀況,我們想為我們自身安裝一只機(jī)械手臂,我們的大腦要求完全清晰地理解這條機(jī)械手臂的運作原理,讓這條機(jī)械手臂能夠符合HITL原則,否則,大腦將認(rèn)為這條機(jī)械手臂處于黑箱狀態(tài)而不可認(rèn)知,進(jìn)而排斥機(jī)械手臂與身體的有效協(xié)作。而按照SITL模型,重要的不是讓大腦控制機(jī)械手臂或者理解接受手臂,重要的是將自身的運作機(jī)制,比如,大腦控制身體其他器官的機(jī)制與原理嵌入到這條機(jī)械手臂中,使得大腦能夠在發(fā)現(xiàn)機(jī)械手臂已然被嵌入人體工作機(jī)制的前提下,自主地掌控這條機(jī)械手臂。此時,就算大腦完全不理解此條機(jī)械手臂的運作原理,它可能依然不會將其判定為“異物”。

具體來說,SITL實際上回答了如下一個問題,如果我們需要在人機(jī)關(guān)系中進(jìn)行價值與觀念嵌入,那我們需要嵌入到哪里,或者說,這個嵌入最后會得到一個什么東西。SITL的意義在于,通過社會契約(價值)的嵌入,人類的責(zé)任擔(dān)當(dāng)不是消失了,某種程度上反而是加強(qiáng)了,人不用再擔(dān)心自身被機(jī)器左右,被機(jī)器吞噬;同時機(jī)器會被要求以此種社會契約(價值)為自身的導(dǎo)向,因而機(jī)器也不會再是一種對于人類責(zé)任的瓦解,機(jī)器的黑箱狀態(tài)不再構(gòu)成人機(jī)協(xié)作的巨大威脅,畢竟,盡管我們確實應(yīng)當(dāng)更加努力追求黑箱的澄明與透徹,但這是一個較為漫長的過程,我們完全可以在實現(xiàn)人機(jī)協(xié)作有效運作的前提下來追求澄明與透徹,并且只有在此時,智能機(jī)器的澄明與透徹對于人來說才是有意義的。

此外,SITL的嵌入模式還能夠解釋我們與機(jī)器之間的責(zé)任關(guān)系,能夠?qū)C(jī)器作為責(zé)任體納入到責(zé)任考量中來。實際上,當(dāng)我們說在人機(jī)協(xié)作過程中,人和機(jī)器承擔(dān)著某種“共同責(zé)任”時,這種共同責(zé)任其實是一個放大了的責(zé)任體,是一個以人作為行動者和責(zé)任承擔(dān)者的責(zé)任結(jié)構(gòu),機(jī)器在其中往往被忽視,或是被理解為制造者的投射。例如,在自動駕駛技術(shù)中,共同責(zé)任中的機(jī)器部分指向的就是軟件設(shè)計者、汽車生產(chǎn)者的責(zé)任。但在SITL的嵌入模式下,我們可以更認(rèn)真地考慮機(jī)器尤其是智能機(jī)器的“責(zé)任”。人機(jī)協(xié)作中的機(jī)器可以被轉(zhuǎn)化為一種具有了設(shè)計者“實踐智慧”的機(jī)器,而它的不透明性與黑箱特質(zhì)在此狀況中不會對合作者構(gòu)成威脅,原因在于,共同責(zé)任的存在暗示了人與智能機(jī)器(都有“責(zé)任”)雙方都被嵌入了某種社會契約(價值)的維度,他們可以在此一維度的基礎(chǔ)上融合成為一個嶄新的“整體”。

注釋:

(1)(6)(10) [意]盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,浙江人民出版社2016年版,第49、12、37頁。

(2) 我在這個地方所說的“智能機(jī)器”除了指那些與AI(人工智能)算法相關(guān)的技術(shù),比如某種推薦算法、某個基于算法的服務(wù)平臺之外,還包括那些在其運作模式中加入了人工智能技術(shù)的機(jī)器,比如無人駕駛汽車等。

(3) 我所謂的黑箱狀態(tài)是指,當(dāng)智能機(jī)器介入我們的現(xiàn)實生活,它在作出決策建議或者進(jìn)行價值判斷時,并不會告知人類參與者它如此做的詳細(xì)理由,或者,它所給出的理由(比如“基于算法”的緣故)是人類參與者所無法清晰理解的。此時,對于人類參與者來說,機(jī)器就是在一個“黑箱狀態(tài)”中作出決策建議和進(jìn)行價值判斷的。Propublica網(wǎng)站的一篇調(diào)查報告“機(jī)器偏見”,曾聚焦一個名為Compas的AI系統(tǒng),此系統(tǒng)基于已有的犯罪記錄,嘗試預(yù)測被告再次被逮捕的概率。結(jié)果是,黑人被告得到更高分?jǐn)?shù)的概率比白人被告多45%。然而,人們試圖對此種結(jié)果進(jìn)行解釋時,發(fā)現(xiàn)這個AI系統(tǒng)得出此種略帶偏見的結(jié)論并沒有一個合適的理由,也就是說,AI系統(tǒng)只會告訴探究者,依據(jù)算法得出的結(jié)論就是黑人被告再次被逮捕的概率更高,至于為什么如此,并沒有(對于機(jī)器來說也不需要)一個進(jìn)一步的解釋。

(4)(5)(8)(11) [美]溫德爾·瓦拉赫、 [美]科林·艾倫:《道德機(jī)器——如何讓機(jī)器人明辨是非》,王小紅譯,北京大學(xué)出版社2017年版,第99、142、12—13、106頁。

(7) [美]布萊恩·阿瑟:《技術(shù)的本質(zhì)》,曹東溟、王健譯,浙江人民出版社2014年版,第227頁。

(9) 我們或者可以將其稱為智能機(jī)器的“實踐智慧”,即智能機(jī)器所掌握的如何讓自己所具有的功能與目的契合于人類目的的智慧。

(12) Iyad Rahwa, Society-in-the-Loop: Programming the Algorithmic Social Contract, Ethics and Information Technology, 2018, 20(5), pp.5-14.

作者簡介:林建武,南開大學(xué)哲學(xué)院副教授,天津,300071。

(責(zé)任編輯 胡 靜)

江津市| 弋阳县| 隆子县| 朝阳区| 淮南市| 新和县| 汝州市| 文水县| 丁青县| 宁德市| 花莲县| 西平县| 阳城县| 长沙县| 泰安市| 十堰市| 揭西县| 西安市| 深水埗区| 阿荣旗| 阿鲁科尔沁旗| 临清市| 静安区| 德兴市| 孝感市| 遵义市| 从化市| 涟水县| 喀什市| 黄梅县| 台州市| 家居| 济宁市| 当涂县| 密云县| 衡东县| 栾城县| 垦利县| 洪雅县| 澄城县| 策勒县|