摘要:強人工智能(以下簡稱強AI:Strong Artificial Intelligence)由美國哲學家約翰·塞爾上世紀70年代在其論文《心靈、大腦與程序》中提出,主要是指對人工智能(以下簡稱AI)持有的這樣一種哲學立場:基于心智的計算模型,以通用數(shù)字計算機為載體的AI程序可以象人類一樣認知和思考,達到或者超過人類智能水平。這種立場與弱人工智能(以下簡稱弱AI:Weak AI)或應(yīng)用人工智能相對立,后者認為AI只是幫助人類完成某些任務(wù)的工具或助理。隨著最近20年來互聯(lián)網(wǎng)、神經(jīng)科學、基因工程等技術(shù)的飛速發(fā)展,強AI從塞爾時代的一種哲學立場逐步向工程實踐轉(zhuǎn)變和演進,未來學家甚至設(shè)想和描述了強AI的更極端版本:超級智能,這些在IBM、谷歌、Facebook、微軟等產(chǎn)業(yè)巨頭和庫茲韋爾、馬克拉姆等樂觀的技術(shù)實踐者的雙重推動下,藉由大眾科學傳播的放大作用,滲透到人們的日常生活中構(gòu)成了對其技術(shù)合理性的辯護,但AI本身對人類主體和社會的影響不是價值中立的,它一方面難以吸收和提升人類的創(chuàng)新本質(zhì),另一方面其技術(shù)合理性帶來的后果與其初衷有時相互背離,并在商業(yè)行為的推動下,構(gòu)成對作為文化產(chǎn)物和自我解釋的理性人類的單向壓制和挑戰(zhàn)。
關(guān)鍵詞:強人工智能;人工通用智能;超級智能;技術(shù)合理性;批判
中圖文獻號:TP18 文獻編碼:A DOI:10.3969/j.issn.1003-8256.2016.05.004
1 早期AI及其愿景
一般認為1956年由美國達特茅斯學院青年數(shù)學家約翰·麥卡錫(John McCarthy)為主發(fā)起的達特茅斯會議標志著AI的正式誕生[1]49,但在這之前的1947年,計算機科學的主要奠基者、英國應(yīng)用數(shù)學家圖靈在倫敦發(fā)表的一次公開演講已提及AI,1948年他的一份名為《智能機器》的未出版報告被視為“AI的第一份宣言”[2]432,1950年提出了判斷機器是否具備人類智能的圖靈測試[3]56-91。幾乎同時控制論學者也提出了類似設(shè)想并付諸實踐:1948年控制論的主要創(chuàng)始人維納在其名著《控制論》中指出計算機和大腦都是邏輯機器[4]97,并預(yù)見了計算機對社會為善和作惡的雙重性[4]21-22。幾乎同時,英國控制論學者和神經(jīng)生理學家格雷·沃爾特(Grey Walter)制作了可感知環(huán)境和避開障礙的電子龜[5]225,從1951年開始,英國和美國都開發(fā)了一些在早期計算機上執(zhí)行包括弈棋在內(nèi)的簡單程序,尤其亞瑟·塞繆爾(Arthur Samuel )的跳棋程序后來很有影響[2]436??傊?,隨著控制論的傳播和通用數(shù)字計算機的發(fā)明,1956年之前對計算機可在社會中代替人類完成某些智能任務(wù)的愿景已經(jīng)得到廣泛討論并有了不少共識,維納、馮·諾依曼、圖靈、信息論的創(chuàng)始人香農(nóng)等都參與其中[4]11-22。
在達特茅斯會議前后,現(xiàn)代意義上的計算機程序設(shè)計尚未成為專業(yè),IBM在1957年才開發(fā)了第一種廣泛應(yīng)用的程序設(shè)計語言FORTRAN,“Programming(編程)”這個術(shù)語遲至20世紀60年代中期后才開始廣泛使用[6]。因此早期AI時代對于AI、計算機程序基本不做區(qū)分,例如麥卡錫本人在晚年始終認為AI主要就是智能的計算機程序[7],這樣在編史學上就重復(fù)了一種輝格式的進步觀點,即把計算機編程實現(xiàn)智能任務(wù)作為AI的起點,這樣把達特茅斯會議作為AI的起點有著十分充足的理由:
(1)第一次明確提出了人工智能(Artificial Intelligence)的命名;
(2)明確提出了AI的愿景:“……研究旨在這樣的猜想基礎(chǔ)上進行:智能的學習或其他任何特征的所有方面原則上可被精確描述,以致可被機器模擬。將試圖發(fā)現(xiàn)如何使機器使用語言、形成抽象和概念、求解目前專由人類智能解決的各種問題并予以改進……”[8],這個任務(wù)比圖靈、維納等人的設(shè)想更為具體;
(3)第一次驗證了用計算機完成人類級別智能解決抽象任務(wù)的能力:即邏輯理論家(Logical Theorist)程序?qū)ΜF(xiàn)代著名數(shù)理邏輯學者羅素和懷特海合著的《數(shù)學原理》中命題邏輯部分的若干定理進行了證明[9]109-133;
(4)之后20年內(nèi)主要的AI進展均由會議主要參會人員及其學生完成,從而形成了早期AI科學家共同體的核心[1]49。
從二戰(zhàn)前后AI的孕育,一直到達特茅斯會議之后的10余年時間里,總體上來看對AI的技術(shù)研究和應(yīng)用前景持有一種樂觀、正面的情緒,例如維納不僅把人類在理論上設(shè)想為控制論意義上的自動機器[10]43,而且形而上學地把人類這樣的有機體視為一種形式的消息:“……軀體的個體性與其說是一種石頭性質(zhì)的個體性,不如說是一種火焰性質(zhì)的個體性;是形式的個體性,而不是帶著實體的個體性。這種形式可以傳送,可以改變……”[10]80,這也啟示可以通過對消息符號的處理來實現(xiàn)人類軀體及其智能。
這些觀點中被引用最多的無疑是1975年圖靈獎得主赫爾伯特·西蒙和艾倫·紐厄爾在1956年發(fā)表于《運籌學研究》中的一篇文章,在該文中他們做出了10年內(nèi)AI成就的預(yù)言:數(shù)字計算機成為世界象棋冠軍、發(fā)現(xiàn)和證明重要的新數(shù)學定理、定量和形式化地描述大多數(shù)心理學理論[11]90。
2 AI冬天、弱AI與強AI、應(yīng)用AI
在達特茅斯會議10年之后, 由于AI方面的實際技術(shù)進展與當初所描繪的愿景相差甚遠,受到了內(nèi)部和外部的嚴厲批評,首先是美國哲學家休伯特·德雷福斯受當時主要的AI研究機構(gòu)蘭德公司邀請為AI提供哲學方面的建議,但其結(jié)論卻是通過其1965年底出版的報告《煉金術(shù)與人工智能》,對AI給出了相當尖銳的否定性結(jié)論[12],幾乎同時,1966年由美國國防部、國家科學基金會、中央情報局主導(dǎo),委托ALPAC(Automatic Language Processing Advisory Committee:自動語言處理顧問委員會)對機器翻譯進展進行調(diào)查后發(fā)布的報告:《語言與機器:翻譯和語言學中的計算機》,給出機器自動翻譯過于昂貴且短期內(nèi)難以達到人類翻譯水平的結(jié)論[12]。1973年英國科學研究理事會委托劍橋大學物理學家James LightHill爵士提交了一份關(guān)于英國AI研究狀況的獨立報告,該報告建議放棄對機器人和語言處理的資助,并取消了對愛丁堡、蘇塞克斯、埃塞克斯三所大學之外的其他英國大學AI研究的支持[12]。在60年代末70年代初,美國國防部高級研究計劃局(DARPA)也先后暫?;虼蠓葴p少了對AI的資助,而該機構(gòu)從達特茅斯會議以來一直是AI最主要的推動者[12]。這樣在大西洋兩岸的AI研究,從70年代初開始進入低谷,即所謂的AI冬天[1]203。
在這段AI的冬天期里,包括德雷福斯在內(nèi)的不少哲學家從外部對AI的長期愿景和現(xiàn)實目標進行了深入思考,其中美國心靈哲學家約翰·塞爾所提出的強AI和弱AI的觀點有較大影響,前者對應(yīng)AI長期愿景,即恰當編程的計算機與人類心靈等價,而后者只是從事認知科學或心靈研究中的輔助工具[13]417-424,顯然強AI是早期人工智能樂觀預(yù)測的功能主義表達[14]20。
新西蘭哲學家、坎特伯雷大學教授杰克·科普蘭德則提出了強AI、認知模擬(Cognitive Simulation)、應(yīng)用AI(Applied AI)的分類,其中認知模擬相當于塞爾的弱AI,但應(yīng)用AI則主要是指各種可以商用化的智能系統(tǒng),例如人臉識別系統(tǒng)等,這也是目前AI研究的主流[15]。
3 AI冬天后的人工通用智能與人類級別智能
20世紀80年代初知識庫和專家系統(tǒng)的興起、聯(lián)結(jié)主義綱領(lǐng)的復(fù)興、日本開發(fā)第五代計算機等事件,標志著AI的第一次冬天結(jié)束,風險投資涌入知識庫和專家系統(tǒng)的開發(fā)和商業(yè)化,大中型企業(yè)部署專家系統(tǒng)提升管理效率,AI產(chǎn)業(yè)呈現(xiàn)出繁榮景象,但這種繁榮沒有持續(xù)多久,很快就隨著用于專家系統(tǒng)的LISP商用機產(chǎn)業(yè)的崩盤就結(jié)束,迎來了AI歷史上的第二次冬天[1]52,這場冬天一直持續(xù)到90年代初,隨著互聯(lián)網(wǎng)的興起才慢慢回暖。
在AI短短數(shù)十年歷史中由于過高的技術(shù)預(yù)測與實際成果的差距,以及由于科研經(jīng)費、商業(yè)投資的大幅度波動, 以及來自德雷福斯、塞爾等知名哲學家的各種批評,使得80年代以來AI科學家共同體的主要成員,認識到了AI的愿景在短期之內(nèi)實現(xiàn)的巨大困難, 從而采取了比早期AI的樂觀情緒更加謹慎和理性的態(tài)度。
例如著名AI科學家馬文·眀斯基(1969年圖靈獎獲得者,達特茅斯會議主要參與者)在論及人類是否能建造智能機器的問題時表示“……我們還需很長時間才能學會足以使機器象人一樣聰明的常識推理……但目前可以確定的是:那種對于任何聲稱今天就掌握了人類和可能的機器之間差別的主張是有問題的——因為我們當前對人類或者可能的機器的了解完全不夠?!盵16]
達特茅斯會議發(fā)起人約翰·麥卡錫(1971年圖靈獎獲得者)在2007年指出:“人類級別的AI將會實現(xiàn),但幾乎肯定需要新的思想,因此不能可靠地預(yù)測其具體時間——可能5年,也可能500年。我傾向于打賭在21世紀實現(xiàn)?!盵17]
但是AI共同體中多年來始終有少部分學者或工程師在追求早期AI提出的宏偉目標,為了與主流的弱AI或者應(yīng)用AI相區(qū)別,他們用了一個新名字:人工通用智能(Artificial General Intelligence),并指出:“……盡管這是AI的初始目標,但AI研究的主流業(yè)已轉(zhuǎn)向依賴具體領(lǐng)域和求解具體問題的方案,因此有必要用一個新名字來指出研究仍然追求‘宏大的AI之夢,這類研究的類似標簽包括‘強AI、‘人類級別智能(Human-level AI)等?!盵18]他們在主流AI學術(shù)共同體(例如美國人工智能學會、美國計算機學會、電氣與電子工程師學會)等之外,成立了非盈利組織AGI學會(AGI Society),自2008年以來組織了8屆年會,開設(shè)AGI暑期學院,出版AGI雜志和書籍,積極宣傳和推動AGI的研究和AGI系統(tǒng)的設(shè)計[19]。
除AGI學會這樣的非主流團隊之外,在國外還有若干非傳統(tǒng)機構(gòu)積極推動強AI的觀念傳播和商業(yè)行動,其中比較知名的有:奇點大學(Singularity University)、機器智能研究院(MIRI: Machine Intelligence Research Institute)、Numenta公司、艾倫人工智能學院,這些機構(gòu)的共同目標是在未來較短時間內(nèi)實現(xiàn)人類級別的通用智能,從而和目前AI研究的主流區(qū)別開來。例如MIRI定位于研究智能行為的數(shù)學基礎(chǔ),其使命是開發(fā)通用AI系統(tǒng)的分析和設(shè)計的形式化工具[20]。Numenta的基本目標和MIRI一致,但其研究路徑卻是基于腦科學的成果[21]。
庫茲韋爾和杰夫·霍金斯對于強AI的研究進路與傳統(tǒng)AI強調(diào)的知識/邏輯、聯(lián)結(jié)主義等都有所不同,他們具有類似的腦神經(jīng)科學理論來源,即主要基于人類大腦的新皮質(zhì)(區(qū)別于其他哺乳動物)及其強大的模式識別能力來提出各自不同的技術(shù)實現(xiàn)方案,例如霍金斯認為大腦是模式機器,智能的本質(zhì)是記憶和預(yù)測。而庫茲韋爾采用最近瑞士神經(jīng)科學家亨利·馬克拉姆的觀點:神經(jīng)元的集合才是學習的基本單元??傊@兩位知名的強AI鼓吹者都力圖把新的技術(shù)路徑建立在對人類大腦結(jié)構(gòu)的最新認識之上。
4 從深度學習、人類大腦計劃到超級智能
2006年以來,深度學習作為人工智能中的機器學習的一門分支,由于其在傳統(tǒng)AI難以有效解決的語音識別、圖像識別乃至自然語言處理方面的取得了較大進展,例如微軟亞洲研究院運用深度神經(jīng)網(wǎng)絡(luò)(DNN)開發(fā)的商用全自動同聲傳譯系統(tǒng)[22]、Yann LeCun及其團隊在2012年運用卷積神經(jīng)網(wǎng)絡(luò)在ImageNet圖像識別大賽中取得最好成績[23],加上谷歌、Facebook、百度等產(chǎn)業(yè)巨頭對深度學習的巨大商業(yè)投入,他們招募機器學習領(lǐng)域的主要科學家Geoffrey Hinton(谷歌)[24]、Yann LeCun(Facebook)[25]、Andrew Ng(百度)[26],建立AI實驗室或啟動AI大型項目,同時在商業(yè)和技術(shù)媒體的宣傳推動下,近幾年來深度學習炙手可熱,與上世紀80年代初專家系統(tǒng)、日本第五代機開發(fā)計劃類似,被學術(shù)界和大眾視為實現(xiàn)AI長期愿景的主要途徑[27]。
就深度學習本身而言,其主要創(chuàng)立者認為屬于人工神經(jīng)網(wǎng)絡(luò)(ANN:Artificial Neural Network)的第三階段(前兩階段為控制論階段、聯(lián)結(jié)主義階段)[28],ANN可以視為聯(lián)結(jié)主義傳統(tǒng)或者AI中的生物學范式的主流,但一般認為這不是實現(xiàn)AI的唯一路徑[28]。而且雖然深度學習相比傳統(tǒng)的淺層學習而言,在特征的自動抽取方面節(jié)省甚至無需人工介入,具備和人類認知類似的逐層抽象表征能力等優(yōu)點,但同樣也面臨著實現(xiàn)強AI愿景的理論、建模和工程方面的重大挑戰(zhàn),深度學習表面上與人類大腦新皮層具有結(jié)構(gòu)上的類似性,尤其在計算機視覺方面取得很大成功的情況下似乎更有說服力,但顯然這種生物學隱喻或進路的優(yōu)勢在Michael Jordan[29]、Yann LeCun[30]等主要創(chuàng)立者的核心學術(shù)共同體中也未得到認同,他們本質(zhì)上仍堅守傳統(tǒng)的弱AI或應(yīng)用AI立場,對庫茲韋爾的強AI設(shè)想持強烈的反對態(tài)度 [28][29]。
但是,2013年以來美國和歐盟在認知科學和腦科學領(lǐng)域啟動的人類大腦計劃(HBP:Human Brain Project),卻對計算機界的AI主流傳統(tǒng)提出了某種挑戰(zhàn),他們獲得政府機構(gòu)的巨額經(jīng)費支持,以大科學協(xié)作的方式開展研究,提出的目標宏大而有經(jīng)濟、政治方面的吸引力,使得一部分AI學者、大型商業(yè)機構(gòu)(如IBM)均參與其中,其影響遠超AGI和強AI提倡者的非政府組織。
美國的HBP于2013年由國立衛(wèi)生研究院(NIH)牽頭發(fā)起,即尖端創(chuàng)新神經(jīng)技術(shù)腦研究(BRAIN:Brain Research through Advancing Innovative Neurotechnologies),其長期計劃是從2016年起10年內(nèi)撥款45億美元,目標是繪制腦回路圖譜,研究腦內(nèi)回路機制,并為此研發(fā)觀察、記錄和成像神經(jīng)回路活動的新技術(shù),其時間表相對歐盟的HBP而言更為現(xiàn)實:10年內(nèi)完成果蠅腦的成像,15年做到對小鼠腦的成像,在完成上述任務(wù)基礎(chǔ)上再向靈長類動物邁進,而且也沒有就此做出時間上的承諾[31] 。
相比較而言引起巨大爭議的歐盟HBP,在瑞士科學家亨利·馬克拉姆(Henry Markram)領(lǐng)導(dǎo)下一開始就設(shè)定了宏大目標:數(shù)據(jù)方面生成繪制人類大腦圖譜和建立腦模型的數(shù)據(jù)、理論方面發(fā)現(xiàn)大腦信息處理的數(shù)學原理、研究平臺方面提供基于新的信息和通訊技術(shù)(ICT:Information and Communication Technology)的平臺為各個領(lǐng)域科學家服務(wù)、應(yīng)用方面基于新型ICT平臺開發(fā)應(yīng)用程序為基礎(chǔ)神經(jīng)科學、藥物學和計算科學提供服務(wù),其申請的研究經(jīng)費為10年內(nèi)分三個階段投入11.9億歐元 [32]。
以美國和歐盟為首,日本、加拿大、中國等國積極參與的這場人類大腦研究浪潮,給計算機和AI帶來了重大影響,一些科學家認為HBP研究中的類腦計算(Brain-like)進路將是從弱AI到強AI的主要進路 [33],認為類腦智能將是人工智能的終極目標[34]。
類腦AI或神經(jīng)擬態(tài)計算(Neuromorphic Computing)的目標是基于人類大腦工作原理設(shè)計非馮·諾依曼傳統(tǒng)結(jié)構(gòu)的計算機來實現(xiàn)強AI愿景,相對于傳統(tǒng)計算機而言,神經(jīng)擬態(tài)計算應(yīng)具備人腦的三大特性;低能耗、容錯性、無須編程[35]。因此歐盟HBP被視為類腦計算項目,而美國則在BRAIN之外,主要通過DARPA贊助的自適應(yīng)可塑可伸縮電子神經(jīng)擬態(tài)系統(tǒng)(SyNAPSE:Systems of Neuromorphic Adaptive Plastic Scalable Electronics)項目來實現(xiàn)對類腦計算的探索[36]。在這些獲得正式資助的大科學項目之外,技術(shù)極客和未來學家如庫茲韋爾[37]85-122、霍金斯[38]215-242、雨果·德·加里斯[39]27-47等通過大眾媒體以極其樂觀的態(tài)度宣傳類腦AI的美好愿景。
在這些來自政府、學術(shù)界、產(chǎn)業(yè)界乃至媒體的推動下,使得一些來自于非AI領(lǐng)域的學者對強AI愿景可能導(dǎo)致的后果進行了深入思考,從哲學、倫理等方面提出了不同的見解,其中英國牛津大學人類未來研究院的尼克·波斯特洛姆(Nick Bostrom)提出的超級智能具有較大影響[40]29-30,他認為超級智能在幾乎所有領(lǐng)域遠遠超過人類,具備遠超過強AI的強大能力,從而會給世界帶來存在性危險:智能生命滅亡或永久失去未來發(fā)展?jié)撃躘40]143。
5 強AI、超級智能及其技術(shù)合理性
技術(shù)合理性概念來自于合理性,簡單從字面上來看,技術(shù)合理性即“技術(shù)合乎理性”,它既是一個規(guī)范性概念也是一個評價概念,可以把此處的“理性”視為工具理性和價值理性的統(tǒng)一。技術(shù)合理性問題是對技術(shù)這種人類實踐活動的反思和評價,其宗旨在于以主體理性自覺的形式來解決技術(shù)實踐中的種種問題,促進技術(shù)實踐在價值、目的、手段這三個方面的完善和進步[41]52。
AI作為一門新興的技術(shù)科學,無論其是否負荷價值或者價值中立,均需要和其他技術(shù)科學一樣,從其目的、工具、價值三個方面來對其技術(shù)合理性進行評價[41]95。而這種評價是反思性的哲學評價,而不是具體的社會、經(jīng)濟和政治評價,其評價結(jié)果用于對AI技術(shù)的實踐的目的、手段和結(jié)果進行反思和調(diào)整,使其更符合技術(shù)創(chuàng)造主體的合理需要。
如上所述,強AI的提倡者和未來學家,在目的、工具、價值各個方面都對AI的技術(shù)合理性進行正面評價,對其目的的社會合意性、客觀現(xiàn)實性,技術(shù)手段的客觀有效性均予以確證,對于AI實踐所負載的價值,一般認為是正向的,即使對人類有危害,只要事先加以控制,也能實現(xiàn)正向效果。
他們也在大眾媒體上為AI建構(gòu)了樂觀主義愿景,主要體現(xiàn)在兩個方面,首先是認為這類技術(shù)能夠幫助社會進步和實現(xiàn)社會理想,其次是認為其技術(shù)目標在未來數(shù)十年或者一百年內(nèi)會實現(xiàn),如波斯特洛姆就在其著作中專門引用了AI科學家的預(yù)測結(jié)果[40]24-25。雖然在科幻作品等大眾傳播媒介中對強AI的后果有技術(shù)悲觀主義的描述,而波斯特洛姆的立場偏向于技術(shù)控制論,并從哲學上給出了一些對強AI技術(shù)如何控制的思辨和設(shè)想[40]179。但總體來看,他們即使在強AI的目的和后果上存在一些分歧,對短期內(nèi)可實現(xiàn)強AI技術(shù)目標卻具有共識,并認為該技術(shù)負荷的主要是正向價值,庫茲韋爾、霍金斯等代表人物表現(xiàn)出的主要是一種樂觀的技術(shù)決定論立場。
AI科學家共同體主要從技術(shù)的社會應(yīng)用來論證其為人類帶來福祉,合乎人類主體的目的和需要,同時在技術(shù)文本中一般表現(xiàn)出價值中立的立場,例如美國人工智能學會對AI 的定義兼顧了其工程和科學的維度:“對思維、智能行為及它們在機器中實現(xiàn)機制的科學理解”[42],在主流教科書中則更偏重于其工程的維度:對人工物的設(shè)計和制作:“……理性智能體的設(shè)計過程……著重討論理性智能體的通用原則以及構(gòu)造此類智能體所需的組成部分”[43]6,對于其手段上的客觀有效性和目的的客觀現(xiàn)實性,承認其仍然有許多困難,會是一個長期任務(wù),AI仍處在庫恩所說的“前范式”階段,作為工程的AI有許多小而有用的進步,作為科學的AI卻進步緩慢[44]。
總體上來看AI學術(shù)界、產(chǎn)業(yè)界對其目的的社會合意性進行了積極辯護,例如美國人工智能協(xié)會前后兩任主席在一篇文章中明確指出強AI或超級智能的悲觀論者主要來自計算機科學界之外,超級智能中的“智能鏈式反應(yīng)”模式設(shè)想AI系統(tǒng)能遞歸地設(shè)計比自己更智能的版本,導(dǎo)致“智能爆炸”,這種設(shè)想與目前對計算復(fù)雜性限制的認識相悖。雖然如此,AI在社會中的應(yīng)用還是會帶來顯著效益,但在應(yīng)用中也需要防范其技術(shù)和社會經(jīng)濟風險[45]。在這里,主流學界回避了AI技術(shù)是否負荷價值的判斷,表明其意圖是基于工程技術(shù)傳統(tǒng)的技術(shù)中立論,例如微軟亞洲研究院認為類人情感對于AI和機器人并不必要,技術(shù)工具大多數(shù)具有正面價值,是使用者決定其用途,實現(xiàn)路徑應(yīng)聚焦在可以控制且能促進生產(chǎn)力的方向上[46]。
基于這種技術(shù)工具論的實用主義的立場,學術(shù)界和產(chǎn)業(yè)界積極推動將AI廣泛應(yīng)用在各個領(lǐng)域,麥肯錫咨詢公司預(yù)測到2025年,AI會對包括知識工作自動化、物聯(lián)網(wǎng)、無人交通、3D打印這四個高達50萬億-100萬億美元的市場產(chǎn)生重大影響[47],而牛津大學的一份研究報告指出在未來10-20年內(nèi),47%的工作將會自動化[48],這說明在實踐中人們認可AI負荷正向價值,并產(chǎn)生正面的社會和經(jīng)濟效應(yīng)。
6 對強AI和超級智能的技術(shù)合理性批判
到目前為止AI科學家共同體與強AI提倡者、未來學家為我們描述的主要是一個目的上具有社會合意性和客觀現(xiàn)實性、技術(shù)手段上具有客觀有效性(雖然在不同群體中存在有效程度的不同)、價值中立或者主要負荷正向價值的AI技術(shù)合理性圖景。而且從圖靈開始一直到費根鮑曼、約翰·麥卡錫這些當代主流的AI科學家,雖然并不持有強AI立場,但也從其專業(yè)立場反駁各個方面的攻擊,力圖捍衛(wèi)AI的技術(shù)合理性,例如約翰·麥卡錫曾將對AI的攻擊分為4個方面:哲學上概念不一致、AI不道德、數(shù)學上來看AI不可能在計算機中實現(xiàn)、AI研究未取得甚至不能取得進步,并分別加以反駁[49]vii。
但是,無論AI科學家共同體還是強AI提倡者,其對AI的技術(shù)合理性都做出了過于樂觀甚至誤導(dǎo)的判斷,具體表現(xiàn)在以下方面:
首先,AI內(nèi)部仍然缺乏統(tǒng)一的研究綱領(lǐng),其在短期內(nèi)實現(xiàn)類人智能任務(wù)的希望并不大,而這些討論往往發(fā)表在共同體內(nèi)部的學術(shù)媒體上,并未在大眾中得到廣泛傳播。例如:1988年美國人文與科學院院刊《代達羅斯》第117卷,1991年國際人工智能聯(lián)合會的《人工智能》雜志第47卷都是關(guān)于AI學術(shù)爭論的專輯,其中加州大學圣地亞哥分校認知科學系教授David Kirsh的《AI的基礎(chǔ):大問題》一文,指出共同體內(nèi)部對AI研究核心假設(shè)的不同觀點而形成各自的技術(shù)路徑,這些問題包括知識和智能、認知是否具身化和擁有統(tǒng)一的底層結(jié)構(gòu)等[50],布蘭迪斯大學計算機科學教授David L.Waltz則指出AI尚存在認知科學、軟件工程、硬件實現(xiàn)三個方面的重大障礙[51]191-212。
其次,強AI提倡者和未來學家是在傳統(tǒng)理性論和實證主義的基礎(chǔ)上來理解人本質(zhì)的規(guī)定性,在生物學上幾乎取消人作為一個類存在的特殊性,碳基生命因此不再是唯一的智能形式,從而對硅基或其他形式的智能體形式提供了本體論的承諾,對于他們而言,符號、可計算性、形式化的理性知識等構(gòu)成了人的全部規(guī)定性,情感和意志等非理性因素在人之為人的規(guī)定性中并不起核心作用,或者至少可以還原成可計算性,表現(xiàn)的是一種計算主義世界觀的強主張[52]1。這種用計算、知識、符號來對人的豐富本性的消解性還原解釋在實踐中早已遇到很多問題,其帶來的哲學后果如胡塞爾所說:“現(xiàn)代人漫不經(jīng)心地抹去了那些對于真正的人來說至關(guān)重要的問題。只見事實的科學造成了只見事實的人”[53]7。
AI的主流科學家共同體承認人類認知是生物屬性和社會屬性、先天屬性和后天屬性相互結(jié)合而產(chǎn)生的整合性認知過程,需要從生物學和人類學兩個方向來實現(xiàn)腦認知功能,傳統(tǒng)AI只是實現(xiàn)了人類的計算認知功能,而記憶認知和交互認知需要新的研究范式[54]。這比強AI和未來學家的立場要更為務(wù)實,但是所需要的新范式尚未出現(xiàn),深度學習也難充其任??茖W家接受了哲學人類學對作為文化生物的人的三個“屬人”特征:創(chuàng)造性、自由、對世界開放,但對于形式化的理性如何在復(fù)雜、開放環(huán)境中實現(xiàn)創(chuàng)造性,卻沒有找到解決方案?!叭嗽诒举|(zhì)上是不確定的,人的生活并不遵循一種事先被確定的過程,自然只完成了人的一半,另一半留給人自己去完成。[55]8”因此,人是文化的存在、社會的存在、歷史的存在和傳統(tǒng)的存在[55]245-262,對于這種哲學意義上人類本質(zhì)的不確定性,傳統(tǒng)AI在技術(shù)實現(xiàn)中通過常識知識的形式化表達和推理來加以部分處理,但這種脫離開放、復(fù)雜的社會環(huán)境來實現(xiàn)個體人的進路,一般認為不具有情感和意識[56],后兩者往往體現(xiàn)在交互的社會文化環(huán)境個體中。
由于不同時代的文化背景下人們對世界的知識和價值觀不同,因此“由人所創(chuàng)造的人,作為一種具體現(xiàn)象,是歷史的;”[55],例如古代的前技術(shù)時代文化中人作為智慧的人出現(xiàn),近代或現(xiàn)代的技術(shù)時代人作為制作的人、發(fā)明的人或者理性的人而出現(xiàn),而當代以信息和互聯(lián)網(wǎng)為特征的后工業(yè)化社會中,對人的歷史規(guī)定性尚缺乏統(tǒng)一的描述,如果說有,也是一種語境主義、歷史主義的后現(xiàn)代解釋,如尼采所說,中世紀和近代工業(yè)社會以來代表傳統(tǒng)價值觀和形而上學的“基督教-柏拉圖”圖式業(yè)已解體[57]122。人作為一個類的概念,很難尋找一個象強AI那樣可以在工程上實現(xiàn)的靜態(tài)、統(tǒng)一可編碼的本質(zhì),最多只能尋找一種共性,這種共性就是作為自我創(chuàng)造者的人的創(chuàng)造性核心,這種具有“家族相似”的共性是在社會和歷史中豐富起來的,而強AI以孤立、靜態(tài)的理性人為其工程上的藍本,脫離了人類的社會性和其與環(huán)境交互作用的豐富性,與真正的人類想象相差甚遠。
第三,作為實證主義土壤中誕生的技術(shù)科學集大成者,AI是近代技術(shù)理性登峰造極的產(chǎn)物,與基因工程、宇航工程、納米技術(shù)一樣屬于當代的核心前沿技術(shù),但是AI具有一個與其他技術(shù)與眾不同的特點:對技術(shù)發(fā)明者的反身性,如同人們認為認知科學可能會消解認識論一樣,AI則有可能消解人類的創(chuàng)造性本質(zhì)。AI的目標是將人類包括認知能力在內(nèi)的精神對象化,這個目標的社會合意性存在疑問,按照目前強AI的進路,主要是對高度發(fā)達的理性能力予以對象化實現(xiàn),非理性的因素如情感、意志或社會文化等環(huán)境因素只是附屬物或者在工程上并不是主要目標,那么這種理性對象化的巨大力量如果反身性地應(yīng)用于人類自身,導(dǎo)致的正反饋效應(yīng)可能使對象化的技術(shù)理性力量極度膨脹,即人類發(fā)現(xiàn)AI的能力很強大,從而刺激其投入更多資源來開發(fā)它,這樣就產(chǎn)生了波斯特洛姆所說的存在性危險。
第四,AI作為一種“智能代理體”的軟件程序和通過機器人形式的實現(xiàn),在其廣泛而具體的應(yīng)用中是否具有權(quán)利和責任,這個問題主要取決于AI是否具備自我意識和自由意志。AI共同體一般認為AI的用途和使用規(guī)則由其人類使用者決定,因此按倫理學中決定論的觀點,AI和機器人無需為其產(chǎn)生的結(jié)果承擔責任,相應(yīng)地也不具備權(quán)利,人類至多只有對軟件錯誤、網(wǎng)絡(luò)安全等進行預(yù)先控制的責任。同時,在把AI視為人工物的前提下,按照自然主義的解釋,AI確實不具有自然法下的權(quán)利和義務(wù)。但是在具體實踐中AI所產(chǎn)生的后果與其初衷目標的背離,即技術(shù)價值二重性的問題卻十分突出,這是由于AI脫離技術(shù)發(fā)明者個人的控制,廣泛應(yīng)用到公共領(lǐng)域所決定的,例如對個人隱私的自動搜集、證券程序化交易中的錯誤指令、手術(shù)機器人的誤操作、軍用無人機執(zhí)行攻擊任務(wù)的失誤。技術(shù)中立論者和樂觀的技術(shù)決定論者對這種二重性后果的解決方案或者是在工具的發(fā)明者和使用者中引入道德選擇的善惡觀,或者是完善技術(shù)本身以提供更強的控制手段。
但是,由于AI對人類認知的反身性特點,以及系統(tǒng)在具體應(yīng)用場景中的決策自治性,某種程度上帶來了AI的自由意志問題,前者對技術(shù)發(fā)明者的設(shè)計意圖、手段進行了滲透,后者至少表現(xiàn)出具體場景下的或然性,這樣就脫離了發(fā)明者的道德控制意圖,在這種情況下,從目的論或結(jié)果論的角度來看,無論技術(shù)設(shè)計者的動機如何良好,AI技術(shù)也很難確定其對人類主體的正向價值效應(yīng)。
第五,從AI大規(guī)模應(yīng)用的社會結(jié)果來看,其對社會公平、生產(chǎn)力發(fā)展方面的價值合理性還需要更深入地思考。計算機的發(fā)明使得生產(chǎn)工具從馬克思描述的三機系統(tǒng):動力機—傳動機—工具機擴展到了四機系統(tǒng):動力機—傳動機—工具機—控制機[58],而且信息社會的動力機,如果作為一種隱喻的話,已經(jīng)不再是蒸汽機、發(fā)電機等傳統(tǒng)能量裝置,而是個人電腦、云計算中心、智能手機等信息加工和處理裝置,物聯(lián)網(wǎng)和互聯(lián)網(wǎng)是信息社會生產(chǎn)工具系統(tǒng)的傳動機,傳統(tǒng)的工具機在這里是控制機的效應(yīng)器,包括各種計算機程序、機器手臂、傳送帶、自動郵件系統(tǒng)等,控制機在這里就是吸收人類知識勞動技能的AI程序和裝置,這種四機系統(tǒng)和傳統(tǒng)的三機系統(tǒng)相比, 跨越了車間、企業(yè)和國界, 其對知識型產(chǎn)業(yè)的生產(chǎn)力促進作用極其巨大。
在馬克思所處的近代社會,工具機是人類體力勞動和技能的外化和延伸,而且在信息社會也有象外骨骼這樣的裝置作為人類體力勞動技能提升的工具機[59],但是在互聯(lián)網(wǎng)和智能社會中,具有與環(huán)境交互認知和自主決策能力的AI控制機程序,不僅吸收了單個人類個體的知識勞動技能,而且通過各種學習和優(yōu)化機制集成了領(lǐng)域內(nèi)廣泛的知識工作技能,大大提升了信息社會下的知識勞動效率,這也導(dǎo)致了資本對AI技術(shù)的追逐,知識勞動自動化和機器人技術(shù)加劇了財富的集中程度[60]。信息、知識作為特殊的勞動對象,其生成、傳播和獲取的邊際成本很低,通過控制機和工具機的加工得到的信息和知識產(chǎn)品、商業(yè)服務(wù)可以獲得高額經(jīng)濟利益。反過來這也使控制機具有加速信息、知識的生成、傳播的動機,但是我們知道目前以AI這樣的智能代理程序為核心的控制機,吸收的只是人類的一部分勞動技能,人類的價值觀、商業(yè)倫理還不是目前主流AI學術(shù)共同體在工程實踐中考慮的核心內(nèi)容,因此在這個階段將AI程序置身于我們生產(chǎn)工具系統(tǒng)的控制機地位,具有較大的社會風險。
7 結(jié)論
應(yīng)用AI、強AI和超級智能,態(tài)度上從弱到強地代表了AI技術(shù)在目標的客觀現(xiàn)實性、手段的有效性和價值負荷方面的技術(shù)合理性尺度,來自于這三個方面的研究者和支持者均從不同方面對其進行了論證和辯護,但是如果撇開各自的利益立場和媒介傳播的影響而言,從哲學、社會、經(jīng)濟乃至AI技術(shù)本身來考察,都會發(fā)現(xiàn)其技術(shù)合理性所獲得的辯護存在諸多不足之處。作為當今社會重點開發(fā)和應(yīng)用的主要高新技術(shù),AI及其研究者和推動者,需要更加審慎地考察其技術(shù)邊界、應(yīng)用范圍,對其價值是否中立或如何負荷正向價值進行深入的討論,從而在大眾中建立更為客觀的AI技術(shù)形象。
參考文獻:
[1] Daniel Crevier. AI: The Tumultuous History of the Search for Artificial Intelligence[M]. New York: BasicBooks,1993.
[2] Paul Thagard. Philosophy of Psychology and Cognitive Science[M]. Amsterdam: North-Holland,2007.
[3] (英)瑪格麗特·博登. 人工智能哲學[M]. 劉西瑞,王漢琦 譯. 上海:上海譯文出版社,2001.
[4] (美)N.維納. 控制論:或關(guān)于在動物和機器中控制和通信的科學[M]. 郝季仁 譯. 北京:科學出版社,2009.
[5] Margaret A. Boden. Mind as Machine: A History of Cognitive Science[M]. Oxford: Oxford University Press,2008.
[6] Niklaus Wirth. A Brief History of Software Engineering[J]. IEEE Annals of the History of Computing, 2008,30(3):32-33.
[7] John McCarthy.What is Artificial Intelligence[EB/OL]. http://www-formal.stanford.edu/jmc/whatisai/node1.html, 2015-11-12.
[8] John McCarthy. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence[EB/OL]. http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html,2015-11-12.
[9] Allen Newell,J.C.Shaw,H.A.Simon. Empirical Explorations with the Logic Theory Machine: A Case Study in Heuristics [C]// Computers and Thought. Menlo Park: AAAI Press, 1995.
[10] (美)N.維納.人有人的用處—控制論和社會[M]. 陳步 譯.北京:商務(wù)印書館,1989.
[11] (美)休伯特·德雷福斯.計算機不能做什么:人工智能的極限[M]. 寧春巖 譯. 北京:三聯(lián)書店,1986.
[12]陳自富.煉金術(shù)與人工智能:休伯特·德雷福斯對人工智能發(fā)展的影響[J]. 科學與管理,2015,35(4):55-62。
[13]John R. Searle. Minds, Brains and Programs[J]. The Behavioral and Brain Sciences, 1980, 3(3):417-424.
[14] (美)約翰·塞爾.心、腦與科學[M].楊音萊 譯.上海:上海譯文出版社,2006.
[15]Jack Copeland. Strong AI, Applied AI and CS[EB/OL].http://www.alanturing.net/turing_archive/pages/Reference Articles/what_is_AI/What is AI02.html,2015-12-11.
[16]Marvin Minksy. Why People Think Computers Cant[J]. AI Magazine, 1982, 3(4):15.
[17]John McCarthy. From here to human-level AI[J]. Artificial Intelligence, 2007, 171:1174.
[18] http://www.agi-society.org,2015-12-11.
[19] http://www.agi-society.org/resources/,2015-12-11.
[20] http://intelligence.org/about/,2015-12-11.
[21] http://numenta.org/ #technology,2015-12-11.
[22]郭麗麗,丁世輝.深度學習研究進展[J].計算機科學, 2015, 42(5): 28-33.
[23]尹寶才.深度學習研究綜述[J].北京工業(yè)大學學報, 2015, 41(1): 48-59.
[24] http://www.wired.com/2013/03/google_hinton/,2015-12-11.
[25] http://geek.csdn.net/news/detail/3870,2015-12-11.
[26] http://www.huxiu.com/article/33940/1.html,2015-12-11.
[27]張文韜. 被寄予厚望的深度學習系統(tǒng)[J]. 世界科學,2014,(3): 50-52.
[28]Yoshua Bengio,Ian Goodfellow,Aaron Courville. Deep Learning[EB/OL]. http://www.deeplearningbook.org/conte-nts/intro.html,2016-2-13.
[29]Lee Gomes. 機器學習大家邁克爾·喬丹談大數(shù)據(jù)可能只是一場空歡喜等[J]. 中國計算機學會通訊,2014,10(12):80-85.
[30]Lee Gomes. 對話深度學習專家雅恩·樂昆:讓深度學習擺脫束縛[J]. 中國計算機學會通訊,2015,11(4):84-91.
[31]顧凡及. 歐盟和美國兩大腦研究計劃之近況[J]. 科學,2014,66(5):16-21.
[32]Henry Markram. The Human Brain Project: A Report to the European Commission[EB/OL]. https://www.hu- manbrainproject.eu/,2016-2-13.
[33]黃鐵軍.類腦計算機的現(xiàn)在與未來[N].光明日報,2015-12-06(第8版).
[34]佘慧敏.類腦:人工智能的終極目標?[N].經(jīng)濟日報,2015-07-16(第15版).
[35]刑東,潘綱.神經(jīng)擬態(tài)計算—有新靈魂的機器[J].中國計算機學會通訊,2015,11(10):88-92.
[36]顧宗華,潘綱.神經(jīng)擬態(tài)的類腦計算研究[J].中國計算機學會通訊,2015,11(10):10-20.
[37] (美)Ray Kurzweil. 奇點臨近[M].李慶誠,董振華,田源 譯.北京:機械工業(yè)出版社,2012.
[38] (美)杰夫·霍金斯. 人工智能的未來[M]. 賀俊杰,李若子,楊倩 譯. 西安:陜西科學技術(shù)出版社,2006.
[39] (美)雨果·德·加里斯. 智能簡史—誰會替代人類成為主導(dǎo)物種. 胡靜 譯. 北京:清華大學出版社,2007.
[40] (英)尼克·波斯特洛姆. 超級智能:路線圖、危險性與應(yīng)對策略[M]. 張體偉,張玉青 譯.北京:中信出版社,2015.
[41]王樹松.論技術(shù)合理性[D].沈陽:東北大學博士學位論文,2005.
[42] http: //aitopics.org/topic/ai-overview, 2016-2-13.
[43] (美)Stuart Russell,Peter Norvig. 人工智能—一種現(xiàn)代方法[M]. 姜哲,金奕江,張敏,楊磊 等譯. 北京:人民郵電出版社,2004.
[44]Marti A.Hearst,Haym Hirsh. AIs greatest trends and controversies[J]. IEEE Intelligent Systems, 2000, 15(1):8-17.
[45]托馬斯·G·迪特里奇,埃里克·J·霍維茨. 增長中的關(guān)切:對人工智能的反思和前瞻[J].中國計算機學會通訊, 2015,11(11):91-93.
[46]洪小文. 我們需要什么樣的機器人[J]. 中國計算機學會通訊,2014,10(11):50-54.
[47]http://www.mckinsey.com/insights/business_technology/disruptive_technologies,2016-2-13.
[48]http://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf,2016-2-13.
[49]John McCarthy. Defending AI Research[M]. Stanford: CSLI Publications,1996.
[50]David Kirsh. Foundations of AI: the big issues[J]. Artificial Intelligence,1991,47:3-29.
[51]Stephen R.Graubard. The Artificial Intelligence Debate: False Starts, Real Foundations[M]. Cambridge: MIT Press, 1988.
[52]酈全民.用計算的觀點看世界[M]. 廣州:中山大學出版社,2009.
[53](德)埃德蒙德·胡塞爾.歐洲科學危機和超驗現(xiàn)象學[M].張慶熊 譯. 上海:上海譯文出版社,2005.
[54]李德毅. 腦認知的形式化[J].中國計算機學會通訊,2015, 11(12):26-28.
[55](德)M·蘭德曼. 哲學人類學[M]. 閻嘉 譯.貴陽:貴州人民出版社,1988.
[56]Petros A. M. Gelepithis. AI and Human Society[J]. AI & Society, 1999,13(3):313.
[57]陳嘉明.現(xiàn)代性與后現(xiàn)代性十五講[M].北京:北京大學出版社, 2006.
[58]王師勤.勞動工具演化論[J].上海社會科學院學術(shù)季刊,1986(4): 51-56.
[59]http://tech.163.com/15/0721/10/AV1Q6R87000915BD.html, 2016-2-13.
[60]http://piketty.pse.ens.fr/en/capital21c2,2016-2-13.
(責任編輯:王保寧)
Abstract: Strong AI was coined by American philosopher John Searle in 1970s in his paper 《Mind、Brain and Program》,mainly refers to this philosophical position: based on the model of computational mind, AI program embodied in the general digital computer can recognize and think like humankind, even reach or surpass the human intelligence level. This position is opposed to the Weak AI or Applied AI which are regarded as the tools or assistant for helping human to perform tasks. In the last two decades, with the mushrooming of Internet、neuroscience、genetic engineering ,etc. Strong AI is stepping into the engineer practice from the philosophical standpoint in the years of John Searle, the futurist even image the more optimistic version of Strong AI: Super AI. All of these are driven by both industrial giant like IBM,Google,F(xiàn)acebook,Microsoft and Kurzweil、Markram who are the optimistic and active technical practioners, and they infiltrated into daily life as a support to the technology rationality by the strengthening popular scientific media. But the impact of AI in the human society is not value free, it cant reflect and upgrade the nature of human creativity, on the other hand, its results often doesnt comply with the initial goal, with the promotion of commercial activities, AI begin to challenge and suppress the rational human as the cultural products and self-explaining species.
Keywords:Strong AI;Artificial General Intelligence;Super AI;Technology Rationality;Criticism