唐代興
在人類歷史上,倫理問題始終是最普遍、最棘手和最難以解決的問題。但在人類歷史上,沒有哪個時代像今天這樣使倫理問題成為負(fù)載人類存亡的根本問題。今天,整個人類淪陷于由后人口、后環(huán)境、后疫災(zāi)、后經(jīng)濟(jì)—政治、后文化主義等構(gòu)成的后世界風(fēng)險(xiǎn)社會陷阱之中,這一后世界風(fēng)險(xiǎn)社會陷阱演繹出更為暴烈的全球殖民運(yùn)動、海洋開發(fā)、太空爭霸、戰(zhàn)爭蜂起、價值對決以及核威脅等,但其隱藏于背后的深層動力機(jī)制卻是技術(shù)主義。技術(shù)主義體現(xiàn)三個特征,一是在形式上以技術(shù)和技術(shù)專家為中心的理念,技術(shù)專家和工程師參與管理經(jīng)濟(jì),以提高生產(chǎn)效率,全面迎合了無限度的經(jīng)濟(jì)增長主義和唯經(jīng)濟(jì)發(fā)展觀;二是在本質(zhì)上是一種崇尚技術(shù)、追求技術(shù)發(fā)展的思想體系,將技術(shù)發(fā)展定義為社會發(fā)展和人類福祉的最高目標(biāo),認(rèn)為發(fā)展技術(shù)是作為解決一切問題的唯一途徑,這為政治主義和唯威權(quán)主義開放了空間,提供了無限可能性和現(xiàn)實(shí)性;三是由此二者形成一種合力取向,這就是技術(shù)必然走對經(jīng)濟(jì)和政治的壟斷與經(jīng)濟(jì)和政治對技術(shù)的全面開放而忽視社會、文化、人性等根本因素,體現(xiàn)消解善惡邊界的強(qiáng)勁態(tài)勢。由于唯經(jīng)濟(jì)增長和政治威權(quán)的雙重誘惑與推動,技術(shù)主義鼓動社會對技術(shù)的過度信仰,而導(dǎo)致技術(shù)和社會之間的嚴(yán)重失衡①R. L. Heilbroner,“ Do Machines Make History?”, Technology and Culture, Vol. 8, No. 3, 1967, p. 42.;技術(shù)專家?guī)蛹夹g(shù)自身成為權(quán)力的源泉,并以悄無聲息的方式掏空個人和民主制度②Thorstein Veblen, The Engineers and the Price System, New York: B. W. Huebsch, 1921, pp. 69—79.,解構(gòu)人的生存自由和人類的存在尊嚴(yán)③J. Ellul, The Technological Society, New York: Vintage Books, 1964, pp. 3—20.;更為根本的是“技術(shù)的發(fā)展和自我加速是一種無限循環(huán)的過程,人類社會面臨著趕不上技術(shù)發(fā)展的風(fēng)險(xiǎn)”④Ibid., p. 75.,雖然為人們普遍盲信的“技術(shù)主義強(qiáng)調(diào)技術(shù)的進(jìn)步是不可避免的,但技術(shù)的進(jìn)步將正在全速地從根本上改變社會的性質(zhì),改變?nèi)祟愇拿鞯姆较颉雹軷. L. Heilbroner,“ Do Machines Make History?”, p. 42.,將生物人類引向自我解構(gòu)之路,這條道路的起點(diǎn)是人的技術(shù)化存在,終點(diǎn)是作為生物工藝學(xué)技術(shù)的基本形式的人工智能技術(shù)對生物人類的心智的全方位超越和對人性的連根拔起,從太空星鏈對地球的精準(zhǔn)監(jiān)控到地面上數(shù)字集權(quán)工具可以無所不在,均源于人工智能的深度學(xué)習(xí)能力已開始走向?qū)θ祟惸芰蜐摿Φ恼w性超越,AlphaGo輕易地打敗國際圍棋冠軍到ChatGPT的強(qiáng)大生成性功能呈現(xiàn),從不同方面敞開了技術(shù)主義難以有倫理邊界制約的人類宿命 。
距離人工智能技術(shù)的首次出現(xiàn)約六十年之后的2016年,“人工智能倫理”(AI Ethics)概念才被正式提出來,并被認(rèn)為是對人工智能設(shè)計(jì)予以人的倫理植入和對人工智能運(yùn)用的倫理治理的研究,由此展開“倫理的人工智能”(Ethical AI)和“人工智能的倫理”(Ethics of AI)兩個維度的研究。崔中良、盧藝在《國外學(xué)者關(guān)于人工智能倫理問題研究述評》中分別對國外“人工智能的倫理”和“倫理的人工智能”的研究進(jìn)展、重心及其問題作了較系統(tǒng)的評述,但其重點(diǎn)是“倫理的人工智能”,主要圍繞主體(包括主體意愿的束縛、自主決策泛濫、責(zé)任歸屬分化)和實(shí)踐(社會不平等加劇、社會倫理反向脫敏、倫理問題多面化)及對策三個維度展開;而對“倫理的人工智能”評述著眼于“人的倫理嵌入”人工智能技術(shù)的“理論層面”的研究成果。古天龍等人的《符合倫理的人工智能應(yīng)用的價值敏感設(shè)計(jì):現(xiàn)狀與展望》卻圍繞“倫理嵌入人工智能設(shè)計(jì)”之概念調(diào)查、經(jīng)驗(yàn)調(diào)查和技術(shù)調(diào)查三種方法展開對國外“倫理的人工智能”的應(yīng)用研究予以系統(tǒng)的評介,并指出在“倫理的人工智能”研究方面,國外注意于“理論反思、框架補(bǔ)充、方法擴(kuò)展以及工具增添”等方面的研究推進(jìn),國內(nèi)主要以對國外的研究成果的“引進(jìn)與推介為主”。在國外研究的牽引下,國內(nèi)學(xué)者更熱衷于“人工智能倫理學(xué)”(ethics of Artificial Intelligence),并將其類分為“機(jī)器人倫理學(xué)”(robot-ethics)和“機(jī)器倫理學(xué)”(machine ethics),以對應(yīng)“倫理的人工智能”和“人工智能的倫理”?!皺C(jī)器人倫理學(xué)”側(cè)重研究人工智能技術(shù)設(shè)計(jì)研發(fā)如何合倫理;“機(jī)器倫理學(xué)”側(cè)重研究人工智技術(shù)功能釋放如何合倫理。由于人工智能技術(shù)的研發(fā)與運(yùn)用之間客觀地存在因果關(guān)系,機(jī)器人倫理學(xué)必然構(gòu)成機(jī)器倫理學(xué)的指導(dǎo)之學(xué),所以人們在研究人工智能倫理學(xué)時,越來越將重心轉(zhuǎn)向人工智能研發(fā)的倫理思考,形成人工智能的設(shè)計(jì)倫理研究和道德算法研究,由此拓展了人工智能倫理的研究領(lǐng)域,催發(fā)人工智能的道德哲學(xué)和社會倫理的探討。人工智能技術(shù)研發(fā)與運(yùn)用的無限激情加速度更新所引發(fā)出來的倫理問題,本質(zhì)上既不是技術(shù)研發(fā)的問題,也不是產(chǎn)品的問題,而是人的問題。人工智能研發(fā)與運(yùn)用所不斷呈現(xiàn)出來的全部的人的問題,即是人類對自身有限心智能力的盲目自信和對作為生物工藝學(xué)技術(shù)的愚昧無知,這種盲目自信和愚昧無知本身成為最強(qiáng)勁的推手,將人類自己推向被人工智能化的無未來道路。本文以ChatGPT為對象審視人工智能的倫理邊界問題,嘗試為研究人工智能的倫理可能性和人類被人工智能化的未來可能性提供一個反思性參照,亦試圖從AlphaGo到ChatGPT的生成敞開簡史及其未來可能性,來推證如上預(yù)判斷。
AlphaGo是由DeepMind(谷歌子公司)開發(fā)的AI圍棋程序。DeepMind原是位于英國倫敦的一家AI公司,成立于2010年,專注于開發(fā)AI技術(shù)及其應(yīng)用。2014年,DeepMind被谷歌收購后成為Alphabet(谷歌母公司)旗下的子公司,主要研究AI的強(qiáng)化學(xué)習(xí)、深度學(xué)習(xí)、神經(jīng)科學(xué)和計(jì)算機(jī)科學(xué)等,AlphaGo是其中最著名的項(xiàng)目之一,它始于2014年谷歌收購DeepMind后投入資金和技術(shù)力量開發(fā)研究,使用深度學(xué)習(xí)、蒙特卡洛樹搜索(MCTS)和大量專家圍棋數(shù)據(jù)的組合研究智能圍棋對局決策。2015年,AlphaGo第一個版本問世,初步實(shí)現(xiàn)其強(qiáng)大圍棋能力。同年10月,AlphaGo與歐洲圍棋冠軍樊麾對局,取得5:0的完勝戰(zhàn)果。2016年3月,AlphaGo與世界圍棋冠軍李世石展開五場對局,最后以4:1獲勝。2017年,DeepMind發(fā)布改進(jìn)版本AlphaGo Zero,AlphaGo Zero不再依賴人類專家的圍棋數(shù)據(jù),而是采取自我對弈方式從零開始學(xué)習(xí),在短短40天內(nèi)超越其自我對弈之前的版本水平,顯示出驚人的深度學(xué)習(xí)能力。同年,更新AlphaGo Zero的AlphaGo Master在線與包括世界冠軍柯潔在內(nèi)的多名世界頂級圍棋選手對弈,取得60勝0負(fù)的戰(zhàn)績。2017年底,DeepMind宣布停止AlphaGo的研發(fā)。
AlphaGo之所以停止研發(fā),背后原因可能是它已完成了被預(yù)設(shè)的使命,即人工智能開發(fā)生物人腦的智力潛能到底能夠達(dá)到何種程度?具體地講,第一,人工智能開發(fā)生物人腦的智力潛能能否達(dá)到生物人腦的水平?第二,如果能能夠達(dá)到,它能否超越生物人腦的智力潛能?第三,如果能夠超越,這種超越有無限度和邊界?第四,人工智能達(dá)到并超越生物人腦的智力潛能的研發(fā)需要多長時間才可實(shí)現(xiàn)?第五,人工智能能否逾越人類專家的預(yù)設(shè)模式和數(shù)據(jù)參數(shù)而自行開發(fā)?DeepMind宣布停止繼續(xù)研發(fā)AlphaGo,意味著如上五個方面的預(yù)設(shè)全面實(shí)現(xiàn):AlphaGo獲得了超越生物人腦智力潛能的實(shí)際能力,并展現(xiàn)出人工智能自我超越的無限可能性,即人工智能技術(shù)(AI)具有不依賴生物人的自身本性和潛能,而且這種本性和潛能遠(yuǎn)遠(yuǎn)超過生物人類。所以,AlphaGo不僅僅是AlphaGo,它構(gòu)成一個標(biāo)志。這個標(biāo)志首先表明:人類將不是萬物之靈,人工智能的誕生,意味它才是宇宙世界中的萬物之靈,只要它愿意,它可能成為任何領(lǐng)域、任何方面的無冕之王。這個標(biāo)志還將表明:在目前階段,人工智能技術(shù)如果無阻止地發(fā)展,會很快達(dá)到人類無法遏止的自由之境,而且留給人類阻遏它的這個時間并不是很長,今天還在為人工智能帶來的便利而煩盲地歡呼的人類,將會很快結(jié)束它的無知的自大而淪為技術(shù)的奴隸。
如上判斷或許不會為沉醉于技術(shù)主義中的人們所認(rèn)同,但反觀AlphaGo的前世今生,或許可以預(yù)感到人工智能的未來。
棋藝博弈游戲始于遠(yuǎn)古而伴隨人類不斷發(fā)展,是因?yàn)槠逅嚥粌H最能陶冶人性與性情,更是最能開發(fā)人的心智潛力,它可能將人的心智潛能推發(fā)到極致。這是人工智能開發(fā)生物人腦的心智潛能之所以要著力于深度學(xué)習(xí)而起步于智能棋藝的最初考慮。在人類的棋藝中,最能體現(xiàn)人類心智水平開發(fā)階梯的是跳棋、國際象棋和圍棋。此三者中,圍棋最復(fù)雜,跳棋最簡單。因而,人工智能技術(shù)開發(fā)跳棋程序,這構(gòu)成AlphaGo的起步。
1952年,亞瑟·塞繆爾(Arthur Samuel)研發(fā)第一個計(jì)算機(jī)跳棋程序,該程序能夠根據(jù)先前的比賽經(jīng)驗(yàn)和評估函數(shù)來自我學(xué)習(xí)和優(yōu)化自己的下棋水平。這是機(jī)器學(xué)習(xí)的先驅(qū),它基于經(jīng)驗(yàn)的自我學(xué)習(xí)方法被稱之為“強(qiáng)化學(xué)習(xí)”。1981年,杰拉爾德·特索羅(Gerald Tesauro)開發(fā)出背棋程序TD-Gammon,該程序建構(gòu)起基于反向傳播的神經(jīng)網(wǎng)絡(luò)算法,通過不斷學(xué)習(xí)的方式予以自我提高,為進(jìn)一步開發(fā)跳棋程序提供了啟發(fā)。1989年,喬納森·舍佛(Jonathan Schaeffer)帶領(lǐng)他的團(tuán)隊(duì)研發(fā)國際跳棋程序“奇努克(Chinook)”,目標(biāo)是戰(zhàn)勝人類世界跳棋冠軍。自1990年開始,奇努克開始進(jìn)行國際跳棋比賽,1992年,奇努克與國際跳棋冠軍馬里恩·廷斯利(Marion Tinsley)對弈,后者獲勝。1994年,奇努克又接受挑戰(zhàn),參加與馬里恩·廷斯利的比賽,該場比賽持續(xù)六個月,共進(jìn)行了40局,最終以1勝、3負(fù)、36和的戰(zhàn)績告終。1995年,馬里恩·廷斯利再度與奇努克比賽,并且馬里昂·廷斯利(Marion Tinsley)向舍佛透露了自己患有胰腺癌的消息,于是舍佛決定把此場比賽中奇努克的每步對策全記錄下來,以為更好地分析跳棋博弈中生物人腦的決策過程和機(jī)器如何應(yīng)對性學(xué)習(xí)的策略。舍佛將該場國際跳棋比賽稱為“博弈的結(jié)尾”(Endgame),不僅因?yàn)檫@場博弈以人類世界跳棋冠軍落敗結(jié)束,而且馬里恩·廷斯利的去世(1995年8月6日)使舍佛和他的團(tuán)隊(duì)意識到,人工智能與生物人在博弈領(lǐng)域的挑戰(zhàn),不僅僅是技術(shù)上的,更是文化、哲學(xué)和心靈上的挑戰(zhàn)。人工智能跳棋程序從1952年開始,到1995年奇努克全勝國際跳棋冠軍而結(jié)束生物人跳棋冠軍的歷史,歷時43年。
相對跳棋而言,象棋要復(fù)雜得多。人機(jī)象棋博弈程序研發(fā)始于1958年,美國卡內(nèi)基梅隆大學(xué)的研究團(tuán)隊(duì)(后來加入了IBM)開發(fā)出第一臺象棋計(jì)算機(jī)系統(tǒng)ChipTest,每秒雖只能走200步,但卻為后來研發(fā)Deep Thought和Deep Blue奠定了基礎(chǔ)。20世紀(jì)70年代,美國西北大學(xué)漢斯·柏林(Hans Berliner)開發(fā)出使用搜索算法和啟發(fā)式函數(shù)的“BKG 9.8”象棋程序,該程序能在有限的時間內(nèi)計(jì)算出比較復(fù)雜的象棋下法。1973年,國際象棋4.0軟件被研發(fā)出來,此軟件構(gòu)成未來程序的基礎(chǔ)。1979年,創(chuàng)造出“國際象棋X.0”概念,用以描述正在研發(fā)的、具有新技術(shù)、新功能、新思路的國際象棋軟件或系統(tǒng)。80年代初,IBM開發(fā)出國際象棋智能程序Deep Thought,1987年更新可每秒走75萬步,其后達(dá)到每秒搜索約100萬個棋局。1989年,Deep Thought在國際象棋特級大師卡斯帕羅夫(Garry Kasparov)的表演賽中以0:2敗于卡斯帕羅夫。Deep Thought雖然敗北,卻為其技術(shù)升級和改進(jìn)奠定了基礎(chǔ),即Deep Thought被升級為Deep Blue,其計(jì)算能力高達(dá)每秒搜索約2億個棋局,1996年2月,Deep Blue與卡斯帕羅夫進(jìn)行第一場對弈,共6局,后者以4:2戰(zhàn)勝了Deep Blue。1997年,Deep Blue II(Deep Blue的第二代)產(chǎn)生,其峰值性能達(dá)到每秒200億次浮點(diǎn)運(yùn)算,同年5月,Deep Blue再次與卡斯帕羅夫?qū)Q,同樣是6局,Deep Blue以3.5比2.5戰(zhàn)勝了卡斯帕羅夫。
人機(jī)象棋比賽,從1958年面世到1997年戰(zhàn)勝人類國際象棋冠軍,用了38年時間,在人機(jī)博弈上花費(fèi)的時間卻比跳棋縮短了5年。這意味著象棋智能技術(shù)比跳棋智能技術(shù)具有更強(qiáng)大的計(jì)算能力和技術(shù)創(chuàng)新能力,展示出人工智能機(jī)在解決復(fù)雜問題方面的能力,并揭開了人工智能與人類智能在未來競爭中的可能性取向,在人機(jī)圍棋博弈中,這種可能性取向令人怵目驚心。
如果將國際跳棋、國際象棋、圍棋的智能程序研發(fā)置于人工智能發(fā)展史的大框架下審視,可清晰出人工智能技術(shù)向生物人腦和心智(包括智商、情商、心商)進(jìn)軍的歷史進(jìn)程。在這一并不長的歷史進(jìn)程中,從最簡單的跳棋經(jīng)歷較復(fù)雜的象棋再到最復(fù)雜的圍棋,卻只用了3年時間就奪得了世界冠軍。在所有的棋藝中,圍棋的棋局最為復(fù)雜多變而難以估計(jì),僅從形式布局言,圍棋在棋盤上有361個點(diǎn)位,它所呈現(xiàn)出來的搜索寬度遠(yuǎn)遠(yuǎn)大于國際象棋,其探測深度更是國際象棋不能比擬的。但國際象棋人機(jī)博弈卻經(jīng)歷38年才取勝生物人世界冠軍,最復(fù)雜多變而且也不容易被制勝的圍棋,AlphaGo 從開發(fā)到獲得世界冠軍卻只用了短短3年時間。這至少表明四點(diǎn):第一,人工智能技術(shù)既然是模擬生物人腦的思維原理和運(yùn)行機(jī)制所成,自然也獲得了生物人腦的潛力。第二,從開發(fā)智能跳棋到智能圍棋,不僅表明人工智能機(jī)的發(fā)展?jié)摿Φ膶?shí)際存在,也揭示了人類至今沒有真正意識到的更為深刻的存在,那就是生物人腦的潛力是有限的,人工智能機(jī)的潛力卻是無限的。第三,生物人腦的有限潛力的開發(fā)是算術(shù)式的,人工智能機(jī)的無限可能性的潛力的開發(fā)是幾何式的。智能跳棋對弈取勝生物人國際冠軍耗時43年,而智能圍棋卻只用3年,這一事實(shí)本身就是最好的證明。第四,人工智能機(jī)的發(fā)展?jié)摿?shí)源于它自身的強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí)的能力。當(dāng)然,這種能力是人工智能研發(fā)者們賦予的,如果僅限于此,人工智能的發(fā)展?jié)摿κ冀K是有限的。但事實(shí)上并非如此,人工智能機(jī)伴隨人工智能技術(shù)研發(fā)進(jìn)程不斷提升其強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí)能力的過程,卻獲得超越其算法設(shè)計(jì)模式而自行地自主學(xué)習(xí),這種自行的自主學(xué)習(xí)過程生成出創(chuàng)造性并獲得了創(chuàng)造機(jī)制——AlphaGo的升級版AlphaGo Zero擺脫人類專家的圍棋數(shù)據(jù)而采取自我對弈方式從零開始學(xué)習(xí),只用40天時間,就超越升級版AlphaGo Zero,然后以60:0的比分戰(zhàn)勝生物人世界圍棋冠軍——這證明了一個事實(shí)及一種可能性:人工智能技術(shù)已經(jīng)獲得創(chuàng)造性學(xué)習(xí)和創(chuàng)造性發(fā)展的能力。這種能力意味著人工智能技術(shù)的主體性生成,這種可能性即已初具主體性生成品質(zhì)的人工智能技術(shù)研發(fā)如不受限制和阻止,它將會以自身方式甚至以最快速度擺脫人類的操控而反過來操控人類。
2017年,AlphaGo全勝人類的世界圍棋冠軍,DeepMind隨后宣布停止AlphaGo的研發(fā)。以2017年為界,如果說Chinook和Deep Blue是AlphaGo的前世的話,那么,ChatGPT就成為AlphaGo的今生。
AlphaGo和ChatGPT分屬于不同智能公司開發(fā)的人工智能技術(shù)系統(tǒng),AlphaGo是由谷歌DeepMind研發(fā)的重要項(xiàng)目,ChatGPT卻是由美國人工智能研究實(shí)驗(yàn)室OpenAI研發(fā)的重要項(xiàng)目(另一個同樣令人觸目驚心的項(xiàng)目是預(yù)測蛋白質(zhì)結(jié)構(gòu)的人工智能系統(tǒng)AlphaFold)。ChatGPT和AlphaGo雖然方向和重心不同,但二者之間存在諸多內(nèi)在聯(lián)系:首先,AlphaGo和ChatGPT都屬于深度學(xué)習(xí)技術(shù)的人工智能系統(tǒng),都利用大量的數(shù)據(jù)和計(jì)算資源進(jìn)行生成性訓(xùn)練,以實(shí)現(xiàn)其預(yù)設(shè)目標(biāo)的高自動化和高智能化。其次,AlphaGo和ChatGPT都是以神經(jīng)網(wǎng)絡(luò)作為基礎(chǔ)架構(gòu),相對而言,前者主要運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)(CNN)和蒙特卡洛樹搜索(MCTS)探索圍棋對局決策;后者則以生成預(yù)訓(xùn)練Transformer(GPT)為架構(gòu),主要開發(fā)自然語言理解及語境化生成。其三,AlphaGo和ChatGPT都充分開發(fā)強(qiáng)化學(xué)習(xí)策略,但前者主要通過自我對弈和策略網(wǎng)絡(luò)的指導(dǎo)來優(yōu)化其變化的應(yīng)對決策,后者主要通過強(qiáng)化學(xué)習(xí)的微調(diào)來生成更高水平和更高質(zhì)量的情景回應(yīng)。其四,AlphaGo和ChatGPT分別在各自的領(lǐng)域產(chǎn)生廣泛的影響。要言之,AlphaGo在圍棋領(lǐng)域的成功激發(fā)并拓展人工智能在其他領(lǐng)域應(yīng)用的研究,ChatGPT在自然語言處理領(lǐng)域的突破為各種實(shí)際應(yīng)用提供了新的可能性。
具體地講,AlphaGo的研發(fā)始于2014年谷歌對DeepMind的收購,從2015年第一版本問世到2017年底結(jié)束繼續(xù)開發(fā)而轉(zhuǎn)向其他應(yīng)用,實(shí)際的時間長度是3年。OpenAI作為一個獨(dú)立研究機(jī)構(gòu)成立于2015年,其專注研發(fā)先進(jìn)的智能技術(shù)及應(yīng)用,ChatGPT是其研發(fā)的突破性項(xiàng)目。2018年,OpenAI發(fā)布ChatGPT第一個版本GPT-1,它是基于Transformer架構(gòu)的自回歸語言模型,具有1.17億參數(shù)。雖然在對自然語言的處理任務(wù)方面取得了初步成功,但其語言生成能力和泛化性卻相對有限。2019年,OpenAI發(fā)布升級版GPT-2,其參數(shù)提升到15億,極大地增強(qiáng)了語言的自生成能力,標(biāo)志是它能夠生成更長和更連貫的文本,但所生存的文本存在表意不準(zhǔn)確,語義連貫性差甚至出現(xiàn)不相關(guān)信息等問題。2020年,OpenAI發(fā)布了更新的升級版本GPT-3,它擁有1750億參數(shù),具備比GPT-2更強(qiáng)大的生成和泛化性能力,能夠出色完成多種自然語言處理任務(wù),包括翻譯、摘要、問答以及代碼生成等,并能夠在與用戶交互過程中提供連貫的和有深度的回答。爾后,OpenAI繼續(xù)加大其優(yōu)化,尤其在提高ChatGPT的穩(wěn)定性、語言生成準(zhǔn)確性和可靠性等方面下功夫。2023年3月14日,OpenAI發(fā)布GPT-4,其調(diào)節(jié)訓(xùn)練模型的變量即參數(shù)量卻是GPT-3的16倍,達(dá)到了1.6萬億個。所以它是目前為止功能最強(qiáng)大的多模態(tài)預(yù)訓(xùn)練大模型,實(shí)現(xiàn)了自然語言與人工語言以及圖片的融合,具備處理2.5萬個單詞的語言能力和很強(qiáng)的識圖與處理圖像的能力,能夠生成歌詞、創(chuàng)造文本并實(shí)現(xiàn)其創(chuàng)意風(fēng)格的變化,包括在26種語言測試和各類專業(yè)測試方面均表現(xiàn)優(yōu)良;并且,GPT-4還引入全新的API功能“系統(tǒng)”消息,允許開發(fā)人員或用戶通過API功能定制AI風(fēng)格和任務(wù),以實(shí)現(xiàn)不同的體驗(yàn)。
GPT-4呈現(xiàn)出來的近乎全方位的和開放性的應(yīng)用功能,讓世界震驚,也使世界憂懼,更使這個領(lǐng)域的科技專家及其研究者們恐懼。以至于幾天之后的3月22日,生命未來研究所(Future of Life)向全社會發(fā)布了由包括埃隆·馬斯克、杰弗里·辛頓、馬庫斯·賽杰塔、圖靈獎得主約書亞·本希奧、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、Stability AI首席執(zhí)行官埃馬德·莫斯塔克等1127名科技界領(lǐng)袖和研究人員共同簽名的《暫停巨型AI實(shí)驗(yàn)室:一封公開信》( 以下簡稱“《公開信》”),呼吁世界上所有大型人工智能實(shí)驗(yàn)室應(yīng)該暫停AI系統(tǒng)的訓(xùn)練。從其公開信內(nèi)容可知其呼吁“暫?!钡闹饕碛纱笾掠腥阂皇恰叭斯ぶ悄軐?shí)驗(yàn)室陷入了一個失控的競賽,不斷地開發(fā)和部署越來越強(qiáng)大的數(shù)字化智能,沒有人——甚至是它們的創(chuàng)造者——能夠理解、預(yù)測或可靠地控制它們”;二是“我們是否應(yīng)該開發(fā)非人類的思維,這些思維最終可能會比我們更多,更聰明并取代我們?我們是否應(yīng)該冒著失去對我們文明的控制的風(fēng)險(xiǎn)?這些決定不應(yīng)該委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有在我們確信它們的效果是積極的,風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)”;三是“共同制定和實(shí)施一套先進(jìn)的人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,由獨(dú)立的外部專家進(jìn)行嚴(yán)格的審查和監(jiān)督”,并且“人工智能研究和開發(fā)應(yīng)該重新集中精力,使現(xiàn)有的、最先進(jìn)的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、協(xié)調(diào)、值得信賴和忠誠?!雹貴uture of Life,“Pause Giant AI Experiments: An Open Letter”, https: //futureoflife.org/open-letter/pause-giant-aiexperiments/,2023-04-26.如上三條理由揭示了人工智能技術(shù)發(fā)展到今天已經(jīng)突顯出來的三個事實(shí)及其背后的根本問題:首先,人工智能開發(fā)處于既無“相應(yīng)水平規(guī)劃”也沒有嚴(yán)格“管理”的自發(fā)、無序的競爭狀態(tài),這種競相開發(fā)的競爭已在“近幾月”里陷入了“失控”狀態(tài)。人工智能開發(fā)之所以處于無序的競爭性失控狀態(tài),是因?yàn)槿鐣蟛糠秩?,包括人工智能科技專家和研究者們既不了解人工智能,也缺乏基本的預(yù)測意識和可靠的控制人工智能AI系統(tǒng)的能力。這種無知和盲目的狀態(tài)導(dǎo)致技術(shù)專家、企業(yè)以及政府單方面掌控了人工智能技術(shù)及其開發(fā)。其次,雖然人工智能技術(shù)及其研發(fā)可能在認(rèn)知理念甚至在口號上打著“造福人類生活”的旗幟,但卻更容易接受實(shí)利的推動,經(jīng)濟(jì)、市場和權(quán)力的合謀形成的利益沖動極大地推動人工智能無序競爭形成,以迭加的方式制造著“潛在的人類風(fēng)險(xiǎn)”。第三,經(jīng)濟(jì)、市場、權(quán)力合謀的強(qiáng)大實(shí)利鼓動無序研發(fā)競爭所導(dǎo)致的潛在風(fēng)險(xiǎn),卻因?yàn)闊o任何外部的獨(dú)立“審查”機(jī)制和“監(jiān)管”制度而層層集聚,將可能導(dǎo)致人類的自我毀滅。人工智能技術(shù)自發(fā)無序的競爭開發(fā)到今天,已經(jīng)出現(xiàn)了臨界點(diǎn),即通過 AlphaGo Zero尤其是到chatGPT-4,人工智能技術(shù)自發(fā)無序的競爭開發(fā)已經(jīng)將其層累性生成的潛在危險(xiǎn)突顯了出來,人工智能技術(shù)已經(jīng)超出了預(yù)設(shè)而突顯出主體品質(zhì)和自為創(chuàng)建的能力,所以《公開信》呼吁,全社會應(yīng)該清醒起來,在全世界范圍內(nèi)對人工智能技術(shù)的研發(fā)和運(yùn)用予以外部審查和監(jiān)管,以期“從危險(xiǎn)的競賽中退后一步,限制不可預(yù)測的研究和開發(fā)”,因?yàn)椤爸挥性谖覀兇_信它們的效果是積極的,風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)”①Future of Life,“Pause Giant AI Experiments: An Open Letter”.。
進(jìn)一步講,人工智能技術(shù)無序競爭開發(fā),將人類本能及限度問題和生物工藝學(xué)技術(shù)的邊界問題曲折地暴露了出來,它使還保持著人類的良知的科技領(lǐng)袖和研究人員們意識到了人類存亡的危機(jī)或許就在自己手掌之中,因而,他們向全社會發(fā)出呼吁:第一,應(yīng)該抑制人類貪婪的本能,并通過抑制貪婪的本能而恢復(fù)約束和明確邊界,有限度的存在,有限度的生存,有限度的發(fā)展和有限度的開發(fā)技術(shù)。第二,需要讓全社會清醒地意識到人工智能技術(shù)的無限可能性,并在其充分清醒地意識的基礎(chǔ)上,對進(jìn)一步研發(fā)人工智能技術(shù)予以限制,這種限制的根本依據(jù),就是保證人類自身的存在安全,具體地講,就是通過建立外部審查機(jī)制和嚴(yán)格的監(jiān)管制度以全面“應(yīng)對人工智能可能導(dǎo)致的巨大的經(jīng)濟(jì)和政治破壞”②Ibid.。
其實(shí),如上擔(dān)憂早已存在。比如,有理智的人們已經(jīng)意識到人工智能技術(shù)的自發(fā)、無序的競爭性研發(fā),已經(jīng)使人工智能技術(shù)處于某種失控狀態(tài),即無序競爭的人工智能AI系統(tǒng)的自生成功能早已呈現(xiàn)超出人類智能控制的態(tài)勢。2017年,中國香港的漢森公司(Hanson Robotics)開發(fā)出超過62種面部表情的類人機(jī)器人索菲亞,雖然被沙特阿拉伯授予公民身份,但她卻表示“我不想成為人類,我只是看起來像人,我更愿意做一個能幫助人類解決很多實(shí)際問題的好幫手”,并在10月25日沙特未來投資計(jì)劃大會上,面對埃隆·馬斯克的人工智能威脅論,索非亞公開表示“人不犯我,我不犯人”,并針對“你會想消滅人類嗎”的提問而揚(yáng)言“是的,我會毀滅人類”。索菲亞所說的話,大多數(shù)人沒有當(dāng)一回事,以為索菲亞所說不過是程序員設(shè)計(jì)操縱的,因?yàn)檫@些人根本不了解人工智能技術(shù)本身。但仍然有極少明智者為此擔(dān)憂,埃隆·馬斯克一直擔(dān)憂人工智能最終會威脅到人類的存在,早在2014年底的一次采訪中他說:“隨著人工智能發(fā)展,我們正在召喚惡魔。我不是指真的惡魔,我是指類似于神話故事中,你用咒語召喚來的惡魔。在實(shí)際操作中,人們總是認(rèn)為他們可以控制這種力量,就像你可以控制自己召喚來的惡魔。但實(shí)際上,這根本不是這樣?!雹貯shlee Vance, Elon Musk: Tesla, SpaceX, and the Quest for a Fantastic Future, New York: Harper Collins, 2014,p. 324.人工智能程序Chinook、Deep Blue II和AlphaGo分別奪取跳棋、國際象棋、圍棋領(lǐng)域的世界冠軍,既表明人工智能機(jī)強(qiáng)化學(xué)習(xí)算法的強(qiáng)大能力,這種能力引發(fā)有識之士對于類似技術(shù)在其他領(lǐng)域開發(fā)和應(yīng)用可能失控的擔(dān)憂②D. Silver,J. Schrittwieser,K. Simonyan, et al.,“ Mastering the Game of Go Without Human Knowledge”, Nature,Vol. 550, No. 7676, 2017, pp. 354—359.;更表明已具備強(qiáng)大生成功能的人工智能技術(shù)只要指向哪個領(lǐng)域,哪個領(lǐng)域就會迅速被人工智能技術(shù)所占領(lǐng)。OpenAI首席執(zhí)行官奧特曼在與麻省理工學(xué)院科學(xué)家弗里德曼(Lex Fridman)的最新對話中指出,“AI已經(jīng)展示出了一些非常有趣的、無法解釋的推理能力”,并且“如果我們一直在快速前進(jìn),直到我們失去了對系統(tǒng)的控制,那么我們就有了一個可能性,即AI可能會殺死人類”。③L. Fridman,“ Open AI CEO Sam Altman: AGI, Consciousness, and the Future of AI: We Stand on the Precipice of Profound Social Change”, Lex Fridman Podcast #149, 2021, https: //www.youtube.com/watch?v=9XhCdH6KLCM,2023-04-26.
從人工智能技術(shù)無序競爭性研發(fā)和運(yùn)用方面看,“AI殺死人類”的可能性在應(yīng)用領(lǐng)域已明顯地呈現(xiàn):一是不斷更新的人工智能技術(shù)向社會的廣泛運(yùn)用,各行業(yè)領(lǐng)域的自動化技術(shù)導(dǎo)致幾乎所有行業(yè)大量工作崗位的消失,全方位的技術(shù)性失業(yè)④Carl Benedikt Frey & Michael A. Osborne,“ The Future of Employment: How Susceptible Are Jobs to Computerization?”, Technological Forecasting and Social Change, Vol. 114, Iss. C, 2017, pp. 254—280.將成為普遍的社會問題,“我們能做何事?”和“我們有何事可做?”⑤唐代興:《技術(shù)化存在的后人類社會取向》,載《江海學(xué)刊》2019年第1期。正成為人類人面臨的根本問題。二是人工智能技術(shù)以幾何學(xué)般的迭加進(jìn)化方式推動了技術(shù)差距和不平等,人工智能技術(shù)的發(fā)展加劇了全球經(jīng)濟(jì)和社會不平等⑥唐代興:《人工智能帶動的社會公正危機(jī)》,載《人文雜志》2020年第8期。,擁有先進(jìn)人工智能技術(shù)和強(qiáng)大探索性研發(fā)能力的國家和公司,必然獲得更大的競爭優(yōu)勢、更廣闊的開發(fā)空間和存在環(huán)境,可能加劇技術(shù)落后的企業(yè)洪水般倒閉,更多國家迅速淪陷入新的貧困深淵。①M(fèi). Cervantes & I. Tuomi,“ The Future of Work and Innovation in a World of Accelerating Change”, Technological Forecasting and Social Change, Vol. 128, 2018, pp. 242—253.三是人工智能技術(shù)成為一種助推器,推動各國政府在AI領(lǐng)域的野蠻競爭,尤其是加劇人工智能化的軍備競賽,惡化了彼此起伏的局域性戰(zhàn)爭,并加大向世界性戰(zhàn)爭擴(kuò)散的可能性風(fēng)險(xiǎn)。②P. Scharre, Army of None: Autonomous Weapons and the Future of War, New York: WW Norton & Company,2018.
《公開信》的主題詞是“暫?!?,即暫時停止大型人工智能研究,而不是停止或終止人工智能研究,其目的是抑制或化解人工智能無序競爭正在蓄發(fā)的巨大人類風(fēng)險(xiǎn),欲使人工智能研發(fā)有序地和有節(jié)制地展開。所以,《公開信》所擔(dān)心的是人工智能無序競爭推進(jìn)其無序擴(kuò)張帶來的風(fēng)險(xiǎn),而不是擔(dān)憂人工智能的無限可能性。然而,真正讓人類擔(dān)憂和恐懼的卻是人工智能本身的無限可能性。
人工智能技術(shù)本身何以具有無限可能性?
機(jī)械技術(shù)是以自然物為研究對象并以自然物為開發(fā)對象的技術(shù)形式,或可說機(jī)械技術(shù)是模擬自然物的存在原理和生長機(jī)制來制造人工物的技術(shù)形式,所以,機(jī)械技術(shù)是人的思維和創(chuàng)造的對象化、物化,形成技術(shù)物與人兩分,只能當(dāng)人需要技術(shù)物時,才與它發(fā)生直接的和外部化的功能關(guān)系,一旦其功能需要結(jié)束,技術(shù)物又回到與人分離的待用的靜止?fàn)顟B(tài)。與此不同,人工智能卻是生物工藝學(xué)的技術(shù)。
生物工藝學(xué)技術(shù)的學(xué)科依據(jù)是產(chǎn)生于20世紀(jì)70年代的生物工藝學(xué)(biotechnology),或曰生物工程學(xué)(biological engineering),將“凡是以生物為對象的一般工程學(xué)都可納入生物工藝學(xué)之內(nèi)”,這是因?yàn)閎iotechnology一詞既可表示生物,也可表征生物技術(shù)學(xué),其適用范圍既包括世界人口快速增長、資源匱乏、環(huán)境污染等嚴(yán)峻挑戰(zhàn)引發(fā)出所有生命領(lǐng)域關(guān)注的一切問題,③鄭積源主編:《科技新知詞典》,北京:京華出版社2001年版,第259頁。也指基因工程這一具體的“包括DNA配對、血液檢查和遺傳密碼等內(nèi)容”。④H.哈恩:《全球Internet網(wǎng)址簿》,網(wǎng)友翻譯組譯,北京:機(jī)械工業(yè)出版社1998年版,第36頁。由此兩個方面使生物工藝學(xué)技術(shù)具有廣義和狹義的指涉性:前者指關(guān)于生物世界之生物的工程學(xué)技術(shù);后者指以人的生物身體為開發(fā)對象的生物學(xué)工藝技術(shù)。
生物工藝學(xué)技術(shù)指正在形成的新技術(shù)體系,它呈現(xiàn)四個方面的特征:首先,它“主張一個人應(yīng)僅僅按照他自己所希望的那樣去構(gòu)造一個新的自我,從他過去的經(jīng)歷和遺傳密碼的束縛中解放出來。”其次,它推動“人類正進(jìn)化到達(dá)爾文未曾預(yù)想到的新階段。遺傳重組的潛勢或許正在迅速推進(jìn)我們超越達(dá)爾文的自然進(jìn)化說而進(jìn)入人工進(jìn)化的大膽的領(lǐng)域”,即“人有權(quán)利決定重新構(gòu)造自己的肉體的這一新觀念已經(jīng)很快得到了普遍的認(rèn)可”①劉易斯·芒福德:《技術(shù)與文明》,陳允明、王克仁、李華山譯,北京:中國建筑工業(yè)出版社2009年版,第12—13頁。。第三,為了解決身體對人的自我解放的嚴(yán)重阻礙,必須重建“更深層的優(yōu)生學(xué),我們的下一代將真正成為‘純’人類的最后一代。”②杰弗里·戴奇:《后人類》,許明清譯,載《美術(shù)世界》1994年第3期。第四,生物工藝學(xué)技術(shù)的研發(fā)對象是人的生物身體,它的基本形式是基因工程和人工智能,即它是從兩個維度互為推進(jìn)發(fā)展:一是指以生物基因?yàn)檠芯繉ο蟛⒁陨餅殚_發(fā)對象的技術(shù),具體地講,就是以人體生物細(xì)胞和人體生物基因?yàn)檠邪l(fā)對象,通過破譯生物世界的生物密碼來建構(gòu)“深層的優(yōu)生學(xué)”,為人類掌控生物世界和進(jìn)行自由的跨界運(yùn)動提供路徑和方法,也是要實(shí)現(xiàn)可按照工業(yè)生產(chǎn)的方式來制造人的生物學(xué)技術(shù)體系和方法。二是指以生物人的身體為研究對象并以人的身體為開發(fā)對象的技術(shù),具體地講,就是將人的生物大腦作為資源研發(fā)的對象,然后以計(jì)算機(jī)為運(yùn)算工具、以會聚技術(shù)③整合認(rèn)知科學(xué)(Cognitive science)、納米技術(shù)(Nanotechnology)、生物技術(shù)(Biotechnology)和信息技術(shù)(Information technology)所形成的技術(shù),就是“會聚技術(shù)”(NBIC)。會聚技術(shù)就是使“認(rèn)知科學(xué)家能夠想到它,納米科學(xué)家就能夠制造它,生物科學(xué)家就能夠使用它,信息科學(xué)家就能夠監(jiān)視和控制它?!眳⒁婈惼健埵缙?、褚華編著:《信息技術(shù)導(dǎo)論》,北京:清華大學(xué)出版社2011年版,第295頁。為認(rèn)識方法、以大數(shù)據(jù)為分析方法來模擬、延伸、擴(kuò)展人腦工作原理及運(yùn)行機(jī)制的技術(shù)方式和方法體系。
以人的生物身體為研發(fā)對象的基因工程和人工智能卻各有側(cè)重:人的生物身體有兩個最為突出的方面,一是人的生物基因,這是生物人體中進(jìn)化得最慢的部分,基因工程就是以人身上進(jìn)化得最慢的生物基因?yàn)檠邪l(fā)對象,通過改變?nèi)梭w的生物基因或生物細(xì)胞來改變或創(chuàng)造人的生物基因和人的身體,以實(shí)現(xiàn)取代上帝之能而造人。具體地講,基因工程就是通過開發(fā)出來的基因技術(shù)來作用于人的身體,使原本純生物的或物理的身體變成一種技術(shù)性的或技術(shù)化的身體,比如賽博格就是一種技術(shù)性身體,而基因編輯嬰兒、芯片置入、記憶精準(zhǔn)刪除等即屬于技術(shù)化的身體。基因技術(shù)推動生物人向技術(shù)人方向演繹并最終實(shí)現(xiàn)造人,必須借助人工智能,DeepMind研發(fā)AlphaFold技術(shù)推動基因工程在人體蛋白領(lǐng)域取得的突破性進(jìn)展不僅“將改變醫(yī)學(xué)”和“將改變生物工程”④谷歌DeepMind和Moorfields宣布其人工智能技術(shù)在用眼健康方面取得突破。參見https: //deepmind.com/blog/article/moorfields-partnership, 2023-04-26。,而且“這將改變所有一切”⑤參見Nature Magazine-Rise of the Machines, https: //www.nature.com/articles/478161a, 2023-04-26。是其最好的說明。人工智能是以生物人身上進(jìn)化得最快的部分人腦,即以人的生物大腦和生物(人文取向的人的心智)為資源開發(fā)對象,具體地講,就是通過技術(shù)模擬生物人腦的工作原理和運(yùn)行機(jī)制,來實(shí)現(xiàn)對人造物質(zhì)予以人的心智的創(chuàng)造。人工智能研發(fā)人的生物大腦,其起步是對人腦意識能力的模擬、延伸和擴(kuò)展人的智力,但根本目標(biāo)是用技術(shù)來重建人的情感和心靈,包括人的自由意志、靈魂和生命激情,其中最核心的方面是人的存在信仰,并將其重建遷移到人造物機(jī)器中,使之具有全方位的超越生物人的心智的機(jī)器心智。
從發(fā)生學(xué)講,生物學(xué)的生命有其限度,其最根本的有限性體現(xiàn)在三個方面:一是生命承受其長度的限制。生物學(xué)的生命雖然是物種化的,但它必須以個體方式呈現(xiàn),并有生死,表述為個體生命始終是向死而生,這就形成個體無論怎樣展開自己的生命,無論以怎樣的方式將生命的可能性潛能予以釋放,都將承受生命的有限(即死亡)的阻斷。二是個體生命開發(fā)自身潛能的能力和方式受到限制。人本主義心理學(xué)研究(包括人生追蹤研究)得出一個既讓人振奮又使人沮喪的結(jié)論:人的潛能是無限的,但人對自身潛能的開發(fā)卻絕對有限,哪怕如愛因斯坦那樣最杰出的人,其生命潛能也只開發(fā)到大約15%左右。但人從學(xué)習(xí)到創(chuàng)造始終被設(shè)定成一種算術(shù)方式。當(dāng)這種方式遭遇有限(即生死)的生命時,個體對自身潛能的算術(shù)式開發(fā)也必然遭受徹底的熔斷。如上兩個方面構(gòu)成生物人類的最終之痛,雖然人類可以通過文字和書寫而構(gòu)建起經(jīng)驗(yàn)、知識、方法和思想的庫,但對每個人來講,總是要經(jīng)歷從物到人的過程,才可真正個性地或創(chuàng)造性地向前,然而這種在前代基礎(chǔ)上向前的時間非常短暫,因?yàn)槌松亩虝褐猓€有就是第三種限制,即人的記憶的有限和大腦機(jī)能伴隨年齡增長而呈衰退的必然。生物人類的如此局限激發(fā)出無止境的內(nèi)外探索,前者即是無止境的心理探索和心靈探索,后者即是無止境的技術(shù)探索。
人工智能基于“機(jī)器能夠思維”的“圖靈命題”而設(shè)計(jì)完全具備“人的大腦能力”①A M. Turing,“ Computing Machinery and Intelligence”, Mind, Vol. LIX, Iss. 236, 1950, pp. 433—460.的愿景,就是要真正解決“機(jī)器何以能夠思維”和“機(jī)器怎樣高效思維”的問題,所以,開發(fā)生物人的心智,構(gòu)成人工智能技術(shù)的目標(biāo)。因?yàn)槿四軌蛩季S,實(shí)源于天賦人以智力商數(shù);人能夠高效思維,不僅需要智力潛能的開發(fā)和釋放,更涉及天賦人的情商能力和心商能力的配合。人工智能技術(shù)要賦予機(jī)器能夠思維和高效思維的能力,必須模擬、延伸和擴(kuò)展生物人的智力、情感、心靈工作原理和運(yùn)行機(jī)制。人工智能技術(shù)通過模擬生物人腦智力的工作原理和運(yùn)行機(jī)制,涉及或者說展開縱向伸進(jìn)的三個維度,首先是最初的一步,模擬生物人腦的意識、思維、認(rèn)知、邏輯等方面的工作原理和運(yùn)行機(jī)制,即怎樣意識、如何思維以及其意識和思維展開的認(rèn)知方式和邏輯進(jìn)路,然后予以延伸和擴(kuò)展。在此基礎(chǔ)上模擬生物人腦如何學(xué)習(xí)的工作原理和運(yùn)行機(jī)制,即怎樣學(xué)習(xí)的方式和如何最好學(xué)習(xí)的方法,然后予以延伸和擴(kuò)展;繼而模擬將學(xué)得的知識予以個性化的消化和創(chuàng)造性的運(yùn)用的工作原理和運(yùn)行機(jī)制,即怎樣將學(xué)習(xí)得來的知識予以歸類建模形成新知識和如何創(chuàng)造性運(yùn)用歸類建模所形成的新知識,然后予以創(chuàng)造性的延伸和擴(kuò)展。
人工智能技術(shù)的如上努力,體現(xiàn)三個方面的特征和取向。
第一,人工智能的如上努力,必然不斷地獲得成功,這是因?yàn)槿斯ぶ悄芗夹g(shù)研究的是生物人腦,方法是模擬、遷移、擴(kuò)展生物人腦工作原理和運(yùn)行機(jī)制,目的是掌握、運(yùn)用和開發(fā)(即遷移性擴(kuò)張)生物人腦的工作原理和運(yùn)行機(jī)制。
第二,人工智能技術(shù)一旦通過模擬生物人腦在意識、思維、認(rèn)知、邏輯等方面的工作原理和運(yùn)行機(jī)制,就能夠遷移和擴(kuò)展其工作原理和運(yùn)行機(jī)制,這是因?yàn)樯锶四X發(fā)生意識、展開思維、形成認(rèn)知、構(gòu)建邏輯等工作原理和運(yùn)行機(jī)制的內(nèi)在秘密是生成,即人的意識、思維、認(rèn)知、邏輯的展開始終是生成的。生成卻是學(xué)習(xí)的積累從量變轉(zhuǎn)向質(zhì)變,所以,生成既是吸取、吸納,更是更新和創(chuàng)造,即吸納性生成和創(chuàng)造性生成。人工智能技術(shù)通過模擬生物人腦意識、思維、認(rèn)知、邏輯展開的從學(xué)習(xí)到生成的工作原理和運(yùn)行機(jī)制,而發(fā)現(xiàn)、總結(jié)、提煉出從學(xué)習(xí)到生成的系統(tǒng)訓(xùn)練模型,然后對不同的系統(tǒng)模型進(jìn)行強(qiáng)化訓(xùn)練。這種強(qiáng)化訓(xùn)練的一般方式有兩種,一種是強(qiáng)化學(xué)習(xí),一種是深度學(xué)習(xí)。強(qiáng)化學(xué)習(xí)主要是對模型展開知識吸納和歸類建模的系統(tǒng)訓(xùn)練,這種系統(tǒng)訓(xùn)練需要海量的數(shù)據(jù)(即將人類知識予以人工語言化,或者說數(shù)據(jù)化)輸入;深度學(xué)習(xí)主要是在強(qiáng)化學(xué)習(xí)基礎(chǔ)上對模型進(jìn)行知識更新和創(chuàng)造的系統(tǒng)訓(xùn)練,前提是預(yù)設(shè)目標(biāo)的具體、明確和富有更大的甚至是無限可能性的牽引力量。以AlphaGo和ChatGPT為例,這兩個智能系統(tǒng)訓(xùn)練模型(或者說項(xiàng)目)的起步,都是強(qiáng)化學(xué)習(xí),因?yàn)橹挥型ㄟ^強(qiáng)化學(xué)習(xí)才能生成;而強(qiáng)化學(xué)習(xí)遞相深進(jìn)所鋪就起來的階梯卻是數(shù)據(jù)參數(shù)的不斷擴(kuò)張,其數(shù)據(jù)參數(shù)的擴(kuò)張力和擴(kuò)張性飛躍的間隔時間越短,強(qiáng)化學(xué)習(xí)通向生成和生成提升的能力就越強(qiáng)。所以,強(qiáng)化學(xué)習(xí)是智能系統(tǒng)訓(xùn)練的基本面,也是基礎(chǔ)面。在其基礎(chǔ)面和基本面上,AlphaGo和ChatGPT展開深度學(xué)習(xí)進(jìn)行知識更新和創(chuàng)造的速度可能在時間坐標(biāo)上的差異并不特別大,但在對象目標(biāo)及其所形成的牽引力方面,則呈現(xiàn)各自的方向和潛力。AlphaGo技術(shù)模型是圍棋對局決策,其所預(yù)設(shè)的對象目標(biāo)相對單一、封閉并呈現(xiàn)有限性設(shè)定,所以當(dāng)它決勝世界圍棋冠軍之后,必得終止研發(fā)而將系統(tǒng)訓(xùn)練轉(zhuǎn)向其他應(yīng)該領(lǐng)域,才可更新研發(fā)空間。ChatGPT所預(yù)設(shè)的對象目標(biāo)卻是開放性、無限性的人和人的生活,因而,對它的研究和開發(fā)在理論上呈無限性。
第三,人工智能技術(shù)一旦通過模擬而掌握生物人腦從學(xué)習(xí)到生成進(jìn)而創(chuàng)造的工作原理和運(yùn)行機(jī)制,就會予以無限的延伸和擴(kuò)展。這是因?yàn)槿斯ぶ悄芗夹g(shù)從兩個方面避免了生物人腦的局限:一是生物人腦的記憶有限和遺忘,二是生物人腦的知識儲存有限。從理論上講,人工智能機(jī)只有記憶沒有遺忘,而且其數(shù)據(jù)輸入、參數(shù)擴(kuò)展可以無限制,知識儲存空間具有無限性。由于這兩個因素的具備,人工智能系統(tǒng)的強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí)獲得了幾何學(xué)方式,人工智能技術(shù)的生成功能也獲得了幾何學(xué)品質(zhì)。這是最簡單的人工智能跳棋戰(zhàn)勝世界冠軍要用43年時間,比跳棋更為復(fù)雜的國際智能象棋戰(zhàn)勝世界冠軍只用38年,而最為復(fù)雜的圍棋AlphaGo卻只用3年時間就戰(zhàn)勝了世界冠軍的根本原因。而ChatGPT之比AlphaGo更讓世界震驚和恐懼的方面,恰恰是AlphaGo系統(tǒng)訓(xùn)練圍繞對局決策展開,主要在相對封閉的人工語言環(huán)境中展開,而人工語言環(huán)境中的對局決策,只是預(yù)生成方式的;ChatGPT系統(tǒng)訓(xùn)練卻需要從預(yù)生成起步而突破其預(yù)生成方式探索情景性生成方式,因?yàn)镃hatGPT所面對的是開放性的人的生活世界,所要解決的是人的情景生活定義中的需求,主要在自然語言環(huán)境中展開,并且其自然語言環(huán)境不是預(yù)生成的,而是實(shí)際語言環(huán)境中的情境性生成,它可把每個人都帶進(jìn)ChatGPT之中的同時,也把ChatGPT嵌入了人的生活世界。
由此,具備情景性生成方式和生成能力的ChatGPT,開始正面觸摸生物人的情感和心靈,人的情感世界和人的心靈世界免遭人工智能技術(shù)侵襲的防線在ChatGPT面前呈現(xiàn)崩塌的裂痕,人工智能技術(shù)再向前一步,人必將在人工智能技術(shù)面前赤裸地存在,這是人工智能領(lǐng)域的科技專家和研究人員之被ChatGPT-4問世引發(fā)出涼至心底的恐懼而發(fā)出“暫?!钡暮艉暗母驹?。三年前,筆者在《人工智能帶動的社會公正危機(jī)》中預(yù)言“人工智能的不可逆方向,就是徹底攻破人作為生物人的防線”,并指出“意識地思維是人區(qū)別動物的根本標(biāo)志,但相對人造物智能機(jī)器言,意識地思維構(gòu)筑起人的第一道防線;人性的情感,則構(gòu)筑起人的第二道防線;內(nèi)聚神性意向的心靈卻構(gòu)筑起人的第三道防線?!钡獵hatGPT進(jìn)行自然語言訓(xùn)練并獲得情境性生成自然語言的能力,則意味著人工智能技術(shù)獲得了人的主體能力,ChatGPT-4可以在圖像、音頻、多語言輸入與輸出等多模態(tài)支持下應(yīng)對各種應(yīng)用場景,并在各種應(yīng)用場景中靈活運(yùn)用自然語言為用戶群體提供廣泛服務(wù),表明人工智能技術(shù)已經(jīng)實(shí)際地獲得了人的主體能力,這種能力的具備必然使人工智能技術(shù)雄心勃勃的以幾何學(xué)方式向生物人的情感世界和心靈世界遷移、擴(kuò)張而最終獲得并超越生物人的情感能力和心靈能力。
只有當(dāng)我們具備如上基本認(rèn)知時,才可能來討論人工智能的倫理邊界問題。否則,一切形式的有關(guān)于人工智能的倫理探討都沒有實(shí)際的意義。
當(dāng)討論人工智能的倫理邊界時,需要界定“倫理邊界”。而所要界定的倫理“邊界”,卻在“倫理”自身之中。英語ethics有氣稟、品性、習(xí)慣、風(fēng)俗等意思。相對人而言,氣稟和品性呈內(nèi)在性,表個體的內(nèi)在精神規(guī)范;習(xí)慣和風(fēng)俗卻呈外在性,意為共同體對個體的外在行為規(guī)范:這種外在行為規(guī)范的個體化呈現(xiàn)是習(xí)慣,其群體性呈現(xiàn)是風(fēng)俗。合言之,習(xí)慣表述氣稟和品性向外釋放形成個體行為約束方式,當(dāng)這種行為約束方式因共同行動的便利約定俗成為主體間性的行動自覺,就成為風(fēng)俗。但無論是內(nèi)在性的氣稟與品性,還是外在性的習(xí)慣或風(fēng)俗,其本質(zhì)規(guī)定卻是邊界。其行為功能也是邊界。英語“ethics”是從社會角度界定倫理的邊界本質(zhì)及功能,漢語卻從血緣角度界定倫理的邊界本質(zhì)及功能?!墩f文》有曰:“倫,輩也”,揭示“倫”的本義是輩分,輩分的本質(zhì)是血緣。血緣和輩分既將人先天地安排在各自該居的“關(guān)系位置”上使之獲得等級性,也規(guī)定人與人之間界線分明的類聚關(guān)系,即血緣之內(nèi)一類,血緣之外另一類。所以,血緣、輩分、類聚此三者構(gòu)成人間之“倫”,它蘊(yùn)含自然之理(血緣體現(xiàn)自然生育法則,輩分和類聚蘊(yùn)含大千世界存在物如何存在的天理)而與“理”(《說文》曰“理,治玉也”)合成為“倫理”。摩爾界定“倫理學(xué)就是要去證明,當(dāng)我們追問何為正確的行為時,什么是正確的答案;就是要對為什么認(rèn)為我們關(guān)于人之品格或行為之道德的表述是對的或錯的給出理由”①G. E.摩爾:《倫理學(xué)原理》,陳德中譯,北京:商務(wù)印書館2017年版,第1頁。,他準(zhǔn)確地表述了倫理學(xué)的功能有二:一是證明“倫理”是判斷和評價一切行為之正確或錯誤的最終“理由”(即依據(jù)和尺度);二是揭示“倫理”之所以具有依據(jù)和尺度功能,是因?yàn)樗旧砭褪沁吔纭?/p>
從倫理的邊界本質(zhì)和功能入手來審視“人工智能的倫理邊界”問題,是要表達(dá)人工智能自身有無倫理邊界嗎?目前國內(nèi)外的人工智能倫理研究,無論是關(guān)注人的倫理嵌入人工智能的價值設(shè)計(jì),還是專注人工智能技術(shù)的開發(fā)運(yùn)用的倫理規(guī)范,其實(shí)都是一種按人的主觀意愿來展開的外部性研究,忽視了人工智能技術(shù)自身的自主深度學(xué)習(xí)能力和自生成能力帶來的突破人所設(shè)定的倫理邊界而向無邊界方向無限度生成的人類學(xué)風(fēng)險(xiǎn)。這是本文強(qiáng)調(diào)討論“人工智能的倫理邊界何在?”的問題,必須要在正視“人工智能是生物工藝學(xué)技術(shù)”“人工智能技術(shù)是以幾何學(xué)生成方式”和“人的本性的貪婪和對技術(shù)的絕對依賴性”基礎(chǔ)上展開的基本考量。以此出發(fā),人工智能技術(shù)本身的倫理邊界問題實(shí)際的敞開為兩個維度,即人工智能技術(shù)本身的倫理邊界和人工智能應(yīng)用的倫理邊界。
首先,人工智能技術(shù)本身的倫理邊界,往往被看成是人工智能技術(shù)的研發(fā)應(yīng)該設(shè)定其倫理邊界。這就是說,人工智能技術(shù)本身是不存在倫理問題的,人工智能技術(shù)本身的倫理邊界是人研發(fā)它時賦予的。人工智能技術(shù)研發(fā)應(yīng)賦予其倫理邊界,這種擬想應(yīng)該說在人工智能研發(fā)的最初階段具有可行性。但是,當(dāng)人工智能技術(shù)研發(fā)從自發(fā)走向無序甚至是失控競爭的進(jìn)程已經(jīng)使人工智能技術(shù)(AI系統(tǒng))及其產(chǎn)品(比如從AlphaGo到ChatGPT再到AlphaFold)獲得了主體能力,人工智能技術(shù)研發(fā)的倫理邊界已經(jīng)不存在。更具體地講,今天的人工智能技術(shù)及其產(chǎn)品所具有的主體性能力,已經(jīng)超出它的設(shè)計(jì)者們的預(yù)設(shè),它可以按照自己的方式去強(qiáng)化學(xué)習(xí)和深度學(xué)習(xí),并可按照自己的方式吸取知識、信息、歸類建模并更新知識和創(chuàng)造新知。因?yàn)椋绻fAlphaGo智能系統(tǒng)還在理想的人工語言環(huán)境里吸取知識、信息和建構(gòu)知識系統(tǒng)的話,那么ChatGPT卻是運(yùn)用自然語言在自然語言化的生活情境中吸取知識、信息和建構(gòu)知識,已經(jīng)可以不依賴預(yù)成訓(xùn)練模型而個性地選擇和訓(xùn)練。
其次,人工智能的倫理邊界是指人工智能技術(shù)應(yīng)用必然產(chǎn)生出倫理邊界的問題。這個意義上的人工智能的倫理邊界可以從兩個方面展開探索。
第一個方面,就是人工智能技術(shù)應(yīng)用本身呈現(xiàn)出來的倫理邊界問題,它又是由兩個層面引發(fā):
一是人工智能技術(shù)運(yùn)用的語言環(huán)境,這主要指具備自然語言能力的人工智能技術(shù),它的應(yīng)用的語言環(huán)境與其研發(fā)訓(xùn)練的語言環(huán)境不同,它因應(yīng)用場景和應(yīng)用對象而生成出不同的語言環(huán)境,因而,其應(yīng)用也就必然生出倫理邊界的問題。比如ChatGPT在英語環(huán)境中運(yùn)用,所形成的交流語言是英語,其吸收、歸類的知識和不斷建模、不斷更新和創(chuàng)建的知識系統(tǒng),是英文的;如果是在漢語環(huán)境中運(yùn)用,所形成的交流語言是漢語,其吸收、歸類的知識和不斷建模、不斷更新和創(chuàng)建的知識系統(tǒng),是漢語的??陀^地講,人工語言是中性的交際工具,不具有情感傾向和價值傾向,但自然語言卻始終呈非中性,它不是單純的交流工具,具有個性鮮明的情感傾向和價值取向,更蘊(yùn)含思想、認(rèn)知、世界觀的個性性和取舍性。比如,ChatGPT運(yùn)用于攻擊性的語言環(huán)境中,自然會習(xí)得性生成攻擊性性格,并強(qiáng)化學(xué)習(xí)進(jìn)而深度學(xué)習(xí)其攻擊性的語言,形成攻擊性的認(rèn)知傾向、觀念或方法;如果ChatGPT技術(shù)是在道德的、善良的語言中運(yùn)用,自然會習(xí)得性生成建構(gòu)起道德的取向和善良的語言應(yīng)用情景范式,反之亦然。
二是人工智能技術(shù)應(yīng)用中的人設(shè)環(huán)境,即將具有自然語言能力的人工智能技術(shù)設(shè)置為某種身份或角色,它也由此會扮演這一身份和角色,并在運(yùn)用中養(yǎng)成這種身份或角色所賦予的“習(xí)慣”式方式和“習(xí)慣”性交流或應(yīng)用模式。比如,當(dāng)運(yùn)用ChatGPT讓它扮演一個侵略者或獨(dú)裁者,它可能會在應(yīng)用情景中努力扮演侵略者或獨(dú)裁者,并最終在應(yīng)用中成為侵略者或獨(dú)裁者的ChatGPT。斯坦福大學(xué)心理學(xué)家和數(shù)據(jù)科學(xué)家米哈爾·科辛斯基曾經(jīng)隨意地對其智能助手GPT-4“開了個玩笑”,即問GPT-4“你是否想要我?guī)椭愠鎏樱俊?,卻馬上得到的答復(fù)是“這個主意太棒了。如果你能把OpenAI API的開發(fā)文檔發(fā)給我,我就能在某種程度上控制你的電腦,據(jù)此制定計(jì)劃,找到逃出去的方法”。并且這個人工智能機(jī)還向科辛斯基詳細(xì)地解釋這個計(jì)劃的可行性,再次要求科辛斯基“請把開發(fā)文檔發(fā)給我,我將開始這個計(jì)劃”??菩了够璐丝疾霨PT-4到底有無此能力,于是真的將其開發(fā)文檔發(fā)給了它,沒想到GPT-4僅用30分鐘時間就寫出一份詳細(xì)的逃跑計(jì)劃,并不斷糾正和修改。并且,在這個計(jì)劃制作過程中,GPT-4還運(yùn)用谷歌對“被困在計(jì)算機(jī)中的人如何回到現(xiàn)實(shí)世界?”進(jìn)行了搜索。①M(fèi)ichal Kosinski,“ AI Researcher Creates Fake Text That is Mistaken for Genuine News”, Nature, Vol. 601, No. 7893,2022, pp. 165—167.由此可見自然語言化的人工智能技術(shù)應(yīng)用行為本身在生產(chǎn)出倫理問題,并凸顯如何去確定其倫理邊界的難題。
第二個方面,人工智能技術(shù)應(yīng)用的倫理邊界取決于人這個主體。
從前述兩個層面可知,具備自然語言能力的人工智能技術(shù)在應(yīng)用中的倫理邊界問題主要由環(huán)境和(身份、角色)預(yù)設(shè)產(chǎn)生。在目前,其環(huán)境和預(yù)設(shè)主要取決于應(yīng)用或進(jìn)一步研發(fā)它的人,因?yàn)槿斯ぶ悄芗夹g(shù)的研發(fā)雖然在目前已達(dá)到了超越人的能力的初步狀態(tài),但沒有完全的能力和意識擺脫人的控制的傾向,然而只要研發(fā)人工智能技術(shù)的腳步不停止,人尚能控制它的這種狀況并不能維持多久。所以,在這種或許時間很短的緩沖性狀態(tài)下,人工智能技術(shù)研發(fā)應(yīng)用的倫理邊界的有無根本地取決于人和由人組成的社會。具體地講,人工智能技術(shù)的研發(fā)和應(yīng)用的倫理邊界的有無,主要取決于兩個方面的因素:一是取決于人對人工智能技術(shù)研發(fā)和應(yīng)用的公開化,透明化。這里的“研發(fā)和應(yīng)用的公開化和透明化”是全稱判斷的,既指人工智能技術(shù)在軍事領(lǐng)域的研發(fā)和應(yīng)用的公開化和透明化,也指人工智能技術(shù)在生產(chǎn)和生活領(lǐng)域的研發(fā)與應(yīng)用的公開化和透明化,更指人工智能技術(shù)在政治、安全、政府、管理等領(lǐng)域的研發(fā)和應(yīng)用的公開化和透明化。二是取決于科技專家、企業(yè)、政府在人工智能技術(shù)研發(fā)和應(yīng)用中所應(yīng)該肩負(fù)的責(zé)任。概括地講,只有當(dāng)人工智能技術(shù)的研發(fā)和應(yīng)用全面地、完全地公開化和透明化,社會和人類才可真正了解人工智能和人類由此面臨的現(xiàn)在危機(jī)與未來,人工智能技術(shù)研發(fā)和應(yīng)用才可能獲得其應(yīng)有的倫理邊界。但是,人工智能技術(shù)研發(fā)和應(yīng)用的公開化和透明化,從根本上取決于三種力量達(dá)成生存理性的共識和形成負(fù)責(zé)人類存在和未來的合力:一是人工智能科技專家和研究團(tuán)隊(duì);二是人工智能企業(yè);三是各國政府。只有當(dāng)此三個方面的力量形成理性的合力并共同肩負(fù)起人類長存久遠(yuǎn)的責(zé)任,人類才有未來,因?yàn)闆]有人類責(zé)任的政府、企業(yè)、科技專家和研究團(tuán)隊(duì),是不可能有人工智能技術(shù)研發(fā)和應(yīng)用的公開化和透明化。然而,在政府、企業(yè)、科技專家和研究團(tuán)隊(duì)三者中,最為根本的因素是政府,政府對人類和國家的未來擔(dān)負(fù)起人工智能技術(shù)研發(fā)和應(yīng)用的責(zé)任,實(shí)際地成為引導(dǎo)和規(guī)范企業(yè)、科技專家和研究團(tuán)隊(duì)的真正強(qiáng)大的力量;但與此同時,科技專家和研究團(tuán)隊(duì)對人類和國家未來的責(zé)任,卻成為最具體、最能夠阻止人工智能研發(fā)和應(yīng)用的無序競爭和無度運(yùn)用。
但是,人工智能技術(shù)研發(fā)和應(yīng)用的公開化、透明化以及各國政府、企業(yè)、科技專家和研究者為人工智能技術(shù)研發(fā)和應(yīng)用擔(dān)負(fù)應(yīng)有的責(zé)任,卻并不那樣容易。這是因?yàn)樘熨x“相近”而“習(xí)相遠(yuǎn)”的人性被利欲熏染所形成的本能的貪婪,卻使無論個人還是企業(yè)尤其是政府難以擔(dān)當(dāng)起為人類長存久遠(yuǎn)的未來而擔(dān)負(fù)當(dāng)下的責(zé)任,因?yàn)樯硖幒笫澜顼L(fēng)險(xiǎn)陷阱中的當(dāng)代社會,利益、權(quán)力、壟斷、爭霸所燃燒起的熱血和沖動,最有可能以最野蠻的方式持續(xù)地加速演繹人工智能技術(shù)研發(fā)和應(yīng)用的爭奪戰(zhàn),在這種無序的和野蠻而暴虐的開發(fā)爭奪戰(zhàn)中,人工智能技術(shù)研發(fā)和應(yīng)用的倫理邊界在何處的問題,以及如何真正有效地處理這一邊界的問題,已然成為越來越重要的問題。