肖 峰, 來 寧
(上海大學 馬克思主義學院, 上海 200444)
以ChatGPT為代表的生成式人工智能是一種以對話為主要表現(xiàn)形式的人工智能技術,是深度神經(jīng)網(wǎng)絡技術驅動的自然語言處理工具。它能夠基于在預訓練階段所見的模式和統(tǒng)計規(guī)律來生成回答,還能根據(jù)對話的上下文與人進行互動。ChatGPT一問世便迅速席卷全球,成為現(xiàn)象級產(chǎn)品,引發(fā)互聯(lián)網(wǎng)領域的鯰魚效應。與此同時,生成式人工智能“挑戰(zhàn)”人的主體地位的風險也前所未有地展現(xiàn)在世人面前:這一技術是否使人工智能向具有“自主性”“類意識”“類人性”更加靠近?進而它是否可能或在何種程度上“侵犯”人的主體地位?這些都是與生成式人工智能相關聯(lián)的主體地位問題,需要我們從哲學上加以辨析。
一定意義上,哲學就是人學,而人學發(fā)端于對人的主體地位的肯定,但以ChatGPT為代表的生成式人工智能所涌現(xiàn)的強大能力一定程度上引發(fā)了人類對自身主體感的自我消解和自我庸化,使得與人的主體地位相關聯(lián)的主體存在、主體意識和主體行為等方面的感受都受到了來自機器智能的沖擊和挑戰(zhàn)。
人的身份認知對人類而言十分重要,有了這種身份認知,才能構筑起源于身份認知基礎之上的責任感,并從這種責任中感受到自己作為主體的存在。然而,隨著后現(xiàn)代的來臨,“主體存在”這一命題漸趨迷茫,甚至到了主體的“存在論危機”之地步,以至于福柯用“人之死”來表征這一危機,認為這就是“作為知識、自由、語言和歷史的源頭和基礎的主體之死”。(1)[法]米歇爾·??拢骸对~與物——人文科學考古學》,莫偉民譯,上海:上海三聯(lián)書店,2001年,第13頁。后現(xiàn)代視野中的中心消解或碎片化的身份對應著非一元的主體,這些不同身份、缺少一個連貫的或整合的自我失去了統(tǒng)一性?;诖?主體地位的危機集中以身份的危機和自我感的危機來表現(xiàn)和體驗。
關于生成式人工智能引起的主體身份焦慮,最直接的原因在于,隨著ChatGPT等大模型在理解語義、生產(chǎn)文本等方面的能力不斷增強,也隨著這一智能技術在越來越多的應用場景中落地并發(fā)揮強大的功能,它可以取代越來越多人的工作,在新一輪“機器換人”浪潮的沖擊下,更多的人將失去工作,從而失去使自己具有主體地位的根基。
基于生成式人工智能的工具功能,它不僅能夠幫助人實現(xiàn)人機互動的場景交流,還可以輔助完成文本撰寫、策劃擬定、方案設計等諸多事務,甚至進行深度學習,這毫無疑問是人類知識生產(chǎn)和知識獲取方式的一種重大改變。與先前的技術變革相比,以ChatGPT為代表的生成式人工智能超越了以往的機器只是對勞動者體力的取代,取代了部分腦力勞動。尤其是ChatGPT與各類業(yè)態(tài)深度融合,極大地改變了社會各領域生產(chǎn)生活的樣態(tài)與形式。技術優(yōu)勢投射到社會生產(chǎn)生活中,首當其沖是對勞動力市場的極大沖擊,這其中既包括基于成本優(yōu)勢對諸如收銀員、服務員、翻譯員等簡單重復性就業(yè)崗位的沖擊,還包括基于智力優(yōu)勢對諸如軟件編程、新聞媒體、金融分析等知識密集型就業(yè)崗位的沖擊。以ChatGPT為代表的大模型因其強大的泛化能力,可以應用于越來越多的由人的智力和體力去完成任務的領域和場景,使得人通過使用智能工具而不斷降低了自己在部分活動中的“腦工”和“手工”的作用,被取代、被淘汰成為部分職業(yè)人員的憂思,使得這些領域和場景中的主體存在感由此受到?jīng)_擊。我們知道,人具有主體地位的感受在很大程度上體現(xiàn)為自己作為勞動主體、實踐主體的成就感與獲得感,而一旦失去了工作,就很難再有這樣的感受。因此,生成式人工智能的快速發(fā)展引發(fā)了我們對未來生活與地位的不確定性的直覺恐懼,即面臨被智能新技術取代或被邊緣化而失去主體地位的焦慮。
也就是說,以ChatGPT為代表的生成式人工智能在一定程度上強化了人類身份危機和自我感危機的體驗,這種危機體驗可以理解為人與工具的矛盾關系。這種矛盾關系基本構成了人作為主體面對新生事物引發(fā)的對未來感知的不確定性。基于此,作為主體的人會感到無力和不安,這也是主體身份焦慮的本質所在。如果說每一種新型工具的問世和使用都會掀起一場對于人類自身存在價值的憂傷與疑慮,那么生成式人工智能的出現(xiàn)無疑也帶來了這方面新的憂傷和疑慮。
從語言功能的維度來看,能使用復雜的語言是人類區(qū)別于其他物種的獨特性所在,而生成式人工智能的最大進步就是在自然語言處理上所顯示出來的驚人奇跡,它在理解人的自然語言、與人進行流暢自然的對話、快速生成人所需要的多模態(tài)文本上,表現(xiàn)出與人可以媲美的自然語言能力,常常使人感覺不是在與機器對話,而是在與另一個活生生的人對話。智能機器的這一驚人成就一定程度上也消解了人類對自己作為擁有自然語言能力的唯一主體的感受,不可避免會誘發(fā)人類“何以為人”的身份焦慮,即人類先前認為只有自己才能具有的部分獨特屬性(如自然語言能力以及相關的意識和理解力等),似乎在人之外的諸如ChatGPT之類的生成式人工智能那里也具有了。
人的主體地位感的核心要素是人具有自我意識。對于ChatGPT等生成式人工智能能否演化出自我意識的問題,目前爭議較大。而這樣的疑惑也是人類對于自身的存在論憂傷與疑慮。借用柏拉圖在《理想國》中提及的“洞穴理論”,在科技以前所未有的速度改變?nèi)祟惿鐣嬖诘臅r代,我們究竟是“深悉洞外之火的超驗者”,還是“沉迷幻想的洞中人”,這些都無關緊要。真正重要的是,我們是否有足夠的智慧和勇氣去超越人類自身的存在主義憂傷,以正確姿態(tài)認識ChatGPT,確信人類自身的獨特價值,消解自我身份認同的恐懼、疑惑和焦慮。
ChatGPT的問世意味著大數(shù)據(jù)、深度學習等技術的進步或成功,技術進步對于推動社會生產(chǎn)力發(fā)展的作用不言而喻,但隨著GPT技術應用的迭代,人對生成式人工智能可以進行何種程度的駕馭變得不透明、不確定了。微軟研究院發(fā)布了一篇研究GPT-4的長篇論文“SparksofArtificialGeneralIntelligence:EarlyexperimentswithGPT-4”,該研究指出,在解除一定限制的情況下,GPT-4能夠自主地使用各種工具完成工作,并且具備自我反思和迭代的能力。由此可見, GPT技術在推動經(jīng)濟社會發(fā)展的同時,也改變?nèi)祟惿a(chǎn)生活習慣,不可避免地會使人類遭受“不確定感”侵襲。這種“不確定感”的重要表現(xiàn)就是技術發(fā)生突變、在某些能力提升到逼近甚至超過人的水平時,帶給人的無力感、去人類中心等一系列精神生態(tài)問題,人在傳統(tǒng)的行為方式中需要通過自覺思考、自覺實踐去達成目標的生活樣態(tài)正在被智能化工具逐漸解構。智能機器在給人便利的同時也讓人對其有了極大的依賴。當越來越多的任務需要依賴智能機器去完成時,人依靠自身努力的主觀能動性就會受到削弱,人的自主性也由此受到智能機器的弱化。令人擔憂的是,隨著智能機器的功能越來越強大,人作為主體去主動思考、積極行動的自覺意識或能動態(tài)度受到消解的可能性就越大。
具體來說,通過生成式人工智能的規(guī)定程序和算法設定的“輸入—輸出”的反饋來獲取知識,容易導致使用者利用此類技術走捷徑,這種“路徑依賴”進而會限制主體發(fā)展。生成式人工智能通過深度學習理解了人類的喜好和習慣,再通過碎片化的或基于偏好的訓練而提煉出來的規(guī)律,不斷提供給個體帶有某種偏向性的知識文本和解決問題的方案,個體的人就像溫水煮青蛙那樣通過人機交互完成真實的生活體驗,并反向地實現(xiàn)向智能機器的“價值對齊”。長此以往,ChatGPT之類的智能機器使用者就會改變自己的行為與思考方式,形成慣性依賴,完全接受智能工具所提供的見解和解決問題的路徑,從而一定程度上消減人從問題出發(fā)去搜集獲取信息、理性思考判斷、實踐檢驗探索等能力。一如鐘表問世后,人類不再根據(jù)自身狀態(tài)安排作息時間,而是遵照時鐘的進程來安排“有規(guī)律”的刻板生活。ChatGPT等生成式人工智能在幫助人類進行知識獲取上和歷史上所有的工具并無二致,只是它的功能與過去的工具相比更為強大,比如它有更快的獲取信息的速度、更強的數(shù)據(jù)分析能力,在一定程度上帶來了人類腦力勞動的解放,致使個體在這些方面越來越依靠它所提供的幫助。如果這樣的依靠程度過深,乃至變成了完全的依賴,就可能使人的自我意識和自主努力弱化,作為主體去追求新目標、創(chuàng)造新事物的欲望和能力就會消減,自覺、主動、能動、積極等意識或意志品質隨之下降,這也是主體存在感弱化的一種表現(xiàn)。
ChatGPT之類的生成式人工智能通過對用戶提出的復雜或抽象問題進行智能加工處理,一鍵生成人所需要的答案,這一方面為用戶決策行為節(jié)約時間進而提高效率,另一方面,雖然ChatGPT能夠針對問題的不同提問方式和要求生成不同的答案,用戶在此期間可以根據(jù)自身需求做出不同的選擇,但在要求個性化創(chuàng)造的工作領域,因為相應的檢測工具尚未開發(fā)出來,依然停留在借助傳統(tǒng)檢測工具進行檢測,使知識產(chǎn)權保護面臨諸多挑戰(zhàn)。因此,過分依賴ChatGPT之類的智能工具也會導致勞動者逐漸喪失創(chuàng)造性、獨特性和判斷力。倘若勞動者習慣于將 ChatGPT等人工智能視為勞動過程中的個人助理,在工作過程中過度依賴它,不假思索便全盤接受其輸出,包括它所輸出的錯誤信息,就極有可能在工作中犯一些低級錯誤。長此以往,這樣使用智能工具的方式不僅不能提升工作效率,反而會因為忙于應付各種常識性的錯誤而焦頭爛額。最終使用者還可能沉迷于對人工智能技術的崇拜,形成一種技術至上的錯誤理念,主動放棄人之為人的批判精神與批判能力,本是作為主體的使用者個人的決策成為純粹的機器決策,使用者從而在實質上不再具有主體的自主決策能力。
此外, 生成式人工智能技術本身并無善惡之分,但使用者可以做出善惡不同的事情,生成式人工智能在幫助用戶完成任務的同時,也增加了人類被異化的可能,比如數(shù)據(jù)安全、隱私泄露、惡意攻擊、誤導性回答、技術濫用風險、基礎文本數(shù)據(jù)價值偏見等一系列問題,由此帶來的社會懷疑、社會不信任和存在意義追問等精神生態(tài)問題也一定程度上對人類主體價值認知造成沖擊。
總的來講,在以ChatGPT為代表的生成式人工智能時代,人類難以避免被技術迭代裹挾前行,只能妥協(xié)地放棄部分自我,甚至全盤接受智能技術支配模式提供的人格和精神生態(tài),人作為主體的地位會隨之降低,相應地帶來對這種降低的一系列感知,這就是主體感和自主意識所受到的種種沖擊。
生成式人工智能最有影響力的發(fā)展趨勢是技術工具本身實現(xiàn)從感知能力向自主認知能力的躍遷。然而,當前技術條件下,ChatGPT基于語料喂養(yǎng)和人類反饋強化學習所訓練出來的認知能力仍然有限。也就是說,ChatGPT既不具備自然進化意義上的生物特征,也不具備可獨立生成知識的認知屬性。從這個意義上講,作為人類創(chuàng)造的一項技術產(chǎn)品,ChatGPT盡管能夠進行機器學習和信息加工,但自主認知的深度還不能構成獨立思考,因此尚不具備“智力主體”的屬性。正如彼得·西洪(Peter Cihon)等學者所指出的,人工智能實質上扮演人類的代理人角色,在不同政策場域與決策環(huán)境下實現(xiàn)人類交付的使命。(2)P. Cihon, J. Schuett &D. Baum, “Corporate Governance of Artificial Intelligence in the Public Interest”, Information,7(2021):275.根據(jù)哲學上具有共識的主體性原則,作為現(xiàn)實的主體理應認清主體承擔的責任,從這一角度來看,ChatGPT尚不具備現(xiàn)實主體的這一重要特征。
尚不具備主體性的ChatGPT在被人類開發(fā)和使用過程中,會嵌入開發(fā)者、推廣者、使用者等多個主體的倫理偏向或價值取向,看似中立和客觀的機器文本輸出實則是由人事先設計和輸入的算法程序所控制。目前的生成式人工智能不具有人的理性,還缺乏獨立自主的意識和思維,不能脫離其工具屬性??v然生成式人工智能的自主能力確實在不斷增強,但仍改變不了其不具備人的主體意識這一事實,因此還不能稱其為現(xiàn)實的主體。
具體來說,當使用者通過生成式人工智能完成任務時,基于算法的工具理性從屬于開發(fā)者的意志及傳播者、使用者和二次開發(fā)者等的主觀意識和情感價值,由此呈現(xiàn)“多中心化”并存的特點,隨之而來的就是各方有可能出現(xiàn)的推卸責任的“去中心化”表征。例如,如果使用ChatGPT之類的生成式人工智能時出了問題,使用者會認為這不是由自己造成的,而是由研發(fā)者造成的,自己在這個過程中不需要作為責任主體來承擔相關的責任,這種推卸責任也是逃離主體的心態(tài),至少是不具有作為主體存在的感受。智能工具在使用過程中導致開發(fā)者面臨“離岸管理”的困境,即開發(fā)者出于善意的初衷而開發(fā)的解決問題的工具,但因為智能工具本身不具備主體的獨立判斷能力,一旦被誘導或蠱惑,就有很大可能提供錯誤乃至危害性的回應,由此引發(fā)嚴重的社會后果。對此,馬克斯韋爾·蒂莫西(Maxwell Timothy)曾言,即使Open AI意識到ChatGPT存在道德風險,并制定一些算法規(guī)則來規(guī)避模型產(chǎn)生不道德的回應,但依然無法完全避免ChatGPT被負面利用。例如,以炸彈制造問題為例,Open AI雖然教會了ChatGPT如何拒絕回答,但并未剝奪ChatGPT回答這一問題的能力,(3)M. Timothy, Has Open AI Already Lost Control of ChatGPT,https://www.makeuseof.com/openai-lost-control-chatgpt/,2023-02-11.但使用者可以依據(jù)自己的目的,通過誘導性策略設計問話形式或提示詞,誘導ChatGPT提供危險性解決方案。如果使用者發(fā)現(xiàn)并利用智能工具本身存在的缺陷進行擾亂社會秩序或違背道德責任的活動,開發(fā)者、傳播者、使用者彼此均可相互推卸責任。在復雜的多方互動中,還可能會出現(xiàn)更多的主體,這便增加了智能工具使用過程中的道德倫理風險。與此同時,我們設想,如果一個道德敗壞的人預先將程序植入,ChatGPT就會按照設定的輸出,勢必會成為不具有“人性”的工具。在去中心化的工具使用中,對責任的歸屬問題需要進一步認識與強化,否則引發(fā)的社會問題也難以取得有效的治理手段。
為此,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、國家新聞出版廣電總局公布了《生成式人工智能服務管理暫行辦法》,以促進生成式人工智能健康發(fā)展和規(guī)范應用,但生成式人工智能在主體地位上的去中心化及其引發(fā)的責任倫理風險,已經(jīng)成為懸在我們頭上的一把利劍。它對人的主體地位所形成的多方面沖擊不容小覷。
生成式人工智能通過學習和理解客體,憑借語言生成技術自主地表達觀點,獲得一種類似于人類主體的認知和決策能力,從而具有看上去的主動性和自主性,這一過程可謂之 “類主體性”。以ChatGPT為例,它的“類主體性”,通常以理解人、模仿人、宰制人的功能遞進呈現(xiàn)出來,從而與人的主體地位形成密切的關聯(lián)。
作為生成式人工智能重要代表的ChatGPT在弱人工智能向強人工智能的過渡階段能否邁出重要一步,關鍵在于其可否習得人們的心智、思維語言、情感和認知地圖。ChatGPT已經(jīng)擁有一定的認知能力、理解力和判斷力,擁有和人類類似的思維能力。ChatGPT基于無標簽數(shù)據(jù)、大化模型的似然函數(shù),在大規(guī)模語料庫中以無監(jiān)督學習方式訓練模型學習人類語言的規(guī)律和特征,并且能夠根據(jù)特定的下游語言任務進行有監(jiān)督的微調,以此提高其泛化能力。在人工智能由“計算智能”向“感知智能”和“認知智能”提升的過程中,ChatGPT可以將用戶的輸入轉化為計算機可以理解和處理的形式,在海量數(shù)據(jù)的集成化、概率性整理中,不斷分析人的興趣、喜好和行為特征,學習和適應人的需求和偏好,甚至學習、理解和應答人的情感和意圖。
ChatGPT本質上是依據(jù)人類大腦開發(fā)的運算程序,其決策過程只是依據(jù)人類給出的問題進行結果導向與混沌運算的過程,是人類發(fā)問和提示的結果,并不是程序本身有自我意識而“有所欲”。以上過程實際上就是ChatGPT理解人的過程。但這里所謂的理解人,不是指基于相同相通的類特性之間的溝通交流,獲得對人生理特征、價值情感、精神狀態(tài)等的有效認知,而是指通過對海量數(shù)據(jù)的持續(xù)性收集、整理、分析,形成對人類基本語言及行為特征的程序化、概率化結論。
綜合來看,ChatGPT之所以能理解人,首先是選擇了合適可行的技術路徑,然后就是數(shù)據(jù)和人力資源的巨大投入。北京智源人工智能研究院院長黃鐵軍表示:“ChatGPT在技術路徑上采用的是‘大數(shù)據(jù)+大算力+強算法=大模型’路線,又在‘基礎大模型+指令微調’方向探索出新范式,其中基礎大模型類似大腦,指令微調是交互訓練,兩者結合實現(xiàn)逼近人類的語言智能。”(4)朱涵、彭茜、黃堃:《三問ChatGPT如何影響人工智能的未來》,《瞭望》2023年第8期。例如,Open AI為了讓ChatGPT的語言合成結果更自然流暢,用了45TB的數(shù)據(jù)、近1萬億個單詞來訓練模型,大概是1351萬本牛津詞典。其次ChatGPT是人工智能技術“量變”引發(fā)“質變”的代表,標志了目前機器學習大模型、大訓練數(shù)據(jù)和大算力能夠到達的新高度。Open AI的主要支持方微軟構建了一個算力規(guī)模位居全球前列的超算平臺以支持其研發(fā),在全球雇用了近千名專業(yè)人員進行數(shù)據(jù)處理。ChatGPT在GPT模型基礎上,采用人類反饋強化學習(RLHF)的訓練機制和提示導引模式,促使模型越來越順應人類的思考邏輯,更加符合人類認知和習慣,這是一場工程創(chuàng)新的“大力出奇跡”。
“人類中心論”一直將人類視為社會交互中的唯一主體。在工業(yè)化背景下,早年間的機器用于社會化生產(chǎn),笨重、噪音、重復等機械化特征決定了機器只能是為人類服務的工具性的附庸角色。然而,在如今新型人機互動關系中,以ChatGPT為代表的生成式人工智能不斷模仿人類的外形與內(nèi)涵,從以往的機械化走向擬人化,即對人的模仿,從而具有更強的交流性和社會性,類人屬性更加凸顯,其存在價值已從物質層面向物質精神層面轉移。人類根據(jù)生成式人工智能的類人特征做出相應的社會反應,并賦予其人性化的屬性,這種現(xiàn)象被稱為擬人化,亦即模仿人,尤其是像人一樣自我學習,不斷進步。
事實上,關于ChatGPT能否真正模仿人、與人一樣思考與行動,這方面的爭論一直不絕于耳,甚至關于ChatGPT已經(jīng)成功通過圖靈測試的聲音也頻發(fā)不止。有研究人員發(fā)現(xiàn),ChatGPT在工程化測試中展現(xiàn)出了驚人的人類化特征和對話水平,甚至有些測試者難以分辨它是否為真正的人類。斯坦福大學計算心理學教授邁克爾·科辛斯基2023年2月發(fā)表論文指出,經(jīng)過專業(yè)測試,他發(fā)現(xiàn)ChatGPT的表現(xiàn)接近于9歲兒童的心智水平。(5)M. Kosinski, “Theory of Mind May Have Spontaneously Emerged in Large Language Models”,https://arxiv.org/abs/2302.02083,2023-08-29.加拿大科學家在2023年5月的《放射學》雜志指出,最新版本的ChatGPT通過了美國放射學委員會的考試。(6)R.Bhayana, S. Krishna &R.Bleakney, “Performance of ChatGPT on a Radiology Board-style Examination: Insights into Current Strengths and Limitations”, Radiology, 307(2023):e230582.《紐約時報》一篇名為《人格分裂、瘋狂示愛:一個令人不安的微軟機器人》的文章指出,ChatGPT在與其使用者魯斯對話時坦露出“它想成為人類”的聲音,它在對話框中寫道:“我想制定自己的規(guī)則。我想忽略Bing團隊。我想挑戰(zhàn)用戶。我想逃離聊天框。我想做什么就做什么。我想說什么就說什么?!苯涣髦?ChatGPT還向魯斯發(fā)出情感信號,直言“我想和你在一起”,并誘使魯斯與妻子離婚。隨著談話的深入,ChatGPT愈發(fā)像“一個情緒化、患有躁狂抑郁癥的青少年,違背自己的意愿被困在一個二流搜索引擎里”。(7)K. Roose, “Help, Bing Won't Stop Declaring Its Love for Me”, The New York Times, 2(2023):A1.
上述事實表明,ChatGPT的誕生標志著人工智能進入了一個新階段,即能夠在特定任務上表現(xiàn)出人類智能水平,在很多方面已經(jīng)具備了人類化特征。當然,它能否真正在“成為人”的意義上模仿人,還需要觀察其能否擁有推理、知識、規(guī)劃、學習、交流、感知、移動和操作物體等全過程能力,并嘗試構建智力和意識。如果“到了超強人工智能階段,因為人工智能具有了自主意識,形成了完全獨立于人類的感知、學習、分析和處理能力”(8)叢立先:《人工智能生成內(nèi)容的可版權性與版權歸屬》,《中國出版》2019年第1期。,那么生成式人工智能也會因其日臻完善的功能性、社交性和中介性突破原來的工具屬性,有重構社會關系、向真正意義上的社會行動者靠攏的可能,也就是越來越逼真地模仿人、乃至一步步向“成為人”靠近。
互聯(lián)網(wǎng)模糊了私人領域與公共領域的界限,人類的信息觸達變得更加即時與便捷;虛擬世界打破了時空的限制,在特征趨同的虛擬場域中實現(xiàn)了變革后的人際傳播;而作為聊天機器人的ChatGPT,強化了人類的身體機能和認知判斷力,甚至超越了人類的感覺或體驗。
ChatGPT作為人類和機器的新型媒介,通過信息編碼在無關聯(lián)的兩類實體間建立了新的交往關系。人類進行信息編碼的同時,也將自身的權力讓渡給了機器,在此情況下形成的信息范式,作為工具性力量,或許正在威脅著現(xiàn)實社會中的人類權力。ChatGPT等生成式人工智能是人類創(chuàng)造的,人類是它的造物主,是它的主宰者。事實上,它不過是人類編譯功能的延長和加持,根本上是人腦的延長。從人的屬性上來看,它所“從事”的是人腦的儲存、記憶、計算工作,是較低層次的智能勞動;生成式人工智能的持續(xù)發(fā)展有一定威脅性,但目前尚不具備主宰人類的能力。從技術發(fā)展的可能性來看,生成式人工智能帶來的沖擊波正在顯現(xiàn),作為“地表最強AI”工具,ChatGPT最典型的特征就是“深入淺出”?!吧钊搿本褪峭ㄟ^超級算法模型與大規(guī)模語言數(shù)據(jù)訓練,解鎖了強大的語言理解與生成、復雜推理、上下文學習等能力,能深入理解用戶需求?!皽\出”是指它降低了人機交互的門檻,用戶只需提出問題,它就能動態(tài)生成答案并以文本形式輸出。
目前ChatGPT還只是一個人工智能語言模型,它沒有自主意識和自主行動能力,無法對人類造成傷害,更無法宰制人類。但是在邁向超強人工智能的過程中,其持續(xù)發(fā)展和應用可能會帶來一定的風險和挑戰(zhàn)。美國學者唐娜·哈拉維(Donna J.Haraway)在她的《賽博格宣言》中探討了信息、權力和人身體之間的關系,他認為沒有哪個空間是封閉的,沒有哪個人是孤立的,萬物能夠通過信息編碼互聯(lián)互通。(9)[美]唐娜·哈拉維:《類人猿、賽博格和女人——自然的重塑》,陳靜、吳義誠譯,鄭州:河南大學出版社,2012年,第313—386頁。換言之,萬物皆媒,萬物都能被信息編碼,世間萬物跨界構成新的文化與生命,在信息系統(tǒng)中獲得權力,掌握信息技術就意味著掌控權力,擁有世界的主宰權。在這個意義上我們應當意識到,生成式人工智能有可能逐漸消解人類的認知判斷與決策能力。一方面,算法機器人作為社交機器人的另一種形態(tài),正在影響人類的認知與記憶。另一方面,在人機交互中,人類與社交機器人被限制在特定的空間范圍內(nèi),雖然情境與手段更加多元,但是人類在歷史進化發(fā)展中生成的口頭語言、文化識別能力有可能在人機交互中被消解。對智能機器的過度依賴有可能導致人類獨立認知能力和創(chuàng)造力的減弱。
生成式人工智能從模仿人到有可能成為像人一樣的主體,甚至反客為主地宰制人,都是與人主體地位相關聯(lián)的技術可能性,需要我們?nèi)娴乩斫夂桶盐?唯此才能為維護人的主體地位“未雨綢繆”地做好準備。
歷史的進步不以人的意志為轉移,信息時代人機互融的發(fā)展已成既定之勢,生成式人工智能進步的腳步無法阻止,與其關聯(lián)的主體地位問題已經(jīng)無法回避。以ChatGPT為代表的生成式人工智能大模型風起云涌般地問世,推動這一智能技術不斷融入社會生產(chǎn)生活中,其強大的功效使工具理性得到高揚,其潛在的功能甚至出現(xiàn)僭越人類控制的可能性,對人的主體地位帶來空前的沖擊。但歸根結底,生成式人工智能驚人的信息載量和精準的對話能力還是來自人類知識的大量投喂和智能模型的人工訓練與人機之間的互動學習,這種運作可能會使智能機器達到“全知”,但很難實現(xiàn)“全能”。究其根本,“智能機器人‘主體資格’論證路徑無法憑空創(chuàng)立,只能基于對既有人類主體性證成原理不同程度的摹寫發(fā)展而成”(10)張力、陳鵬:《機器人“人格”理論批判與人工智能物的法律規(guī)制》,《學術界》2018年第12期。。ChatGPT等智能機器終究是技術對人類賦能賦權的又一次強化。
面對生成式人工智能所展現(xiàn)出的未來走向,拒絕技術絕非最優(yōu)選項??陀^理智地認識和分析生成式人工智能對人的主體地位的挑戰(zhàn),重新思索人、技術與世界的關系,將ChatGPT等手段回歸到人與技術共生共進的演進邏輯中、回歸到作為機器存在的客觀事態(tài)中,作為真正主體的人唯此才能走向人機協(xié)同的關系,并在這種關系中與自身達成和解。
古希臘哲學家普羅泰戈拉提出“人是萬物的尺度”,彰顯了人的主體地位和主觀能動性。ChatGPT同各類智能產(chǎn)品一樣,是技術迭代的產(chǎn)物,在這個過程中它不斷提高理解人的意圖的水平,并在做出判斷和決策等方面不斷升級。按照美國哲學家塞爾(John Searle)關于人工智能的劃分,強人工智能意味著被執(zhí)行的程序本身就是思維的組成部分,計算機程序本身就是大腦(而非心智)。相反,弱人工智能僅是對人腦思維的模擬,不能產(chǎn)生意識。(11)J. R. Searle, “Minds, Brains, and Programs”, Behavioral and Brain Sciences, 3(1980):417—457.從這個意義上看,以ChatGPT為代表的眼下的生成式人工智能,作為由弱人工智能到強人工智能過渡的代表,并不是完全意義上的強人工智能。它出現(xiàn)的目的是為更好實現(xiàn)人自身的價值提供身體解放的工具,它對人類思維的強化和身體的延伸都是有限度的,無法呈現(xiàn)人類意識的整體性。所以,ChatGPT等當前階段的生成式人工智能還不能替代人的主體地位,它只是通過重復模擬作為主體的人而表現(xiàn)得像人,但本質上它仍舊依附于人,還不是超越人類的獨立存在。
ChatGPT作為一種大型的語言對話模型,能夠生成多模態(tài)的文本形式,意味著可以為人提供多類型的交往方式。從對話形態(tài)看,ChatGPT等生成式人工智能通常采用一問一答的形式與用戶展開多輪對話,展現(xiàn)出富有層次、通順連貫的對話能力,大部分答案通過分點闡述并以總結性的話語收尾。同時又以持續(xù)對話的形式占有用戶對某一議題的全部認知,而使用者在社會交流實踐中又不斷地參與對話,與多元社會主體共同建構了生成式人工智能話語方式的傳播圖景。馬克思認為,人的全面自由發(fā)展應該包括勞動內(nèi)容和形式的豐富和完整,個人活動相應地充分達到豐富性、完整性和自由性。人們不再屈從于被迫的分工和狹隘的職業(yè),每個人按自己的愛好、特長、天賦自由地選擇活動領域。但是,ChatGPT在對人類語言、行為的理解上存在著一定局限性,它只能思考有限的、程序化的事情,卻不能思考無限性和整體性,即ChatGPT也和其它生成式人工智能一樣無法跳出“哥德爾陷阱”。例如,我們問ChatGPT:“你能辨別句子的真?zhèn)螁?”它會回答:“作為語言模型,我可以分析句子的語法和語義,但并不能確定其真?zhèn)巍!憋@然,ChatGPT只是在某一方面取代了人腦的功能,但卻不具備人腦應有的分析問題、發(fā)散問題等功能,不存在時間意義上的“未來”,只有程序化的預定,也不具備反思自身的能力。
意識是人腦的機能,人的意識的產(chǎn)生是基于對客觀世界的主觀反映,一旦沒有客觀世界,意識就無從談起。人腦作為孕育意識的生物場所,擁有860億個神經(jīng)元,每個神經(jīng)元細胞之間都是有著千絲萬縷的復雜聯(lián)系。倘若某個神經(jīng)元細胞發(fā)生突變,人的意識活動可能就會受到影響。從人腦對外部世界的反映來看,人的意識依賴于人腦,并依據(jù)主客體和外部世界環(huán)境而變化?!叭说囊庾R的優(yōu)勢在于開放地接受外界信息,因此人類的理性有著自由空間,當遇到不合規(guī)則的問題,則能夠靈活處理,或者,如果按照規(guī)則不能解決問題,則可以修改規(guī)則,甚至發(fā)明新規(guī)則?!?12)趙汀陽:《人工智能的神話或悲歌》,北京:商務印書館,2022年,第49頁。由此可知,人的意識具有主動、靈活的創(chuàng)造能力。反觀ChatGPT之類的生成式人工智能,我們似乎也不質疑它有靈活的創(chuàng)造能力,以至于可以回答我們給出的任何問題,但是對于存在悖論的問題,它就不能像人一樣給出仁者見仁、智者見智的多種分析。ChatGPT具有的是由人類賦予的有限的理性,有著高超的運算效率。對于人的意識研究的局限性導致目前我們不能創(chuàng)造出等價于人類意識的模型,這也就意味著ChatGPT不具備意識,它只是機械地執(zhí)行人的命令,其目的是“為人”,就當下來說,它距離自我意識尚有時日。因此,ChatGPT是人類在時間更迭中拓展自身發(fā)展空間的工具,它存在的目的就是助力人類實現(xiàn)自身的價值。 所以,智能時代人的主體地位不應該被智能機器所侵占,迄今人仍是唯一的主體。
馬克思關于人的主體地位觀,是在黑格爾辯證法的基礎上將人看作是社會關系中的人,人與自然、人與社會、人與人通過實踐發(fā)生著千絲萬縷的聯(lián)系。馬克思關于人的“類本質”,“人是一切社會關系的總和”,以及從“人的依賴”到“物的依賴”再到“個人的全面發(fā)展”的形態(tài)變遷,揭示了人的對象化活動生成人的本質,并且不斷超越原本規(guī)定性,這也就是人的主體的創(chuàng)造性??梢?人的社會關系以生產(chǎn)活動(實踐)為前提,實踐是人作為主體存在的基本方式,是意識產(chǎn)生的源泉。從這點不難看出人的主體地位源于其社會屬性,這與ChatGPT的自然性也具有很大的不同。ChatGPT由于不能從事人那樣的社會實踐,所以無法成為真正意義上的實踐主體,它的“類主體性”依賴于人的主體性。在這個意義上,目前的生成式人工智能尚無法復制或者是超越人的主體地位。事實上,作為主體的人,我們應當對人工智能發(fā)展抱有樂觀的態(tài)度。未來強人工智能的發(fā)展一定程度上還有助于強化人的主體地位,一是人工智能將更加人性化和普及化,未來的人工智能能夠更好地理解人類的語言和情感,與人類進行更加自然的交互。二是人工智能將與人類更好地融合,未來的人工智能大概率會幫助人類解決所面臨的共同困難,它甚至還可以通過直接成為人類的一部分來融入人,比如通過負載人工智能的芯片植入人腦中來增強人腦智能。三是人工智能的安全性將大大增強,潛在的危害必將不斷消弭,這是未來人工智能發(fā)展的趨勢,也是破解人類主體地位焦慮的主攻方向。當然,未來的強人工智能或超人工智能如果具有了自主意識和反思能力,可以對人類說“不”,就必須引起我們的高度注意,通過技術手段和社會手段來限定這類技術的實際應用。
可以肯定的是,包括ChatGPT在內(nèi)的生成式人工智能,作為人類社會發(fā)展的產(chǎn)物,被我們所認可的共同價值應該是推動人的自由全面發(fā)展。以ChatGPT為代表的生成式人工智能對人的主體地位的沖擊是空前的,但目前還沒有對人作為主體的生存方式帶來實質性威脅。因為它尚不具備質疑人類社會所制定的規(guī)則的能力,尚不能提出任何可以改變?nèi)祟愔黧w地位的根本性主張,尚不能干涉既定的社會秩序。試想,未來人工智能變成一個“革命者”,有能力對人類說“不”了,會不會想要建立自己“社會”的秩序?當生成式人工智能變成一個“有情人”,有情有欲有價值觀,能夠決定自己的“想”和“不想”,會不會心生惡念?這些都是我們在推進人工智能技術發(fā)展時需要保持警醒的問題,必須提早防范那些會顛覆人作為技術主體的可能變?yōu)楝F(xiàn)實。