国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

關(guān)于人工智能界限的思想實驗

2024-08-08 00:00:00陳凱
中國信息技術(shù)教育 2024年15期

摘要:當(dāng)前人工智能技術(shù)高速發(fā)展,在多個領(lǐng)域得到成功應(yīng)用,使得學(xué)生可能產(chǎn)生出涉及人工智能和人類關(guān)系方面的諸多問題。面對這些問題,教師應(yīng)當(dāng)給出經(jīng)過深刻思考的、開放的、具有啟發(fā)性的觀點,思想實驗是回答此類問題并激發(fā)學(xué)生深入思考的一種工具。本文嘗試創(chuàng)設(shè)出若干與數(shù)據(jù)、算法等概念有關(guān)的思想實驗,主要圍繞人工智能的能力界限開展討論,強調(diào)人在創(chuàng)新方面可能具有當(dāng)前的人工智能難以替代的獨特作用。

關(guān)鍵詞:人工智能;思想實驗;界限

中圖分類號:G434 文獻標識碼:A 論文編號:1674-2117(2024)15-0039-06

當(dāng)前,人工智能技術(shù)正以前所未有的速度發(fā)展,日新月異的應(yīng)用場景層出不窮,令人目不暇接。在這樣的技術(shù)發(fā)展背景下,學(xué)生們對人工智能的探索熱情被強烈地激發(fā),他們不僅對人工智能技術(shù)的精妙原理與應(yīng)用場景抱有濃厚的好奇心,更是會主動地對人工智能與人類的復(fù)雜關(guān)系展開思考。例如,人工智能如何改變?nèi)说男袨榉绞胶湍繕??人工智能的出現(xiàn)在哪些領(lǐng)域?qū)θ祟惖闹腔郯l(fā)起挑戰(zhàn)?在未來人工智能進一步大發(fā)展的時代,人的哪些能力是人工智能不能達到的,或者說,人工智能能力的界限在哪里?在人工智能這個復(fù)雜且前沿的領(lǐng)域,當(dāng)教師面對這些問題時,或許不應(yīng)該直接給出某個答案(實際上也很難給出一個明確的答案),而是要扮演引導(dǎo)者和啟發(fā)者的角色,構(gòu)建一個開放的、包容的且充滿挑戰(zhàn)的學(xué)習(xí)環(huán)境,讓學(xué)生在其中深度思維、深層思辨,更重要的是,要讓學(xué)生感受到,不僅僅是將人工智能視作一種作為科技發(fā)展成果的學(xué)習(xí)對象,更應(yīng)結(jié)合宏觀上的對人類未來命運的反思,將其視作密切伴隨自己個人發(fā)展的重要羈絆。

本文將給出筆者自己設(shè)計的幾個思想實驗,試著對基于圖靈機的人工智能的能力界限進行討論。通俗地說,就是思考有哪些事情,是只能或最好是由人而不是計算機(指圖靈完備的計算裝置)去完成的。人們已經(jīng)有這樣的共識—在人工智能的時代,人的一些能力會變得不太重要,如單純的記憶能力、簡單重復(fù)性的任務(wù)執(zhí)行能力、低層次數(shù)據(jù)處理能力等,但與此同時,人們在主觀上希望人的某些能力是人工智能無法替代的,如批判性思維能力、創(chuàng)新能力等??紤]人工智能已經(jīng)在之前人類自以為的相當(dāng)一部分“專屬”能力上取得了突破,如對宏觀局勢的直觀、對藝術(shù)的模仿創(chuàng)造、完整的文本的分析與生成等,這不免讓人懷疑,人類的“專屬”能力庫有些岌岌可危。本文的思想實驗,暗示了人工智能的能力界限的存在,這其中隱藏的意味是,作為人屬性的教師,有著比作為機器屬性的教師所不可取代的作用,同樣的,作為人屬性的學(xué)生,應(yīng)當(dāng)學(xué)習(xí)如何充分顯現(xiàn)人所特有的能力。限于筆者閱讀量,很難說本文提出的思想實驗的類似版本并未在之前已被他人提出,但值得一提的創(chuàng)新點是,這些思想實驗的構(gòu)建過程都能較為緊密地和“數(shù)據(jù)與計算”“算法的描述和特征”等日常的信息技術(shù)教學(xué)內(nèi)容相結(jié)合,引導(dǎo)學(xué)生將學(xué)習(xí)的內(nèi)容從應(yīng)用的層面上升到系統(tǒng)性思辨的層面。

看動畫的感覺機

首先來看這樣的問題:人工智能或計算機能否真正像人一樣進行感覺?這個問題在學(xué)界引起了廣泛的討論和爭議。例如,內(nèi)格爾(Thomas Nagel)曾寫有《成為一只蝙蝠會是什么樣》一文,由人不能體驗到蝙蝠的感覺展開,內(nèi)格爾提出一個對象只有擁有對某個體驗的感受才算真正擁有這個體驗,心智狀態(tài)的主觀性只能被這個對象本身所理解,不同的生物的感受是不同且不能相互體驗的,也就是說,感覺本身是不可還原的[1],就觀點的結(jié)論來說,聽上去像是莊子和惠子在濠梁之辯中惠子的觀點,但內(nèi)格爾給出了詳盡的論證。與此觀點相對應(yīng)的,是丹尼特(Daniel Dennett)對接受感覺的主觀的心靈之眼的駁斥,認為“一切心理現(xiàn)象和狀態(tài)都是感覺輸入到大腦中經(jīng)過平行的、多路徑的解釋加工過程完成的……不存在意識與無意識間明確的分界線,各種意識現(xiàn)象,包括理解、判斷、感受等,它們在凸顯出來之前也都相互混雜在一起。在大腦的神經(jīng)元網(wǎng)絡(luò)中,根本找不到單獨存在的主觀感受”[2],如從內(nèi)格爾的觀點推演,即便是生物都不能跨越種類體驗相似感受,那么機器就更不可能像人那樣去感覺現(xiàn)象;然而,丹尼特更傾向于認為機器在感覺過程中對現(xiàn)象信號的處理和人的處理并沒有本質(zhì)區(qū)別,兩者間只有程度上的區(qū)別。圍繞機器和人的感覺或感受問題,涌現(xiàn)出大量專業(yè)的(通常也是艱深的)討論,如侯世達曾利用哥德爾定律來反駁內(nèi)格爾的觀點。[3]考慮到基礎(chǔ)教育階段學(xué)生們基礎(chǔ)知識水平的限制,筆者試圖圍繞更容易解釋的數(shù)據(jù)處理過程來構(gòu)造思想實驗,畢竟,當(dāng)回答學(xué)生的問題時,一味用“以后才會學(xué)到相關(guān)知識”來回應(yīng),會讓教師和學(xué)生雙方都有挫敗感。

“看動畫的感覺機”思想實驗的主要意圖如下:如果某個智能機器從本質(zhì)上說仍然是一個數(shù)據(jù)處理裝置,如圖1所示,且人們認為它不僅能像普通的機器那樣采集和分析環(huán)境信息,也能夠真的像人那樣去感覺,那么可能會出現(xiàn)什么樣的狀況或矛盾?

假設(shè)播放一個顏色周期交替變化的動畫,假設(shè)某類人的智能機器以離散的工作狀態(tài)對顏色信號進行采集和處理,并且假設(shè)它能像人那樣去感覺不同的顏色,這里稱之為感覺機。由于這個看動畫的感覺機在感覺的整個過程中,每一步細節(jié)都無法脫離機器的物理實體的狀態(tài)變化,如存儲器數(shù)據(jù)的變化、指令的調(diào)用等,乃至更為基礎(chǔ)的底層電路中所有電子元件的狀態(tài)變化,所以,整個感受過程中的物理狀態(tài)變化過程是可以被完整跟蹤記錄下來的,于是,整個感覺過程本身都成為一系列可記錄和再現(xiàn)的數(shù)據(jù)。舉例說,對應(yīng)整個感覺過程的時間{ta,tb,tc……ty,tz}所記錄下來的當(dāng)前感覺機之中的所有電子元件狀態(tài)的集合為{{da1,da2,da3……dan},{db1,db2,db3……dbn},{dc1,dc2,dc3……dcn}……{dy1,dy2,dy3……dyn},{dz1,dz2,dz3……dzn}}。于是就會產(chǎn)生出問題:很難認為,僅僅是在ty到tz的數(shù)據(jù)變化的那一瞬間,這臺感覺機忽然就感覺到了,當(dāng)然也很難說,在感覺過程完成之前,感覺機就已經(jīng)感覺到了—這就好像人不可能在僅僅通過聽到音符片段來體驗?zāi)扯我魳匪鶐淼母杏X那樣,人所感覺的是音樂的整體。

按此推理,若感覺機真的能夠感覺到顏色的周期變化,這應(yīng)當(dāng)是它對整體的電子元件數(shù)據(jù)變化進行處理的結(jié)果。所以,如果感覺機能感覺現(xiàn)象,那么它不僅應(yīng)該處理現(xiàn)象帶來的信號本身,還應(yīng)該將整個信號的處理過程作為一種新的信號對其進行處理。這樣,一臺感覺機就成為面向內(nèi)在狀態(tài)變化的元感覺機,如圖2所示。當(dāng)然,元感覺機對整體變化感覺的過程,其實也對應(yīng)著一種離散的數(shù)據(jù)信號的變化過程,于是,可以存在一種元元感覺機對元感覺進行感覺。無論是感覺機,還是元感覺機,還是元元感覺機……它們所面對的都是一系列的表示物理狀態(tài)變化的符號,于是,感覺機對感覺處理過程的感覺的存在方式,和感覺本身的存在方式?jīng)]有類型上的區(qū)別,通俗地說,如果看動畫的感覺機能感覺到顏色,那么對感覺機來說,感覺一種感覺處理的過程也將會是一種顏色。這種感覺方式顯然和人不同,或者換個角度說,感覺機其實并不能像人那樣感覺現(xiàn)象。

感覺機還有一個更簡單有趣的版本,稱為太空感覺機,如果將感覺機的電子元件拆開分置在各處,如有的元件放置在地球上,有的放置在月球上,有的放置在火星上,電子元件之間通過某種遠程通信裝置實現(xiàn)信號傳遞,那么這樣的遠距離通信感覺機能整體感覺到自然的現(xiàn)象嗎?如果能感覺到,那么到底是什么時候才能感覺到?可以將距離進一步拉長,如太陽系和最近的星系半人馬座α三星系統(tǒng)距離4.25光年,有將元件分別放置在這兩個星系上的某臺感覺機,它用極其長的時間來進行通信,那么,它什么時候才體驗到某種感覺?難道是對跨越時空的所有數(shù)據(jù)處理完畢的那一刻?或者,是在機器最終輸出“感受完畢”的消息時,才算是真正感覺到了?可以發(fā)現(xiàn),這里存在著一種直覺上讓人難以認為合理的狀況。

以上思想實驗給出的暗示是,智能機器的可記錄為物理狀態(tài)變化的感覺過程,很有可能與人的感覺過程是不同的,需要指出的是,這里的智能機器是基于當(dāng)前的數(shù)字計算機離散式地處理數(shù)據(jù)的方式運作的,本質(zhì)上都等價于圖靈機,未來的計算機能否超越當(dāng)前的運算方式,目前還很難說。關(guān)于智能機器是否能真正像人那樣感覺,還有一些記載于文獻中的思想實驗,其中有名的如“萊布尼茲的磨坊”“瑪麗的黑白房間”“哲學(xué)僵尸”等,它們有著與本文給出的故事所不同的趣味,也能引發(fā)出進一步的思考,“太空感覺機”似乎也可以看成是“萊布尼茲的磨坊”的升級版本。不過,“感覺機”的工作過程對應(yīng)著計算機數(shù)據(jù)處理的過程,有著與日常信息技術(shù)教學(xué)更為緊密的聯(lián)系,同時,這也是屬于教師個人的原創(chuàng)故事,應(yīng)當(dāng)更能激發(fā)學(xué)生的思考。

自我復(fù)制的領(lǐng)悟機

接下來的問題是:計算機或智能機器是否能真正領(lǐng)悟某個知識?

2012年,計算機科學(xué)家提出了Winograd模式測試[4],用以評估智能機器能否更好地“理解”人類語言,該測試給出一些文字相近但含義模糊的句子,考查人工智能能否給出正確答案。例如:

句子1:我把水從瓶子里倒進杯子里,直到杯子滿了。

問題:什么是滿的,瓶子還是杯子?

句子2:我把水從瓶子里倒進杯子里,直到它空了為止。

問題:什么是空的,瓶子還是杯子?

在提供大量文本對人工智能進行訓(xùn)練后,成功率可以提升到90%以上,這能夠證明人工智能可以理解人類的語句嗎?恰恰相反,考慮到人工智能根本沒有接觸現(xiàn)實世界,它只是對已有文本進行了概率和相關(guān)性方面的分析,所以,如果將算法置于黑箱中,只觀察數(shù)據(jù)的輸入和輸出,無法得知人工智能給出的正確答案,到底是否基于真正的“理解”或“領(lǐng)悟”。

筆者構(gòu)造了一個所謂的克隆領(lǐng)悟機的思想實驗,思考過程相當(dāng)簡潔:假設(shè)智能機器能夠真正領(lǐng)悟某個問題,則可將其稱為領(lǐng)悟機,那么和感覺機一樣,只要它是以離散狀態(tài)運作的,就能夠把它的領(lǐng)悟過程完整地記錄下來成為一系列的數(shù)據(jù)。然后,只要簡單地復(fù)制—粘貼,就能讓其他領(lǐng)悟機再現(xiàn)數(shù)據(jù)的變化,那么是否能推論說,這就相當(dāng)于是讓其他的領(lǐng)悟機也領(lǐng)悟了?為了進一步顯現(xiàn)出認為智能機器能夠領(lǐng)悟的不合理之處,可以考慮對所謂領(lǐng)悟數(shù)據(jù)的過程額外增加一個編碼和解碼的過程,也就是說,不直接將領(lǐng)悟機中領(lǐng)悟數(shù)據(jù)X復(fù)制給其他領(lǐng)悟機,而是有意添加一系列毫無必要的數(shù)據(jù)轉(zhuǎn)換步驟,如先壓縮數(shù)據(jù)然后再解壓縮。領(lǐng)悟機的一系列的不必要的轉(zhuǎn)換過程,對應(yīng)著跟蹤記錄物理狀態(tài)信號變化的數(shù)據(jù)Y,數(shù)據(jù)Y中大多數(shù)步驟對解決問題并無作用,只是讓數(shù)據(jù)多變換幾次又重新回到真正解決問題的軌道上,如圖3所示。那么,在其他領(lǐng)悟機復(fù)制并再現(xiàn)數(shù)據(jù)變化的過程中,它究竟是領(lǐng)悟了問題,還是領(lǐng)悟了自己其實根本就是在兜圈子而已?這暗示著,智能機器可能并不像人那樣領(lǐng)悟問題。

關(guān)于人工智能是否能真正理解和領(lǐng)悟的問題,有一些著名的思想實驗,如艾米麗·本德爾的章魚、塞爾的中文屋等對其進行了驗證。其中,中文屋思想實驗是對圖靈測試思想實驗的反駁,具有很大的影響力,引發(fā)了熱烈的爭論。由于很容易找到這些爭論文章,本文不再展開討論。

有趣的創(chuàng)規(guī)機

人工智能已經(jīng)在藝術(shù)創(chuàng)作領(lǐng)域展現(xiàn)出令人震驚的才華,它已能夠模仿藝術(shù)家的風(fēng)格,創(chuàng)作出難以辨別出究竟是人還是機器創(chuàng)作出來的作品。然而,人工智能是否能具有獨創(chuàng)性?德雷福斯(Hubert Dreyfus)認為人工智能無法真正做到獨創(chuàng),因為所有基于算法運作的機器,都需要一個形式化的規(guī)則,但獨特的創(chuàng)新,需要的是設(shè)計形式化規(guī)則的能力,于是,智能機器面對了所謂“規(guī)則回歸”的問題[5],也就是說,需要一種復(fù)雜到難以想象的形式系統(tǒng)來生成各種功能的形式系統(tǒng)。當(dāng)然,有學(xué)者認為這種復(fù)雜到難以想象的形式系統(tǒng)未必是被設(shè)計出來的,它有可能是長時間進化的結(jié)果,并且,一個形式系統(tǒng)可以利用底層規(guī)則模擬出形形色色的高層規(guī)則,這種模擬和進化的作用結(jié)合起來,最終生成極其復(fù)雜的形式系統(tǒng)是有可能的。顯然,也可以認為心智就很有可能是這種進化的結(jié)果。[6]

一個能夠基于底層規(guī)則模擬出各種規(guī)則的機器,能否認為其能夠創(chuàng)造規(guī)則?假設(shè)真的有這樣一種創(chuàng)造規(guī)則的元規(guī)則機器,這里稱其為創(chuàng)規(guī)機,再假設(shè)可以用它來實現(xiàn)各種創(chuàng)新,如實現(xiàn)這樣的任務(wù):創(chuàng)造一種當(dāng)前還沒有人創(chuàng)造出來的有趣的游戲。其工作模式是這樣的,首先,隨機地生成各種各樣的游戲,其次,判定并篩選出其中有趣的游戲。這里存在兩個問題,一是怎么定義“游戲”?在本欄目文章《電線世界與模擬神經(jīng)元的游戲—兼談規(guī)則與創(chuàng)新》中對這個問題已有論述,這里不再討論。二是怎么定義“有趣”?這里先假設(shè)這個創(chuàng)規(guī)機可以判定何為“有趣”,若非如此,它就無法實現(xiàn)創(chuàng)造有趣游戲的任務(wù)了。于是就可以構(gòu)造這樣的思想實驗:某個游戲是由兩個時間階段的場景組成的,場景一相當(dāng)無趣,場景二則相當(dāng)有趣,但為了進入到場景二,玩家必須先玩通十分無趣的場景一。不過,場景一的無趣其實是一種鋪墊,為后續(xù)場景二的情節(jié)提供了相當(dāng)多的素材和新鮮感,如果沒有場景一的無趣,也就沒有場景二的有趣。

如果創(chuàng)規(guī)機能夠按“有趣”的屬性對游戲進行篩選,那么當(dāng)它面對這個“無趣—有趣”組合而成的游戲時,要想判定其是否有趣,就需要對原來的“有趣”屬性的判定方法進行修改。即便假設(shè)這個創(chuàng)規(guī)機擁有完備的“有趣”屬性判定能力,當(dāng)面對更多的“無趣—有趣”場景組合時,它也是無能為力的,因為只要它更新了判定規(guī)則,“無趣—有趣”的場景也就能給出新的組合。這暗示了,判定某個游戲是否具有“有趣”的屬性相當(dāng)困難,甚至是不可能的。有人可能覺得,產(chǎn)生問題的緣由來自于“有趣”這個概念的不確定,其實,即便放寬要求,僅僅是自動化地判斷某個程序是否具有某種確定功能,也是相當(dāng)困難的。從這個思想實驗中可以引出一個謎題:是否有可能設(shè)計出一種人工智能的程序,用來判定另一個程序具有某種確定功能?

為了設(shè)計一種程序,用來判定另一個程序是否具有某種確定功能,首先要將這種功能確切地描述出來。對人來說,自然語言的描述就可以了,對計算機來說,可以用算法或程序代碼的形式來描述,或者將自然語言描述轉(zhuǎn)換成算法或程序代碼。這恰好對應(yīng)了教學(xué)中算法的定義、描述方法及特征等內(nèi)容。所以,剛才的問題等價于如何設(shè)計出一個程序,判定另外兩個代碼并不相同的程序在功能上是否相同。

考慮存在某程序A,它的功能是對輸入的字符串進行長度的計算,并輸出一個長度數(shù)據(jù),除非輸入的字符串恰好是程序A自身的代碼,如果真的出現(xiàn)了這個情況,程序A輸出字符“T”。另有一程序B,它的功能也是對輸入的字符串進行長度的計算,并輸出一個長度數(shù)據(jù),除非出現(xiàn)以下兩種情況:一種情況是,輸入到程序B中的字符串恰好是程序A的代碼,且程序A和程序B功能相同,這時就輸出字符“F”;另一種情況是,輸入到程序B的字符串恰好是程序A的代碼,且程序A和程序B功能不同,這時就輸出字符“T”。

雖然,上面構(gòu)造的程序A和程序B的功能都是合理的,但如果要判斷程序A和程序B的功能是否相同,就會出現(xiàn)邏輯上的矛盾,由此可以認為不存在特定的程序代碼,可以判定兩個代碼不同的程序的功能是否相同。有人可能會說,對于這種故意構(gòu)造的邏輯悖論,就算是人類也無法進行合理判定,但其實這里要表達的深層含義是,存在一些人腦能夠接受的語言描述,實際上卻根本無法轉(zhuǎn)化成程序代碼,因此,算法具有一個“可行性”的特征,所謂“可行性”,并不是像在日常授課時所說的,代碼在遇到除以零、給負數(shù)開平方根這些錯誤時就會報錯那么簡單。在計算理論中,此類問題早有定論,稱為萊斯定律,一般將萊斯定律轉(zhuǎn)化為圖靈停機問題來實現(xiàn)證明。筆者繞過圖靈停機問題直接構(gòu)造邏輯悖論,是為了讓證明過程更容易被理解。相信類似證明早已有人提出,只是暫時沒能看到相關(guān)文獻。

結(jié)論

有些思想實驗可以直接對某些問題給出證明,如伽利略探究慣性原理所設(shè)計的思想實驗,更多的思想實驗并不直接證明什么,而是給出一種直覺上的啟發(fā)。本文給出的思想實驗強調(diào)了人在創(chuàng)新方面可能具有當(dāng)前的人工智能難以替代的獨特作用,同時也提示了一些看似容易理解的日常概念用語,值得更深入地去思考和探索。

參考文獻:

[1]NAGEL T.What is it like to be a bat?[J].Philosophi cal review,1974,83(04):435-450.

[2]宋尚瑋.丹尼特的自然主義認知哲學(xué)[M].北京:科學(xué)出版社,2016,97-99.

[3]侯世達,丹尼爾·丹尼特.我是誰,或什么——一部心與自我的辯證奇想集[M].舒文,馬健,譯.上海:上海三聯(lián)書店,2020:443.

[4]Levesque,Hector J. et al.The Winograd Schema Challenge[C].AAAI Spring Symposium:Logical Formalizations of Commonsense Reasoning,2011.

[5]休伯特·德雷福斯.計算機不能做什么——人工智能的極限[M].寧春巖,譯.北京:三聯(lián)書店,1986,5.

[6]丹尼爾·丹尼特.達爾文的危險思想[M].張鵬瀚,趙慶源,譯.北京:中信出版集團,2023:224.

崇信县| 阿克苏市| 江口县| 康保县| 苗栗市| 自贡市| 石楼县| 绥阳县| 乌苏市| 罗山县| 沈阳市| 贵港市| 蒲城县| 南开区| 鄂伦春自治旗| 辽阳市| 禹城市| 石狮市| 黄平县| 合作市| 朝阳县| 海兴县| 墨玉县| 龙陵县| 汝南县| 上杭县| 肇州县| 绥德县| 三门峡市| 如皋市| 乐山市| 饶阳县| 开平市| 喀喇| 增城市| 青铜峡市| 阳山县| 蒲城县| 醴陵市| 全州县| 遂川县|