◎陳昌鳳
智能化時(shí)代,已實(shí)現(xiàn)由傳統(tǒng)IT到互聯(lián)網(wǎng)IT,再到人工智能IT階段的轉(zhuǎn)變,相應(yīng)的媒介生態(tài)格局、所研究的對(duì)象,以及研究的內(nèi)涵較以往均有很大區(qū)別。
智能有狹義和廣義之分,狹義為人工智能;廣義為智能技術(shù)、人工智能、機(jī)器人技術(shù)和算法。我們現(xiàn)在所說(shuō)的智能,大都是指其廣義。關(guān)于智能化的研究,歷史上主要有三大流派:一是符號(hào)主義,認(rèn)知基元是符號(hào),認(rèn)知過(guò)程即符號(hào)過(guò)程;二是鏈接主義,思維基元是神經(jīng)元,智能通過(guò)神經(jīng)元的鏈接實(shí)現(xiàn);三是行為主義,智能取決于感知和行動(dòng),不需要知識(shí)和推理。
現(xiàn)在人工智能主要有以下兩點(diǎn)突破:一是合成智能,從各種工具和模塊中拼湊素材、建立目標(biāo),系統(tǒng)最終變成什么樣并不可預(yù)見,而且結(jié)果不受其創(chuàng)造者控制,包括機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)、認(rèn)知系統(tǒng)或者遺傳算法等;二是人工勞動(dòng)者,能不知疲倦地在混亂多變的環(huán)境中完成各種龐雜的工作,這類系統(tǒng)缺少常識(shí)和一般性的智力。美國(guó)計(jì)算機(jī)科學(xué)家杰瑞·卡普蘭對(duì)這兩個(gè)概念進(jìn)行了延伸,認(rèn)為這兩類系統(tǒng)可以共同協(xié)作完成需要高級(jí)知識(shí)和技巧的物理任務(wù),比如手術(shù)、教微積分、修車以及烹飪等。
就信息傳播領(lǐng)域而言,合成智能系統(tǒng)的機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)、認(rèn)知系統(tǒng)及相關(guān)算法,均已運(yùn)用于信息傳播,如機(jī)器學(xué)習(xí)、自然語(yǔ)言、語(yǔ)音處理、視覺(jué)信息等。智能化亦廣泛運(yùn)用于教育領(lǐng)域,如兩會(huì)和十九大期間所使用的AI技術(shù),通過(guò)人臉識(shí)別、聲紋識(shí)別、語(yǔ)音識(shí)別和大數(shù)據(jù)搜索便可將檢索出發(fā)言者的歷史相關(guān)信息。通過(guò)對(duì)信息的分析能夠直接抓取到點(diǎn)、人物的關(guān)系,抓取到人工采訪或肉眼觀察采不到的信息,智能化裝備讓我們對(duì)這個(gè)世界的認(rèn)知更加透徹,更加具有洞察力??梢哉f(shuō),“機(jī)器人寫稿”和“算法推薦”只是人工智能技術(shù)運(yùn)用于新聞傳播領(lǐng)域的冰山一角,其真正遠(yuǎn)景是超越人類智慧。
霍金曾預(yù)言:“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡”,甚至?xí)S為機(jī)器人的奴隸。機(jī)器人具有深度學(xué)習(xí)能力,但并無(wú)內(nèi)容過(guò)濾機(jī)制,加之內(nèi)部“黑箱化”運(yùn)作模式,從而導(dǎo)出一系列的媒介倫理困境。
一是假新聞向深度轉(zhuǎn)變。傳統(tǒng)假新聞尚可通過(guò)多種方式去驗(yàn)證其真?zhèn)危悄芗夹g(shù)的“黑箱化”操作下,其真實(shí)性已很難驗(yàn)證。如今年2月份,模仿奧巴馬聲線說(shuō)粗話的視頻造假事件。
二是習(xí)得人類的偏見等。人工智能并無(wú)過(guò)濾系統(tǒng),在其深度學(xué)習(xí)過(guò)程中并無(wú)法判斷學(xué)習(xí)內(nèi)容的好壞。去年微軟為其人工智能程序Tay設(shè)了一個(gè)推特賬號(hào),上線一天就形成了“我恨人類,我討厭人類”、“希特勒很好,猶太人很壞”、“女權(quán)主義者都是混蛋”等粗鄙的價(jià)值觀。
三是價(jià)值觀賦予的“黑箱化”。人工智能的價(jià)值觀運(yùn)作系統(tǒng)是“黑箱化”的,我們并不知材料輸入與輸出之間的關(guān)系,也不知其內(nèi)部操作過(guò)程是以何種運(yùn)算程序而形成的結(jié)果。此外,其寧可錯(cuò)殺一千的審查機(jī)制,也都帶來(lái)了很多問(wèn)題。
人工智能價(jià)值觀的形成機(jī)制不僅包括 “算法集”式的數(shù)字代碼,也包括編寫算法的程序員、運(yùn)用算法寫作的新聞?dòng)浾叩刃袨橹黧w間相互作用的行動(dòng)機(jī)理。此外,算法中的技術(shù)偏向也易導(dǎo)致認(rèn)知偏差,如不確定性證據(jù)易導(dǎo)致不確定的行動(dòng);無(wú)法解讀的數(shù)據(jù)導(dǎo)致失據(jù)和不透明性;誤導(dǎo)性數(shù)據(jù)易導(dǎo)致認(rèn)知偏見。技術(shù)無(wú)好壞之分,但也并非中立,引導(dǎo)人工智能價(jià)值觀尤為必要。
引導(dǎo)人工智能價(jià)值觀,首先要對(duì)“黑匣子”內(nèi)部運(yùn)算程序進(jìn)行價(jià)值觀測(cè)試,其次是通過(guò)算法技術(shù)介入價(jià)值觀,最后進(jìn)行正確價(jià)值觀引導(dǎo)。人工智能價(jià)值觀的測(cè)試階段,可利用專家提問(wèn)、結(jié)構(gòu)化訪談以及理論驗(yàn)證等方法,初步確定其價(jià)值觀維度。價(jià)值觀與社會(huì)階層的關(guān)系,價(jià)值觀與社會(huì)信任的關(guān)系,價(jià)值觀與社會(huì)心理的關(guān)系,均可列為價(jià)值觀影響因子行列。在如何引領(lǐng)智能時(shí)代價(jià)值觀問(wèn)題上,可采用微調(diào)法等方法,觀察普通人和程序員智能時(shí)代的價(jià)值觀的內(nèi)在化傾向。在進(jìn)行人工智能價(jià)值觀引導(dǎo)方面,可參考西方逆向工程學(xué)等學(xué)科類方法,打開內(nèi)部的“黑匣子”,了解其內(nèi)部運(yùn)作機(jī)理及價(jià)值觀形成的錯(cuò)誤節(jié)點(diǎn),以進(jìn)行正確的價(jià)值觀引導(dǎo)。
人工智能研究最核心的問(wèn)題在于關(guān)乎人類尊嚴(yán),如何打開價(jià)值觀賦予的“黑匣子”,通過(guò)算法干預(yù)和介入以引導(dǎo)價(jià)值觀,將會(huì)是未來(lái)智能化發(fā)展較長(zhǎng)一段時(shí)期需要關(guān)注的問(wèn)題。