国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

負責(zé)任的人工智能:技術(shù)倫理危機下AIGC的治理基點

2024-05-08 00:23:59陳建兵
關(guān)鍵詞:解釋性倫理人工智能

陳建兵,王 明

西安交通大學(xué) 馬克思主義學(xué)院, 陜西 西安 710049

2022年底,人工智能技術(shù)在世界范圍內(nèi)迎來一次全新“發(fā)展期”——OpenAI公司旗下ChatGPT的問世備受矚目,成為大型語言模型處理技術(shù)正式走向應(yīng)用領(lǐng)域的里程碑。隨著以ChatGPT為標(biāo)志的自動化程度高且使用門檻較低的生成式人工智能(AIGC)技術(shù)的出現(xiàn),其在自動駕駛、醫(yī)療診斷、金融分析等領(lǐng)域的某些方面的表現(xiàn)甚至超越人類,這讓人類看到AIGC在諸多領(lǐng)域應(yīng)用的巨大潛力和光明前景。然而,AIGC能在不經(jīng)過人類監(jiān)管的情況下自主生成大量文本和內(nèi)容,可能會導(dǎo)致虛假信息傳播、隱私泄露以及其他潛在的社會問題。誰該為AIGC造成的傷害負責(zé)?這是人類使用AIGC時的普遍擔(dān)憂。

推進人工智能技術(shù)從“生成式”邁向“負責(zé)任”已經(jīng)在全球范圍內(nèi)基本達成共識。發(fā)展負責(zé)任的人工智能需要重新為人工智能技術(shù)“立規(guī)矩”。那么,何時立負責(zé)任的規(guī)矩較為妥當(dāng)?怎樣兼顧AIGC技術(shù)的倫理規(guī)范與創(chuàng)新發(fā)展?各國學(xué)界、政府部門以及人工智能企業(yè)已經(jīng)意識到監(jiān)管的緊迫性,試圖建立對AIGC的倫理治理框架。2023年3月29日,美國生命未來研究所發(fā)表公開信,呼吁所有人工智能試驗室立即停止研發(fā)比GPT-4能力更強的人工智能系統(tǒng),停止時長至少6個月,以便給予充分的時間進行安全性和倫理性評估。這份公開信得到了人工智能領(lǐng)域眾多專家和企業(yè)高層的支持,包括人工智能“泰斗”級人物辛頓、曾是OpenAI聯(lián)合創(chuàng)始人的Musk、StabilityAI首席執(zhí)行官莫斯塔克等在內(nèi)的1 000多人簽署了這份公開信。此外,公開信還建議各個試驗室和專家合作,針對人工智能的設(shè)計和開發(fā)建立共享安全協(xié)議,并由獨立的外部專家監(jiān)督,確保人工智能系統(tǒng)“安全、無可置疑”。2023年3月30日,聯(lián)合國教科文組織發(fā)表聲明,呼吁各國政府簽署《人工智能倫理問題建議書》,旨在促進人工智能為人類、社會、環(huán)境以及生態(tài)系統(tǒng)服務(wù),并預(yù)防其潛在風(fēng)險。2023年6月14日,歐洲議會投票通過了《人工智能法案》授權(quán)草案,從人工監(jiān)管、隱私、透明度、安全、非歧視、環(huán)境友好等方面全方位監(jiān)管人工智能系統(tǒng)的開發(fā)和使用,詳細規(guī)定了各個市場參與者的義務(wù)。這份授權(quán)草案的立法目的重在監(jiān)管人工智能產(chǎn)品的開發(fā)者和提供者,從而減輕用戶的使用風(fēng)險??梢?加強人工智能技術(shù)倫理危機治理研究,對于促進人工智能技術(shù)從“生成式”邁向“負責(zé)任”,推進AIGC技術(shù)可持續(xù)發(fā)展具有重要意義。

一、人工智能技術(shù)倫理爭論與“負責(zé)任的人工智能”的提出

人工智能技術(shù)迅猛發(fā)展,特別是AIGC技術(shù)的強大應(yīng)用潛力以及帶來的巨大經(jīng)濟效益,促使人工智能巨頭企業(yè)爭搶“技術(shù)”研發(fā)高地,不斷推進技術(shù)迭代進步。然而,隨著AIGC功能日益強大且使用場景逐漸增多,其造成的虛假信息傳播、用戶數(shù)據(jù)泄露、用戶隱私侵犯、機器事故以及社會犯罪等一系列技術(shù)倫理風(fēng)險也在增加,使得人們開始關(guān)注AIGC存在的潛在風(fēng)險、產(chǎn)生的負面影響以及誘發(fā)的技術(shù)倫理危機。因此,人工智能發(fā)展史上關(guān)于人工智能技術(shù)是否中立的討論再次進入大眾視野。尤其隨著AIGC負面影響的逐漸顯現(xiàn),人們對AIGC發(fā)展需要規(guī)制和引導(dǎo)的呼聲越來越高,要求政府和人工智能企業(yè)對AIGC進行“負責(zé)任”治理?;诖吮尘?“負責(zé)任”成為AIGC技術(shù)倫理的治理趨勢。

(一)人工智能發(fā)展中關(guān)于“技術(shù)是否中立”的爭論

科學(xué)技術(shù)的發(fā)展以及由此引發(fā)的科技倫理問題的爭論由來已久。當(dāng)科學(xué)技術(shù)的發(fā)展進入到人工智能這一階段時,關(guān)于人工智能“技術(shù)是否中立”也存在爭議,主要有四種觀點。

一是技術(shù)中立論。在人工智能問世初期,由于其智能程度有限,學(xué)者大多持“技術(shù)中立”態(tài)度,認(rèn)為人工智能技術(shù)本身是中立的,只是設(shè)計者和使用者將個人目的施加于機器上。人工智能“技術(shù)中立”觀點源于美國計算機科學(xué)家Bush,他于1945年發(fā)表了《我們的未來》,提出了科學(xué)技術(shù)的發(fā)展只是為人類服務(wù),而不是為了謀取政治權(quán)力和利益?!凹夹g(shù)中立”思想在相當(dāng)長的時期內(nèi)影響著人們對待人工智能技術(shù)的態(tài)度。例如,1984年美國環(huán)球影片公司(Universal Picture)訴索尼公司案、2016年“快播案”引發(fā)的“菜刀理論”之爭,都是人工智能“技術(shù)中立”觀點的體現(xiàn)。這些案例的立論基礎(chǔ)是:技術(shù)本身是中立的,技術(shù)沒有承擔(dān)道德責(zé)任的義務(wù)。盡管“技術(shù)中立”的觀點在當(dāng)前人工智能領(lǐng)域仍然存在,但是隨著人工智能技術(shù)的迅猛發(fā)展、人工智能倫理問題的日益凸顯,人工智能“技術(shù)中立論”逐漸喪失說服力。

二是技術(shù)批判論。技術(shù)批判論者認(rèn)為,人工智能技術(shù)不可能完全中立,因為技術(shù)的設(shè)計和應(yīng)用都要受到人類價值觀和利益的影響。人工智能技術(shù)批判論者的代表性人物是美國計算機科學(xué)家Lanier,他對“技術(shù)中立”的觀點進行了批判。此外,美國學(xué)者Lessig的《代碼2.0:網(wǎng)絡(luò)空間中的法律(修訂版)》以及Winner的《自主性技術(shù):作為政治思想主題的失控技術(shù)》也對“技術(shù)中立論”進行了批判。他們認(rèn)為人工智能技術(shù)并非完全中立,它可能受到開發(fā)者的偏見、數(shù)據(jù)的偏倚以及算法的設(shè)計等因素的影響,從而導(dǎo)致技術(shù)的偏向和不公平。

三是技術(shù)決定論。技術(shù)決定論者認(rèn)為,人工智能技術(shù)的中立性是有限的,它可能會對社會造成不平等和不公正的影響,同時它的發(fā)展和應(yīng)用會對社會產(chǎn)生深遠的影響,從而改變社會結(jié)構(gòu)和人類行為,持這種觀點的代表人物是Kuzweil。2006年,Kuzweil在《靈魂機器的時代》一書中提出了“技術(shù)加速”的概念,在他看來,人工智能技術(shù)呈指數(shù)級增長會引發(fā)重大的文化轉(zhuǎn)變和社會變革,甚至對社會和人類產(chǎn)生決定性影響。

四是技術(shù)規(guī)制論。技術(shù)規(guī)制論者認(rèn)為,科學(xué)技術(shù)評價涉及倫理、道德和社會價值觀等方面。人工智能技術(shù)的發(fā)展和應(yīng)用應(yīng)該考慮多種利益和價值觀,并通過社會討論和決策確定其應(yīng)用的邊界,對人工智能技術(shù)發(fā)展進行規(guī)制和引導(dǎo)。持這種觀點的主要代表人物是Musk,他關(guān)注人工智能的潛在風(fēng)險,并提出關(guān)于人工智能倫理和安全治理的觀點。2023年2月13日,在迪拜舉行的世界政府峰會上Musk重申了對人工智能安全檢查的呼吁(1)2023年世界政府峰會在迪拜開幕[EB/OL].(2023-02-13)[2023-06-16].https://news.cnr.cn/native/gd/20230213/t20230213.。

(二)“負責(zé)任”成為AIGC技術(shù)倫理的治理趨勢

21世紀(jì)以來,人工智能技術(shù)發(fā)展迅猛,但同時也暴露出許多潛在風(fēng)險和隱患。各國政府部門以及相關(guān)組織開始意識到:人工智能技術(shù)的發(fā)展需要制定一個規(guī)范和可信賴的框架來保障人類免受傷害。在此背景下,人們開始對人工智能誘發(fā)的倫理問題進行反思。例如,2019年4月,歐盟發(fā)布的《可信賴的人工智能倫理準(zhǔn)則》(以下簡稱《準(zhǔn)則》)明確了“可信賴的人工智能”應(yīng)滿足的三個基本條件,即合法、合乎倫理、穩(wěn)健。這為人工智能技術(shù)倫理問題的治理提供了具體的要求和指導(dǎo)。此外,《準(zhǔn)則》不僅提出了人工智能技術(shù)發(fā)展需要遵循的四項倫理要求,即尊重人類自主性、預(yù)防傷害、公平性以及可解釋性,而且還提出了七個關(guān)鍵要素,即人類能動和監(jiān)督、技術(shù)安全性、隱私和數(shù)據(jù)管理、社會和環(huán)境福祉、問責(zé)制、多樣性、無歧視,進一步加強了人工智能的要求和責(zé)任(2)歐盟搶先發(fā)布人工智能道德準(zhǔn)則:AI要以人為本,負責(zé)任且無偏見[EB/OL].(2019-04-09)[2023-06-16].https://news.sina.com.cn/o/2019-04-09/doc-ihvhiewr4402597.shtml.。此外,《全球人工智能治理年度觀察2019》(3)《全球人工智能治理年度觀察2019》發(fā)布 共議AI治理[EB/OL].(2020-05-01)[2023-10-26]. https://tech.sina.com.cn/i/2020-05-01/doc-iircuyvi0844294.shtml.發(fā)現(xiàn),人工智能領(lǐng)域的競爭已從技術(shù)和產(chǎn)業(yè)應(yīng)用擴張到了國際規(guī)則的制定,尤其是人工智能倫理和治理規(guī)則的制定。例如,2019年5月,經(jīng)濟合作與發(fā)展組織(OECD)成員國批準(zhǔn)了全球首個由各國政府簽署的人工智能原則——“負責(zé)任地管理可信人工智能的原則”,包括以人為本、公平、透明、可解釋、穩(wěn)健、安全可靠、包容性增長、可持續(xù)發(fā)展、為人類提供福祉以及負責(zé)任原則(4)安全內(nèi)參.經(jīng)合組織發(fā)布人工智能原則評析[EB/OL].(2019-06-05)[2023-10-26].www.secrss.com/articles/11178.。整體而言,從歐盟明確可信賴的人工智能準(zhǔn)則到OECD成員國批準(zhǔn)全球首個由各國政府簽署的人工智能原則,國際層面的人工智能技術(shù)倫理治理已進入實質(zhì)性階段,初步確立了以人為本、安全可信、創(chuàng)新發(fā)展、包容普惠等“負責(zé)任”治理的基調(diào)。

“負責(zé)任的人工智能”是AIGC技術(shù)倫理治理的趨勢和方向?!癆IGC對于智慧社會建設(shè)意義非凡”[1],這種自動化程度高的技術(shù)不僅可以獨立完成圖片分類和知識問答,而且在無人駕駛和人機對弈等方面取得了突破,它填補了人工智能從“可以用”到“很好用”的技術(shù)鴻溝。尤其是2022年11月OpenAI公司發(fā)布的大型語言模型系統(tǒng)——ChatGPT,引領(lǐng)了新的AIGC技術(shù)發(fā)展潮流。然而,AIGC的“雙刃劍”效應(yīng)在使用中才逐漸顯現(xiàn)。雖然AIGC帶來的正面效益令全世界欣喜不已,但是AIGC誘發(fā)的負面影響已經(jīng)引發(fā)了全球范圍內(nèi)的高度關(guān)注。例如,2023年3月31日起,意大利禁止使用ChatGPT,并限制OpenAI公司處理意大利用戶的信息數(shù)據(jù)。這一舉措引起了加拿大、歐洲等國家和地區(qū)監(jiān)管機構(gòu)和企業(yè)的關(guān)注和效仿。2023年7月10日,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,該辦法鼓勵優(yōu)先選擇安全可信的軟件、工具和計算數(shù)據(jù)資源,并劃定了該辦法的管轄范圍、管理權(quán)限以及責(zé)任主體認(rèn)定。2023年10月18日,中華人民共和國外交部發(fā)布的《全球人工智能治理倡議》中明確提出:“建立科技倫理準(zhǔn)則、規(guī)范及問責(zé)機制,形成人工智能倫理指南,建立科技倫理審查和監(jiān)管制度,明確人工智能相關(guān)主體的責(zé)任和權(quán)力邊界?!?5)全球人工智能治理倡議[EB/OL].(2023-10-20)[2023-10-26]. https://www.mfa.gov.cn/zyxw/202310/t20231020_11164831.shtml.由此可見,推動AIGC邁向“負責(zé)任”,已經(jīng)成為AIGC技術(shù)倫理治理的一種必然趨勢。

二、AIGC技術(shù)倫理危機的誘發(fā)機制

尚未完善的“負責(zé)任”倫理規(guī)范以及治理舉措導(dǎo)致AIGC在使用中已經(jīng)誘發(fā)了一些技術(shù)倫理風(fēng)險,主要體現(xiàn)在:AIGC溝通中的“不理解”、決策中的“不可控”、安全性的“不可靠”、合作前景的“不可持續(xù)”。

(一)算法運行透明度低導(dǎo)致的溝通“不理解”

AIGC技術(shù)雖然能夠更好地收集信息并提取知識,但是其大型語言模型具有高度依賴數(shù)據(jù)訓(xùn)練、運行復(fù)雜度高、非線性關(guān)系復(fù)雜以及自適應(yīng)強等屬性,使得AIGC內(nèi)部運行機制有時難以被理解和解釋。搜索引擎通常向用戶提供信息的來源即鏈接,并讓用戶決定他們信任什么。相比之下,很少有人知道大型語言模型訓(xùn)練了什么數(shù)據(jù),是大英百科全書還是娛樂八卦[2]。AIGC技術(shù)生成的答案之所以有時難以解釋,是因為其類似于創(chuàng)造了“新事物”。例如,用戶向人工智能聊天機器人提問:銷量最高的三種寵物吸塵器的優(yōu)缺點是什么?人工智能聊天機器人給出的答案是:Bissell寵物吸塵器很吵,會嚇到寵物,并且其吸力很有限……繩索也很短[3]。但是,當(dāng)用戶點開信息來源鏈接后發(fā)現(xiàn)Bissell是一款便攜式手持真空吸塵器,它幾乎無噪聲。這里出現(xiàn)了答案與參考來源信息脫節(jié)的問題,因為人工智能聊天機器人類似于創(chuàng)造了新事物。

(二)缺乏主觀善意導(dǎo)致的決策“不可控”

AIGC技術(shù)生成的內(nèi)容基于大量數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)往往包含了人類偏見、歧視和負面情緒等因素,這些因素會被大型語言模型學(xué)習(xí)并體現(xiàn)在其生成的結(jié)果中,從而導(dǎo)致AIGC產(chǎn)生不當(dāng)甚至有害內(nèi)容。一方面,AIGC內(nèi)部運行機制復(fù)雜且透明度低,增加了產(chǎn)生不當(dāng)輸出的可能。已經(jīng)有案例顯示,大型語言模型會從訓(xùn)練數(shù)據(jù)中學(xué)到一些隱藏的模式或關(guān)聯(lián),這些模式或關(guān)聯(lián)與人類的價值觀不一致,從而使得大型語言模型輸出內(nèi)容不當(dāng)。另一方面,大型語言模型的自適性也可能會導(dǎo)致不當(dāng)輸出,因為模型會根據(jù)環(huán)境變化和輸入數(shù)據(jù)進行自我調(diào)整和優(yōu)化,從而產(chǎn)生新的輸出。例如,2022年6月,谷歌瀏覽器因在無痕模式下追蹤收集用戶數(shù)據(jù)而遭到投訴。2023年上半年Nature發(fā)文稱:“研究人員向ChatGPT和其他大型語言模型透露的信息可能會被納入模型,聊天機器人在不確認(rèn)原始來源的情況下將其提供給其他人”[4],與此同時,“人工智能聊天機器人會根據(jù)他們的訓(xùn)練數(shù)據(jù)嵌入偏見”[5],更為嚴(yán)重的是“那些讓人類誤入歧途的偏見,在對話式人工智能中被復(fù)制,甚至經(jīng)常被放大”[6]。AIGC生成的答案是基于大型語言模型的數(shù)據(jù)學(xué)習(xí)和訓(xùn)練,這就使得答案質(zhì)量由數(shù)據(jù)質(zhì)量決定。目前,人工智能企業(yè)用以大型語言模型學(xué)習(xí)和訓(xùn)練的數(shù)據(jù)不足,導(dǎo)致這些人工智能企業(yè)對數(shù)據(jù)尚未經(jīng)過嚴(yán)格篩選就用以投喂大型語言模型,有些存在缺陷的數(shù)據(jù)一旦被大型語言模型學(xué)習(xí)到,其生成的內(nèi)容不但不準(zhǔn)確,而且可能會造成人類安全感的缺失。例如,2023年2月,一位用戶向New Bing提問:“《阿凡達:水之道》今天在哪里放映?”得到的回答是:“《阿凡達:水之道》目前還未上映?!痹谟脩舾嬖VNew Bing其回答錯誤后,它不僅堅持自己的回答是正確的,而且要求用戶向它道歉,否則就結(jié)束對話,甚至表示用戶一直都是錯誤的、魯莽的,不是一個好用戶(6)Bing:“I will not harm you unless you harm me first”[EB/OL].(2023-02-15)[2023-06-12].https://simonwillison.net/2023/Feb/15/bing.。

(三)人工智能幻覺導(dǎo)致的安全性“不可靠”

在人工智能領(lǐng)域,“人工智能幻覺”指聊天機器人能夠輸出看似合理且連貫的信息,但這些信息可能與已知數(shù)據(jù)或現(xiàn)實完全不符合。有專家認(rèn)為:不能相信ChatGPT可以正確獲取事實或產(chǎn)生可靠資料,ChatGPT傾向于為它不知道答案的問題創(chuàng)造虛構(gòu)的答案[2]。例如,2022年12月7日,知名的程序員問答網(wǎng)站Stack Overflow宣布,將臨時禁止在Stack Overflow上發(fā)布由ChatGPT生成的文本。Stack Overflow官方表示,這是一項臨時規(guī)則,旨在減緩使用ChatGPT創(chuàng)建的答案涌入。這一限制的原因是從ChatGPT獲得正確答案的平均比率太低,如果發(fā)布ChatGPT創(chuàng)建的答案,對網(wǎng)站以及查詢正確答案的用戶來說是非常有害的(7)Stack Overflow臨時禁用ChatGPT生成內(nèi)容,網(wǎng)友:人類和AI快打起來[EB/OL].(2022-12-07)[2023-10-27]. https://www.thepaper.cn/newsDetail_forward_21047296.,那么,ChatGPT是如何為它不知道答案的問題創(chuàng)設(shè)虛構(gòu)答案的?首先,ChatGPT基于大型語言模型對互聯(lián)網(wǎng)海量文本數(shù)據(jù)進行學(xué)習(xí)。這些文本數(shù)據(jù)包含了各種來源的信息,包括新聞、維基百科、社交媒體等。然而,這些文本數(shù)據(jù)在尚未經(jīng)過人工篩選和驗證情況下參與生成答復(fù),可能會生成帶有錯誤、虛假和偏見內(nèi)容的消息。其次,ChatGPT是通過自動生成的大型語言模型來產(chǎn)生回復(fù)的。目前,ChatGPT并不具備真正的理解和推理能力,它只是根據(jù)用戶的輸入提示和上下文語境來預(yù)測下一個合適的回復(fù)。這種自動生成的方式導(dǎo)致ChatGPT并沒有對其回復(fù)的真實性進行驗證或事實檢查,可能會制造人工智能幻覺。此外,ChatGPT還存在其他問題,諸如它在回復(fù)同一問題時,可能會給出多個可能的答案,而不是提供一個明確的回答。這也可能導(dǎo)致用戶對ChatGPT的回復(fù)產(chǎn)生誤解或產(chǎn)生人工智能幻覺。綜上,人工智能幻覺主要是因為其基于大數(shù)據(jù)訓(xùn)練而形成,而這些數(shù)據(jù)可能存在偏差或錯誤,AIGC也可能會受到模型數(shù)據(jù)結(jié)構(gòu)、訓(xùn)練算法等因素的影響,導(dǎo)致輸出的結(jié)果不準(zhǔn)確。另外,AIGC還面臨著缺乏常識和情感理解的問題,它無法理解人類的情感、價值和道德標(biāo)準(zhǔn),導(dǎo)致輸出的答案與人類的期望有偏差。解決這些問題,需要采取一系列措施,包括數(shù)據(jù)清洗、算法調(diào)整、建立監(jiān)督和反饋機制,以確保模型輸出的答案符合人類的標(biāo)準(zhǔn)和期望,同時,也需要加強對AIGC的監(jiān)督和管理,以確保其安全和可靠。

(四)人機伙伴關(guān)系尚未建立導(dǎo)致的合作前景“不可持續(xù)”

AIGC扮演了“多領(lǐng)域深度應(yīng)用者”的角色,其不限于能夠在智慧農(nóng)場、智能港口、智能礦山、智慧工廠、智慧家居等多個場景中應(yīng)用,而且在醫(yī)療診斷中也有廣泛應(yīng)用,其應(yīng)用場景越多,暴露的算法歧視與偏見也就越多。例如,一篇發(fā)表在Science上的研究表明,美國醫(yī)療保健系統(tǒng)使用商業(yè)算法來指導(dǎo)超過2億人的醫(yī)療服務(wù)健康決策,對非洲裔患者實施了群體性歧視。由于輸入數(shù)據(jù)中沒有“種族”選項,開發(fā)者認(rèn)為該算法是不分種族的,但對于與白人患病程度相當(dāng)?shù)姆侵抟峄颊?該算法始終給予其較低風(fēng)險分?jǐn)?shù),其未能識別出將近有一半非裔患者有可能產(chǎn)生與白人患者類似的復(fù)雜醫(yī)療需求,導(dǎo)致這些非洲裔患者無法參與改善健康的干預(yù)項目[7]。喬姆斯基是“人工智能不可持續(xù)”論的代表人物,他認(rèn)為ChatGPT表現(xiàn)出某種類似邪惡的平庸,如剽竊、冷漠和回避,它以一種超級自動補全的方式總結(jié)了文獻中的標(biāo)準(zhǔn)論點,拒絕在任何事情上表明立場,它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種“只是服從命令”的辯護,將責(zé)任推給它的創(chuàng)造者[8]。人工智能的出發(fā)點在于為人類生產(chǎn)生活提供便捷,技術(shù)需要助力于人類邁向更加公平、正義、溫情之路。然而,AIGC有時表現(xiàn)出來的“剽竊、冷漠和回避”,是否與人工智能發(fā)明者的初心背道而馳呢?人工智能技術(shù)能否持續(xù)為人類社會創(chuàng)造福祉?人類采取何種態(tài)度對待人工智能技術(shù)也是決定這種福祉實現(xiàn)程度的重要影響因素之一。余明峰認(rèn)為:“現(xiàn)代性的‘人類中心主義承諾’實有一種根本上的僭越?jīng)_動。這種僭越企圖以現(xiàn)代技術(shù)的無限潛能超越自身生存之有限性。不是直面有限性,而是企圖增強力量來達到有限性,基于人工智能和生物技術(shù)的各式人類增強技術(shù)正是這樣一種現(xiàn)代方案的典型體現(xiàn)??汕∏е@種人類中心主義的妄念,現(xiàn)代人陷入了系統(tǒng)的無限支配。強力的另一面恰恰是無力。”[9]38因此,人類要摒棄無限支配人工智能技術(shù)的態(tài)度,要從技術(shù)研發(fā)、技術(shù)倫理遵循以及法律制定等層面構(gòu)建人機可以合作的、可持續(xù)的伙伴關(guān)系,應(yīng)用人工智能技術(shù)為人類創(chuàng)造更多福祉。

三、AIGC技術(shù)倫理危機的治理基點

AIGC的使用正在誘發(fā)技術(shù)倫理危機,人們越來越擔(dān)憂AIGC的自主決策會帶來不可預(yù)測的后果。為了避免AIGC自主決策傷害人類事件繼續(xù)發(fā)生,加快AIGC監(jiān)管和治理刻不容緩。AIGC技術(shù)倫理治理是一項系統(tǒng)工程,學(xué)界應(yīng)推進人機協(xié)同中的可解釋性研究、政府要加強對AIGC的審查和監(jiān)管、人工智能企業(yè)應(yīng)建立自治自律機制、用戶要提升算法素養(yǎng)。唯有如此,才有可能制定既能推進AIGC可持續(xù)發(fā)展又能保障人類福祉的技術(shù)倫理監(jiān)管和治理框架。

(一)學(xué)界推進人機協(xié)同中的可解釋性研究:實現(xiàn)AIGC溝通的“可理解”

人機協(xié)同中的可解釋性研究旨在提供機器決策的解釋,使人類對機器的決策過程和結(jié)果可理解和可信任,以提高人機協(xié)同的效率。為此,2023年3月8日,中國國家自然科學(xué)基金委員會啟動了“可解釋、可通用下一代人工智能方法重大研究計劃”,旨在研究并發(fā)展下一代可解釋、可通用的人工智能方法,以提高人工智能技術(shù)在人機協(xié)同工作中的應(yīng)用。這一計劃將有助于增強人類對機器決策過程和結(jié)果的理解和信任,推動人機協(xié)同的發(fā)展。

1.以可解釋性算法模型設(shè)計為基石

既要從技術(shù)倫理的視角出發(fā),促進負責(zé)任人工智能本身的發(fā)展,推進AIGC治理,還要堅持“科學(xué)技術(shù)對人負責(zé)”的基本原則。2018年,歐盟發(fā)布了《通用數(shù)據(jù)保護條例》(GDPR),強制要求人工智能算法具有可解釋性,要求算法模型的設(shè)計不僅要“事前解釋”,同時也要“事后解釋”?!笆虑敖忉尅蹦P陀伞白越忉屇P汀币约啊皹?gòu)建具有內(nèi)置可解釋性模型”兩部分組成?!白越忉屇P汀卑ň€性模型、決策樹、樸素貝葉斯模型等,其結(jié)構(gòu)簡單,本身可解釋;“構(gòu)建具有內(nèi)置性的可解釋性模型”通過特定方法使得模型自身可解釋,設(shè)計方法是引入注意力機制、深化統(tǒng)計模型、基于物理定型?!笆潞蠼忉尅蹦P陀伞叭中越忉屇P汀焙汀熬植啃越忉屇P汀眱刹糠纸M成?!叭中越忉屇P汀贬槍φ麄€模型,說明其整體的工作機制,其設(shè)計方法是激活最大化、概念激活矢量測試;“局部解釋模型”針對單個輸入樣本,幫助人們理解模型對于輸入樣本的決策依據(jù),設(shè)計方法是反向傳播、類激活映射、局部近似、可解釋機器學(xué)習(xí)模型(SHAP)?!笆虑敖忉尅焙汀笆潞蠼忉尅眱煞N模型各有優(yōu)缺點,“事前解釋”模型需要在模型訓(xùn)練之前進行,因此,需要花費更多時間和精力來構(gòu)建特征模型;“事后解釋”模型可以快速應(yīng)用于已有模型,但需要對模型輸出進行解釋,難以準(zhǔn)確地捕捉模型中的錯誤和偏差。因此,在算法模型設(shè)計中要將“事前解釋”和“事后解釋”兩種模型結(jié)合起來,相互補充,共同推進AIGC可解釋性研究。

2.以可解釋性框架準(zhǔn)則設(shè)計為指導(dǎo)

可解釋性框架準(zhǔn)則設(shè)計是為了確保人工智能系統(tǒng)的決策和行為可以被理解和解釋。首先,在構(gòu)建通用、系統(tǒng)的可解釋性的指導(dǎo)框架準(zhǔn)則的基礎(chǔ)上,研發(fā)優(yōu)化針對復(fù)雜度較高模型的“事后可解釋性”技術(shù),隨后進行評估。其次,在指導(dǎo)性框架準(zhǔn)則設(shè)計方面,對已有實踐、政策、案例進行調(diào)研,將以人為本作為核心參考準(zhǔn)則,圍繞“公開性、輔助性、相對性”三項原則,提煉并制定指導(dǎo)框架與具體的執(zhí)行準(zhǔn)則。例如,微軟、谷歌等公司和部分學(xué)者提出了“構(gòu)建可持續(xù)交互式人工智能的參考標(biāo)準(zhǔn)/理論框架”。最后,在此基礎(chǔ)上引入人類認(rèn)知模型,對具體準(zhǔn)則進行細化,聚焦人類認(rèn)識與系統(tǒng)交互,助力可解釋性人工智能。以Apple Watch為例,基于微軟的參考準(zhǔn)則,可解釋的交互式Apple Watch應(yīng)該滿足以下要求:在人機初次接觸時期,幫助用戶了解Apple Watch能做什么,以及幫助用戶了解Apple Watch能在多大程度上做好用戶傳達的任務(wù);在漸入互動時期,提供當(dāng)前任務(wù)的相關(guān)信息以及提供基于環(huán)境的及時指導(dǎo);在系統(tǒng)發(fā)生錯誤時,能夠明確告知用戶出錯原因,并可以改進或恢復(fù);在深入?yún)f(xié)作時期,能夠通知用戶系統(tǒng)的有關(guān)更改以及告知用戶其行為如何影響產(chǎn)品。

3.以滿足用戶的可解釋需求為橋梁

用戶對AIGC的可解釋性需求主要包括透明性、解釋性、可信度和可追溯,滿足這些需求可以增加用戶對人工智能系統(tǒng)的信任和接受度,改善用戶體驗。2019年,中國國家新一代人工智能治理委員會發(fā)布的《新一代人工治理原則——發(fā)展負責(zé)任的人工智能》就提出,人工智能系統(tǒng)應(yīng)當(dāng)不斷提升可解釋性。就目前而言,國內(nèi)學(xué)界對于可解釋性的研究包括但不限于:清華大學(xué)人工智能研究院智能信息獲取研究中心,從用戶需求與AIGC現(xiàn)有解釋水平之間的差距、個體差異對AIGC的影響展開研究;武漢大學(xué)人機交互與用戶行為研究中心吳丹教授團隊,基于海量用戶數(shù)據(jù),著眼語音、手勢、眼動交互及認(rèn)知等,開展大規(guī)模、多情境的用戶研究,分析個體或群體對AIGC的需求。

4.以可解釋性評估為輔助

可解釋性評估對于確保AIGC結(jié)果的可解釋和準(zhǔn)確性非常重要。由于AIGC的結(jié)果是由模型自主生成的,因此,需要對其結(jié)果進行評估,以確保結(jié)果的可解釋和準(zhǔn)確性。要提升AIGC可解釋性評估性能,就要綜合系統(tǒng)解釋本身、開發(fā)者、用戶三個視角,納入應(yīng)用情境、解釋方法差異等指標(biāo),構(gòu)建以用戶為核心、以專家為參考、以技術(shù)模型為輔助的多層次、多角度的評估體系,助力實現(xiàn)全面有效的可解釋性評估。從系統(tǒng)本身解釋的質(zhì)量出發(fā),就要綜合考慮解釋的保真度(解釋是否真實反映系統(tǒng))、復(fù)雜度(解釋的數(shù)量和長短)、忠誠度(解釋能否根據(jù)用戶的調(diào)試而改變)、魯棒性(解釋是否容易被干擾),納入評估指標(biāo)。從開發(fā)者的角度出發(fā),就要綜合考慮開發(fā)時的解釋目標(biāo)以及達成的解釋效果,最終以解釋是否實現(xiàn)其設(shè)計目標(biāo)作為衡量標(biāo)準(zhǔn)。從用戶的角度出發(fā),就要綜合考慮用戶對系統(tǒng)的信任度、滿意度、工作績效、心理模型,最終以用戶接受解釋的效果和體驗為評估指標(biāo)。

(二)政府加強對AIGC的審查和監(jiān)管:確保AIGC決策的“可控制”

加強對AIGC的審查和監(jiān)管,是一項復(fù)雜但必要的工作?!吧墒饺斯ぶ悄艿母锩园l(fā)展給現(xiàn)有法律責(zé)任體系帶來了巨大挑戰(zhàn)。”[10]為此,政府需要建立評估機制來對AIGC技術(shù)的可行性和安全性進行評估,同時還需要建立技術(shù)倫理規(guī)范,明確技術(shù)應(yīng)用的道德底線和法律法規(guī)的界限,最重要的是要加強技術(shù)倫理監(jiān)管力度,確保技術(shù)的合規(guī)性和安全性。三者協(xié)同運作,可以有效地預(yù)防引發(fā)AIGC科技倫理“不可控”危機,保障技術(shù)發(fā)展和社會穩(wěn)定。

1.建立AIGC評估機制

AIGC評估機制是為了確保AIGC技術(shù)開發(fā)和應(yīng)用的安全性、可靠性和公平性而建立的,該機制包括數(shù)據(jù)隱私保護評估、算法公平評估、模型準(zhǔn)確評估和應(yīng)對意外事件評估等方面。首先,數(shù)據(jù)隱私保護評估機制要求AIGC開發(fā)和應(yīng)用確保用戶的隱私得到保護,這意味著要有足夠的安全措施確保用戶的數(shù)據(jù)不被泄露或濫用。OpenAI公司已經(jīng)采取一系列措施保護用戶隱私。2023年4月5日,OpenAI公司發(fā)布了OurApproachtoAISafety,表示努力在可行情況下從訓(xùn)練數(shù)據(jù)中刪除個人信息,微調(diào)模型以拒絕對私人信息的請求,而且能夠響應(yīng)用戶在OpenAI的系統(tǒng)中刪除個人信息的請求。這些措施最大限度地減少了AIGC生成包含個人信息內(nèi)容的可能性。其次,算法公平評估機制要求AIGC算法透明、可解釋以及公平。算法不能歧視任何人或群體,應(yīng)該透明、可接受和公正,這樣可以確保AIGC在開發(fā)和應(yīng)用過程中不會出現(xiàn)歧視行為。再次,模型準(zhǔn)確評估機制要求AIGC系統(tǒng)的模型具備高度的準(zhǔn)確性和魯棒性。模型需要在各種情況下正確執(zhí)行任務(wù),準(zhǔn)確評估機制的作用是檢查模型是否準(zhǔn)確、魯棒和可靠。最后,應(yīng)對意外事件能力評估機制是為了確保AIGC具備應(yīng)對意外事件的能力。例如,當(dāng)輸入數(shù)據(jù)與預(yù)期不符時,系統(tǒng)能夠自動適應(yīng)并做出合理決策,可以保證生成內(nèi)容的質(zhì)量和可行性。需要注意的是,評估機制應(yīng)該是動態(tài)的,隨著模型的使用和反饋進行不斷更新和改進。此外,評估過程還需要充分考慮領(lǐng)域?qū)<业呐袛嗪鸵庖?以確保生成內(nèi)容的可靠性和實用性。

2.建立技術(shù)倫理規(guī)范

隨著ChatGPT在行業(yè)內(nèi)外引發(fā)越來越多的擔(dān)憂,政府部門一致認(rèn)為,僅憑人工智能產(chǎn)品的開發(fā)者和提供者自我監(jiān)督是不夠的。因此,政府部門應(yīng)對AIGC的開發(fā)和應(yīng)用進行規(guī)范和限制,明確其應(yīng)遵守的道德倫理標(biāo)準(zhǔn)和責(zé)任義務(wù),以保障公眾利益和社會秩序。首先,設(shè)立專門監(jiān)管AIGC的機構(gòu),負責(zé)監(jiān)管AIGC技術(shù)的開發(fā)和應(yīng)用。這個機構(gòu)由專門的人工智能專家團隊組成,他們將參與AIGC的安全性、透明性和公正性的審查,同時審查AIGC是否符合技術(shù)倫理規(guī)范。一些國家在這方面已經(jīng)取得進展。例如,2023年3月,意大利數(shù)據(jù)隱私監(jiān)管機構(gòu)以ChatGPT涉嫌非法收集個人數(shù)據(jù)、缺乏未成年人年齡核實等理由,下令禁止使用ChatGPT,直到其尊重隱私法規(guī)為止(8)涉嫌侵犯隱私 意大利數(shù)據(jù)保護機構(gòu)對ChatGPT開發(fā)公司展開調(diào)查[EB/OL].(2023-04-01)[2023-06-12].http://world.people.com.cn/n1/2023/0401/c1002-32655784.html.。2023年4月,德國聯(lián)邦數(shù)據(jù)保護專員也向媒體透露了在德國“封殺”ChatGPT的可能性(9)負面情緒正持續(xù)發(fā)酵 多國計劃加強對ChatGPT監(jiān)管[EB/OL].(2023-04-10)[2023-06-12].https://news.cctv.com/2023/04/10/ARTIlImrRNUIW2jg9OlZ79.。這些監(jiān)管機構(gòu)在確保技術(shù)倫理方面發(fā)揮了重要作用。其次,制定AIGC安全評估要求。開發(fā)者在發(fā)布AIGC系統(tǒng)前需進行安全評估,這些評估主要涉及數(shù)據(jù)隱私、安全性、透明度和公正性等方面。例如,2023年5月4日,美國總統(tǒng)拜登表示,人工智能是否具有潛在危險還有待觀察,但是科技公司有責(zé)任確保他們的產(chǎn)品在發(fā)布之前是安全的(10)拜登政府會見企業(yè)科技龍頭 討論人工智能潛在風(fēng)險[EB/OL].(2023-05-06)[2023-07-01].https://www.chinanews.com.cn/gj/2023/05-06/10002495.shtml.。再次,制定AIGC數(shù)據(jù)隱私保護法規(guī),保障用戶個人信息安全和隱私。這些法律法規(guī)應(yīng)該規(guī)定AIGC應(yīng)用開發(fā)者遵守的數(shù)據(jù)收集、使用和共享的規(guī)則,以及如何保護用戶個人信息安全。最后,制定AIGC開發(fā)和應(yīng)用的道德倫理規(guī)范準(zhǔn)則。政府應(yīng)本著透明、公正原則,要求AIGC開發(fā)者不歧視某些群體和用戶,不得違反公共利益和社會秩序,同時也要兼顧考慮不同文化、信仰和價值觀的差異,以防止出現(xiàn)偏見和不公平的結(jié)果,確保AIGC應(yīng)用開發(fā)者不損害任何人的利益。

3.加強技術(shù)倫理監(jiān)管力度

人工智能技術(shù)快速發(fā)展和擴張應(yīng)用帶來了人類對其潛在危害的擔(dān)憂,這促使政府部門必須制定各種相關(guān)法規(guī)對AIGC進行監(jiān)管。首先,制定相關(guān)政策及法律法規(guī)。美國民意調(diào)查顯示,美國人普遍認(rèn)為人工智能不可信,希望對其實施監(jiān)管。2023年6月14日,歐洲議會投票通過了《人工智能法案》授權(quán)草案,旨在確保人工智能發(fā)展符合歐洲的價值觀和權(quán)利。然而,該法案引起了一些異議,Encord的聯(lián)合創(chuàng)始人兼總裁Hansen表示,該法案缺乏靈活性,未考慮到人工智能的快速發(fā)展。2023年7月10日,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,這一舉措受到學(xué)界的高度評價。昆山杜克大學(xué)電子與計算機工程教授、大數(shù)據(jù)研究中心主任黃開竹博士認(rèn)為,在大量AIGC技術(shù)應(yīng)用和系統(tǒng)涌現(xiàn)后,算法背后的安全性、公平性、可信性、隱私保護和風(fēng)險等方面的引導(dǎo)和規(guī)范相對滯后,但中國的《生成式人工智能服務(wù)管理暫行辦法》出臺非常及時,從技術(shù)角度審視非常專業(yè),為AIGC的開發(fā)者和使用者加上了“護欄”。因此,在制定人工智能法律法規(guī)時,應(yīng)該找到創(chuàng)新與監(jiān)督之間的平衡,為其發(fā)展提供指導(dǎo)和框架,鼓勵創(chuàng)新和研發(fā)。其次,制定技術(shù)標(biāo)準(zhǔn)。制定AIGC的技術(shù)標(biāo)準(zhǔn)旨在對其研發(fā)和應(yīng)用進行指導(dǎo),確保技術(shù)的安全性和可靠性。人工智能技術(shù)安全性和可靠性是社會的重要關(guān)切,政府制定技術(shù)標(biāo)準(zhǔn)可以提升AIGC系統(tǒng)的安全性和可靠性,降低風(fēng)險。隨著OpenAI和微軟的結(jié)合,加上谷歌內(nèi)部的DeepMind,美國保持了技術(shù)領(lǐng)先地位。在制定技術(shù)標(biāo)準(zhǔn)這一領(lǐng)域,美國走在了世界前列。2023年1月26日,美國商務(wù)部下屬的國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布了其第一版《人工智能風(fēng)險管理框架》(AIRiskManagementFramework),旨在指導(dǎo)人工智能企業(yè)在開發(fā)和部署人工智能系統(tǒng)時降低安全風(fēng)險,避免產(chǎn)生偏見和其他負面后果,提高人工智能可信度,保護公民的公平自由權(quán)利(11)NIST AI risk mangement framework(AI RMF 1.0)launch[EB/OL].(2023-03-30)[2023-06-12].https://www.nist.gov/itl/ai-risk-management-framework.。

(三)建立企業(yè)行業(yè)自治自律機制:實現(xiàn)AIGC安全性的“可信賴”

在意大利、加拿大宣布對OpenAI公司展開調(diào)查以后,德國、法國、愛爾蘭等國數(shù)據(jù)監(jiān)管機構(gòu)紛紛跟隨。作為對此次事件的回應(yīng),OpenAI公司于2023年4月5日發(fā)布了OurApproachtoAISafety,詳細介紹了該公司如何確保人工智能系統(tǒng)的安全性。OpenAI公司的這一企業(yè)自治舉措只是人工智能行業(yè)展開自治的一個縮影,說明人工智能行業(yè)已經(jīng)意識到AIGC誘發(fā)的技術(shù)倫理風(fēng)險并且展開自治自律。Insight Enterprise公司的一項調(diào)查研究發(fā)現(xiàn),81%的人工智能大公司(員工超過1 000人)已經(jīng)在圍繞AIGC制定或?qū)嵤╊愃普呋虿呗浴?/p>

1.完善AIGC使用規(guī)范

人工智能企業(yè)扮演著AIGC系統(tǒng)的研發(fā)者、使用者和監(jiān)管者等多重角色,在研發(fā)和使用AIGC系統(tǒng)時必須明確自身角色定位,對系統(tǒng)研發(fā)程序、使用范圍進行倫理規(guī)范,防止AIGC技術(shù)被濫用,確保AIGC技術(shù)本身遵守社會倫理規(guī)范、符合社會價值觀。OpenAI公司也采取了一系列措施來保障用戶權(quán)益,他們在OurApproachtoAISafety中規(guī)定,用戶必須年滿18周歲,或年滿13周歲在父母批準(zhǔn)下才能使用人工智能工具,此外,他們也明確表示不允許其技術(shù)用于生成仇恨、騷擾、暴力或成人類別的內(nèi)容(12)Our approach to AI safety[EB/OL].(2023-04-05)[2023-06-12].https://openai.com/blog/our-approach-to-ai-safety.。顯然,生成仇恨和暴力內(nèi)容違背了社會的價值觀和道德準(zhǔn)則,這種內(nèi)容可能會導(dǎo)致仇恨犯罪和暴力行為的增加。人工智能企業(yè)有責(zé)任確保技術(shù)的使用不會對社會造成負面影響。與此同時,仇恨和暴力內(nèi)容對用戶的安全和心理健康同樣會構(gòu)成威脅,這些內(nèi)容可能引發(fā)仇恨言論、騷擾、恐嚇和暴力行為,對個人或群體造成傷害。因此,限制此類內(nèi)容有助于保護用戶安全和增加社會福祉。

2.建立AIGC透明機制和可解釋性機制

如果一個AIGC系統(tǒng)不透明或者不可解釋,那么其決策就會缺乏信任度和可靠性,用戶就無法理解其決策的依據(jù),這會導(dǎo)致用戶對AIGC信任度降低。透明度代表AIGC系統(tǒng)的數(shù)據(jù)和算法是否可以被公開,以便用戶了解AIGC內(nèi)部工作方式,用戶希望知道AIGC系統(tǒng)是如何處理數(shù)據(jù)的,其使用了怎樣的算法和模型,這樣用戶才能夠信任該系統(tǒng)。可解釋性意味著AIGC系統(tǒng)的決策過程是否可以被解釋清楚,以便用戶可以理解為什么AIGC會做出特定的決策。用戶希望能夠理解AIGC系統(tǒng)背后的邏輯和推理過程,而不僅僅是接受系統(tǒng)的結(jié)果。提升AIGC系統(tǒng)的透明度和可解釋性,可以幫助用戶發(fā)現(xiàn)潛在偏見和歧視并及時解決,可以增加用戶對AIGC的信任,并使AIGC更加可靠實用。因此,為了增加用戶對AIGC的信任,并使其更加可靠實用,需要在研發(fā)過程中提升AIGC系統(tǒng)的透明度和可解釋性,確保用戶可以理解系統(tǒng)內(nèi)部的運作方式和決策過程。

首先,建立AIGC系統(tǒng)透明機制。這種透明機制是指在人工智能應(yīng)用中,確保系統(tǒng)的運作過程對用戶是透明的。為了達到這個目的,需要從以下幾個方面進行落實。第一,人工智能企業(yè)公布AIGC數(shù)據(jù)集和算法,使用戶了解AIGC系統(tǒng)是如何運作的,從而增加用戶的信任。第二,保護用戶數(shù)據(jù)隱私也是建立透明機制重要一環(huán)。人工智能企業(yè)需要使用技術(shù)手段脫敏、差分隱私等來保護用戶數(shù)據(jù)隱私,確保用戶的個人信息和敏感數(shù)據(jù)不被泄露或濫用。第三,人工智能企業(yè)還要與用戶溝通,解答用戶對AIGC系統(tǒng)的疑問,通過提供相關(guān)信息和技術(shù)解釋,幫助用戶深入了解AIGC系統(tǒng)的運行原理和決策過程。第四,人工智能企業(yè)應(yīng)及時回應(yīng)用戶的反饋,并根據(jù)用戶反饋問題來增強AIGC系統(tǒng)的透明度,通過不斷優(yōu)化和改進,使系統(tǒng)更加符合用戶的期待,這樣AIGC系統(tǒng)能夠更好地為用戶服務(wù)。

其次,建立AIGC可解釋性機制。第一,可視化是一個重要步驟。人工智能企業(yè)可以通過數(shù)據(jù)可視化方式,將AIGC系統(tǒng)的決策過程呈現(xiàn)給用戶,讓用戶更容易理解AIGC的行為,明白其為什么會做出這樣的決策。第二,解釋模型也是一種可行的途徑。人工智能企業(yè)可以使用可解釋模型,例如決策樹邏輯回歸等,這些模型可以提供可視化和更多的可解釋性,同時也能夠以可視化的方式展現(xiàn)出來,使用戶更容易理解AIGC的工作原理。第三,解釋特征也非常重要。人工智能企業(yè)可以解釋AIGC系統(tǒng)是如何使用輸入數(shù)據(jù)特征來做出決策的,這樣的解釋可以幫助用戶更好地理解AIGC決策行為,并對其結(jié)果有更深入的認(rèn)識。第四,解釋誤差是一個可以考慮的方向。人工智能企業(yè)可以解釋AIGC系統(tǒng)的誤差來源,比如特定的輸入數(shù)據(jù)或模型參數(shù),這樣的解釋可以幫助用戶更好地理解AIGC系統(tǒng)的弱點和極限,從而提升對其決策結(jié)果的信任度。

3.建立AIGC安全風(fēng)險管理機制

AIGC廣泛應(yīng)用于金融、醫(yī)療、化學(xué)、采礦等特殊領(lǐng)域,或許會涉及大量的敏感信息和國防安全信息。如果人工智能企業(yè)不能有效管理和預(yù)防這些安全風(fēng)險隱患,AIGC可能會發(fā)生數(shù)據(jù)泄露、隱私侵犯、惡意軟件、黑客攻擊等情況,從而違背技術(shù)倫理,對人類造成傷害。因此,必須建立AIGC的安全風(fēng)險管理機制。首先,企業(yè)需要建立AIGC使用前的安全風(fēng)險評估機制。這一評估機制包括對系統(tǒng)數(shù)據(jù)安全、算法安全、模型安全、網(wǎng)絡(luò)安全等方面的評估。通過使用前的安全風(fēng)險評估,企業(yè)可以發(fā)現(xiàn)AIGC存在的技術(shù)漏洞和安全隱患,并制定相應(yīng)的補救措施。例如,OpenAI公司強調(diào)他們在發(fā)布任何新系統(tǒng)之前都會進行嚴(yán)格測試、聘請外部專家提供反饋,以建立普遍適用的安全和監(jiān)控系統(tǒng)。OpenAI公司還表示,GPT-4在發(fā)布之前已經(jīng)經(jīng)過了為期6個月的安全測試。其次,建立AIGC使用中的安全風(fēng)險管理機制。這一機制包括實時的安全監(jiān)控、強化的數(shù)據(jù)保護和網(wǎng)絡(luò)防御措施等,以應(yīng)對可能出現(xiàn)的安全風(fēng)險。例如,OpenAI公司強調(diào),公司會根據(jù)ChatGPT在現(xiàn)實中的使用情況,制定更加詳細的措施防范風(fēng)險。再次,建立AIGC的應(yīng)急響應(yīng)機制。這一機制的建立旨在一旦系統(tǒng)出現(xiàn)風(fēng)險隱患,能夠及時響應(yīng)和處置,減少風(fēng)險事件對系統(tǒng)本身以及用戶的影響。此外,構(gòu)建與第三方安全機構(gòu)的合作機制非常重要,與第三方安全機構(gòu)合作的意義在于定期對AIGC進行安全測試和安全審計,及時發(fā)現(xiàn)和解決AIGC系統(tǒng)中存在的安全隱患問題,并進行及時修復(fù)。

(四)用戶提升算法素養(yǎng):實現(xiàn)人類與AIGC合作的“可持續(xù)”

“人工智能正成為推動人類進入智能時代的決定性力量”[11],用戶提升算法素養(yǎng)對于人工智能可持續(xù)發(fā)展至關(guān)重要。它可以保護個人數(shù)據(jù)隱私和安全、降低算法不公平和偏見、促進社會對話和監(jiān)管、促進技術(shù)的接受和應(yīng)用。這些方面的改進將有助于人工智能技術(shù)更好地為人類社會帶來福祉。

1.提升認(rèn)知AIGC算法缺陷的素養(yǎng)

在計算機科學(xué)和信息技術(shù)領(lǐng)域,算法是解決問題的一種方法或步驟的描述。算法素養(yǎng)是指對算法的理解和掌握程度,包括對算法的基本概念、原理和應(yīng)用的了解,以及對算法的設(shè)計、分析和優(yōu)化的能力。AIGC算法在很大程度上受人類算法工程師個人價值觀的影響,這就使得AIGC算法缺乏公正客觀。對于用戶而言,提升認(rèn)知AIGC算法缺陷的素養(yǎng)對于其在使用AIGC過程中減少算法偏見和歧視十分關(guān)鍵。因此,用戶提升認(rèn)知AIGC算法缺陷的素養(yǎng)需要采取以下兩方面的措施。一方面,用戶要了解AIGC運行的基本原理,認(rèn)識到AIGC本身存在的技術(shù)局限性和算法缺陷,這樣能夠更好地理解AIGC的運作方式以及預(yù)防可能出現(xiàn)的問題。另一方面,用戶在使用AIGC時要比較多個來源的內(nèi)容,以便更好地判斷生成內(nèi)容是否準(zhǔn)確,如果多個來源的內(nèi)容不一致,用戶需要進一步調(diào)查和研究,以確定最終結(jié)論,避免單一來源信息的偏見和誤導(dǎo)。

2.提升防范AIGC可能誘發(fā)的技術(shù)倫理危機的能力

用戶應(yīng)該培養(yǎng)隱私保護意識、確認(rèn)信息來源的可靠性、提升安全防范意識以及積極參與反饋和監(jiān)督,以保護個人權(quán)益,促進人工智能的透明和負責(zé)任使用。第一,培養(yǎng)隱私保護意識。用戶在使用AIGC提供的服務(wù)時,應(yīng)該妥善保護個人信息不泄露給他人,并且使用強密碼來保護賬戶的安全。第二,確認(rèn)數(shù)據(jù)來源的可靠性。在使用AIGC提供服務(wù)時,用戶要仔細判斷確認(rèn)信息來源的真實性和可靠性,避免被虛假信息誤導(dǎo),以免做出錯誤的判斷和決策。第三,提升安全防范意識。用戶要時刻保持警覺,避免成為釣魚、詐騙等攻擊手段的受害者,要警覺各種欺詐行為,避免在不安全的環(huán)境下使用個人數(shù)據(jù)和信息。第四,積極參與對AIGC的反饋和監(jiān)督。用戶在使用AIGC提供的服務(wù)時,如果發(fā)現(xiàn)存在不準(zhǔn)確、有偏差或錯誤的地方,可以通過平臺提供的反饋機制進行報告,以幫助平臺改進算法。例如,OpenAI表示,它將向報告其人工智能系統(tǒng)漏洞的用戶提供高達2萬美元的獎勵。此外,用戶也可以參與到人工智能社區(qū)的討論和交流中,與其他用戶共同發(fā)現(xiàn)錯誤并糾正偏差,如果用戶發(fā)現(xiàn)AIGC存在不當(dāng)、有害甚至違法信息,可以通過平臺提供的舉報機制進行舉報。

四、總結(jié)與展望

人類歷史上每一次技術(shù)變革與進步都會引發(fā)人類對技術(shù)的深刻反思。2022年底OpenAI公司ChatGPT的出現(xiàn)備受矚目,這種AIGC技術(shù)與以往傳統(tǒng)人工智能技術(shù)相比較具有“壓倒性”優(yōu)勢:AIGC使用門檻更低、應(yīng)用場景更加廣泛、創(chuàng)新力更強且自動化程度更高。因此,AIGC一經(jīng)面世就具有造福人類社會的巨大潛力。然而,AIGC在使用過程中因算法透明低導(dǎo)致的溝通“不理解”、缺乏主觀善意導(dǎo)致的決策“不可控”、人工智能幻覺導(dǎo)致的安全性“不可靠”、人機伙伴關(guān)系尚未建立導(dǎo)致的合作前景“不可持續(xù)”的問題已經(jīng)誘發(fā)了技術(shù)倫理危機。AIGC在引爆人工智能技術(shù)前進“海嘯”的同時也誘發(fā)了技術(shù)倫理危機。因此,亟須對AIGC進行負責(zé)任監(jiān)管和治理。這種監(jiān)管和治理需要利益各方協(xié)同發(fā)力。學(xué)界要堅持對技術(shù)負責(zé)的原則,推進人機協(xié)同中可解釋性研究;政府要堅持對社會負責(zé)的原則,加強對AIGC的審查和監(jiān)管;人工智能企業(yè)要堅持對用戶負責(zé)的原則,建立企業(yè)自律自治機制;用戶要堅持對自己負責(zé)的原則,提升算法素養(yǎng)。只有這樣,才有可能實現(xiàn)AIGC溝通的“可理解”、確保AIGC決策的“可控制”、實現(xiàn)AIGC安全性的“可信賴”以及AIGC發(fā)展的“可持續(xù)”。

人工智能技術(shù)進步的腳步不會停歇,AIGC向前發(fā)展已勢不可擋。國內(nèi)外學(xué)界許多知名學(xué)者和人工智能領(lǐng)域的“翹楚”人物已經(jīng)認(rèn)為AIGC是邁向通用人工智能(artificial general intelligence,AGI)時代的雛形。在將來,AGI很有可能被發(fā)明并廣泛應(yīng)用。AIGC作為邁向AGI的前奏,其誘發(fā)的技術(shù)倫理危機已經(jīng)向人們敲響了警鐘:人類必須正確處理與人工智能技術(shù)發(fā)展的關(guān)系。問題的關(guān)鍵是,當(dāng)AGI時代真正到來時,人類如何才能確保AGI技術(shù)對人類是安全有益的。因此,緊跟AIGC技術(shù)發(fā)展“更新迭代”腳步,不斷對其“負責(zé)任”地治理將永遠在路上。

猜你喜歡
解釋性倫理人工智能
《心之死》的趣味與倫理焦慮
論行政自由裁量的“解釋性控權(quán)”
法律方法(2021年4期)2021-03-16 05:35:16
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
英漢互譯中的認(rèn)知隱喻翻譯探究
文教資料(2018年30期)2018-01-15 10:25:06
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
融媒體時代解釋性報道的發(fā)展之路
傳播力研究(2017年5期)2017-03-28 09:08:30
下一幕,人工智能!
非解釋性憲法適用論
张家界市| 安达市| 罗田县| 平远县| 通化市| 奈曼旗| 兰州市| 抚州市| 读书| 南阳市| 满城县| 涪陵区| 赣榆县| 阿坝县| 中超| 鸡东县| 竹山县| 西林县| 桃源县| 叙永县| 饶平县| 玉林市| 临武县| 分宜县| 阳信县| 庆元县| 苍南县| 鄯善县| 栖霞市| 特克斯县| 亚东县| 乌兰浩特市| 台州市| 琼结县| 广安市| 盖州市| 荣成市| 隆昌县| 双桥区| 红安县| 成都市|