国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

智媒時(shí)代算法推薦對(duì)用戶(hù)自主性的解構(gòu)與重構(gòu)*
——基于規(guī)則治理的視角

2023-04-09 02:10:54周麗娜
關(guān)鍵詞:自主性權(quán)利決策

—周麗娜—

人工智能生成物(AIGC)的顛覆性代表ChatGPT 應(yīng)聲出世之后,再次刷新了人類(lèi)對(duì)人工智能邊界的認(rèn)知,也再次加速了人類(lèi)文明的進(jìn)程。ChatGPT 不僅建立了一個(gè)大語(yǔ)言模型,而且其已經(jīng)擁有一定的認(rèn)知、理解和判斷能力,甚至擁有和人類(lèi)類(lèi)似的思維能力?!叭斯ぶ悄茉谕瓿蓪?duì)人類(lèi)外在官能(視覺(jué)、聽(tīng)覺(jué)等)的延伸后,進(jìn)入到對(duì)人體延伸的最后階段——意識(shí)的技術(shù)模擬階段。”①而機(jī)器意識(shí)的產(chǎn)生是否會(huì)對(duì)未來(lái)人類(lèi)文明造成不可逆轉(zhuǎn)的危機(jī)和風(fēng)險(xiǎn),還尚未可知。

一、問(wèn)題的提出

(一)智媒傳播顛覆“以人為中心”的傳播模式

人工智能技術(shù)的迭代加速發(fā)展,徹底改變了“以?xún)?nèi)容為中心”的傳統(tǒng)大眾傳播模式和“以用戶(hù)為中心”的社交媒體傳播模式,迎來(lái)“以數(shù)據(jù)和算法驅(qū)動(dòng)內(nèi)容生產(chǎn)為中心”的智能傳播模式時(shí)代。如果說(shuō),社交傳播撼動(dòng)了傳統(tǒng)大眾傳播確立的“把關(guān)人”及“議程設(shè)置”的專(zhuān)業(yè)內(nèi)容生產(chǎn)和控制傳播模式,奠定了“去中心化”“人人都有麥克風(fēng)”的用戶(hù)內(nèi)容生產(chǎn)傳播模式,那么以語(yǔ)言生成模型和語(yǔ)義理解模型為基底的生成式人工智能,則直接解構(gòu)了一個(gè)多世紀(jì)以來(lái)形成的“以人為中心”的傳播理論體系,“人”再也不是信息和內(nèi)容理所當(dāng)然的生產(chǎn)者和主導(dǎo)者。

智能傳媒的應(yīng)用,使人的主體性逐漸消解,而機(jī)器主體性(或擬主體性)逐漸確立。經(jīng)過(guò)一段時(shí)間的人工“喂養(yǎng)”和主動(dòng)學(xué)習(xí),人工智能機(jī)器就能夠模仿,甚至模擬人的意識(shí),自主生產(chǎn)內(nèi)容,進(jìn)而傳播。此外,人工智能通過(guò)大數(shù)據(jù)和算法,根據(jù)主體的喜好、興趣、習(xí)慣等,對(duì)信息進(jìn)行千人千面的個(gè)性化推送,甚至“人”還會(huì)受到機(jī)器自動(dòng)決策的影響,在頻頻推送的“猜你喜歡”情境下,改變個(gè)體意志,迎合機(jī)器供給。如果說(shuō)人們目前習(xí)慣使用“人機(jī)交互、人機(jī)協(xié)同、人機(jī)共生”等用語(yǔ),暗示“人”在“機(jī)”前,“人”尚且掌握了一定的主動(dòng)權(quán)和控制權(quán),那么可以想象,“機(jī)人”時(shí)代的到來(lái)可能指日可待。

(二)智能傳播運(yùn)算法使個(gè)體被量化、群體化,喪失自主性

根據(jù)算法推薦技術(shù)原理,其所依賴(lài)或存在的所有個(gè)性化指標(biāo)終將轉(zhuǎn)化為“0”和“1”的二進(jìn)制代碼,有關(guān)個(gè)體的一切終將以數(shù)據(jù)化的形式呈現(xiàn)。在算法世界,個(gè)體的人成為冰冷的數(shù)據(jù),人完全被數(shù)據(jù)化和標(biāo)簽化。個(gè)體的集合,僅是具有流通性的數(shù)據(jù)庫(kù)資源和商品,是“脫離情感、情緒、感知的數(shù)據(jù)化字符,是被數(shù)據(jù)‘量化的自我,也是市場(chǎng)化的自我’”②。

美國(guó)學(xué)者貝克(Baker)曾對(duì)量化自我提出四點(diǎn)質(zhì)疑:量化自我究竟是讓人們更多、更好地了解自己,還是走向它的反面? 是一種更強(qiáng)的自我控制,抑或是一種更強(qiáng)的社會(huì)控制? 是讓人們變得更幸福,還是從來(lái)沒(méi)有讓他們得到真正的幸福? 是讓人們有了更多的選擇,還是侵犯了他們選擇的余地?③很多時(shí)候,結(jié)果都有可能是后者。

個(gè)體被量化后,還可能會(huì)引發(fā)個(gè)體被群化和馴化的風(fēng)險(xiǎn)。算法程序根據(jù)掌握的量化數(shù)據(jù)和變量,在數(shù)字空間,“跨越興趣、階層、地域的隔閡將全部的群體關(guān)系整合起來(lái),形成群體內(nèi)部、群體之間的互動(dòng),產(chǎn)生堪比大眾傳播覆蓋面的影響效果”④。在群體互動(dòng)中,渴望展現(xiàn)或追求個(gè)性的主體,受群化的興趣、消費(fèi)、反饋等多方面影響,最終很可能淹沒(méi)于群體,失去自我。如在某社交平臺(tái),個(gè)體因被算法標(biāo)簽為與他人有共同愛(ài)好,而被推送某款產(chǎn)品,不免受到他人或群體消費(fèi)暗示影響,進(jìn)而喪失個(gè)人判斷和決策,直至被群體完全馴化,喪失自主性。

理想的人類(lèi)社會(huì),應(yīng)該是人的智力、情感、理性、德行等均能得到學(xué)習(xí)、發(fā)展和認(rèn)可的社會(huì)。在算法社會(huì),一段時(shí)間內(nèi),可以使人的智性得到單向度發(fā)展或提高,但過(guò)度的算法進(jìn)化,終將使人喪失人性中更為寶貴和自然的組成部分,即以情感、內(nèi)心、理性為基礎(chǔ)的心性和靈性。⑤

(三)智能傳播的規(guī)則控制尚不完善

算法與數(shù)據(jù)、算力被稱(chēng)為人工智能技術(shù)發(fā)展的三大核心要素,其中算法推薦的廣泛應(yīng)用,對(duì)智媒時(shí)代信息量過(guò)載問(wèn)題提供了強(qiáng)有力的技術(shù)支持,一定程度上解決了信息無(wú)限性與用戶(hù)個(gè)體需求有限性之間的矛盾,滿足了用戶(hù)在快節(jié)奏時(shí)代以最少時(shí)間成本獲取個(gè)性化信息選擇的訴求,但也衍生了“信息繭房”“算法黑箱”“算法歧視”“虛假新聞”“用戶(hù)隱私侵犯”等現(xiàn)實(shí)問(wèn)題。

同時(shí),算法還對(duì)公眾的社會(huì)活動(dòng)和個(gè)人活動(dòng)進(jìn)行規(guī)訓(xùn),并且在重構(gòu)機(jī)器與人、技術(shù)與社會(huì)之間的關(guān)系過(guò)程中,算法正從一項(xiàng)單純的技術(shù),發(fā)展為能夠“干涉甚至主導(dǎo)人類(lèi)社會(huì)事務(wù)的‘算法權(quán)力’(algorithmic power)”⑥,算法不僅打造社會(huì)景象與文化意涵,甚至直接影響并控制著我們每個(gè)普通人的日常生活,甚至獲得了“真理地位”⑦。

盡管世界各國(guó)均已認(rèn)識(shí)到算法風(fēng)險(xiǎn),并普遍認(rèn)為算法應(yīng)當(dāng)具備透明、公正和公平、非惡意、負(fù)責(zé)任和保護(hù)隱私等基本倫理規(guī)則,但在理論闡釋和實(shí)際應(yīng)用中,仍存在實(shí)質(zhì)性分歧。智媒時(shí)代,用戶(hù)對(duì)這種算法權(quán)力能否拒絕? 用戶(hù)對(duì)算法決策的使用能否自主決定? 對(duì)算法歧視、算法黑箱和信息繭房等負(fù)面作用是否有知情及投訴的權(quán)利? 人類(lèi)在這場(chǎng)技術(shù)變革引發(fā)的社會(huì)變革下,需如何應(yīng)對(duì)或自處?

二、現(xiàn)有規(guī)則對(duì)算法與用戶(hù)自主性的建構(gòu)

面對(duì)智能媒體帶來(lái)的新技術(shù)形式和傳播實(shí)踐,重新審視和界定“人—機(jī)”二元關(guān)系,處理好以智能媒體為代表的非人類(lèi)傳播主體與人始終作為傳播主體的共生關(guān)系,是防范智能技術(shù)可能引發(fā)社會(huì)危機(jī)和風(fēng)險(xiǎn)的重要議題。各國(guó)目前主要的治理邏輯和思路,是通過(guò)法律和倫理雙層面的規(guī)則建構(gòu),運(yùn)用國(guó)家強(qiáng)制力的硬約束和道德倫理的軟保障,廓清算法“權(quán)力”邊界,試圖保障用戶(hù)的權(quán)利自治和主體意志自由。

(一)算法推薦技術(shù)及其規(guī)則建構(gòu)

通常來(lái)說(shuō),算法推薦技術(shù)是人工智能技術(shù)的一種應(yīng)用,“技術(shù)層面看,算法系統(tǒng)的體系結(jié)構(gòu)由界面、信息和模型三個(gè)層次構(gòu)成”⑧。界面層主要功能是對(duì)信息進(jìn)行加工和處理,繼而構(gòu)建出用戶(hù)畫(huà)像,這是算法推薦系統(tǒng)的基礎(chǔ)。在界面層,系統(tǒng)將收集到的用戶(hù)基本數(shù)據(jù)和行為數(shù)據(jù)轉(zhuǎn)化為事實(shí)標(biāo)簽,然后傳遞至信息層與模型層進(jìn)行建模和決策。在用戶(hù)畫(huà)像基礎(chǔ)上,系統(tǒng)根據(jù)用戶(hù)行為(如點(diǎn)擊、評(píng)論、轉(zhuǎn)發(fā)、點(diǎn)贊、收藏等)、訪問(wèn)時(shí)長(zhǎng)等設(shè)置相應(yīng)權(quán)重,從中發(fā)現(xiàn)用戶(hù)的喜好、習(xí)慣和興趣,計(jì)算出用戶(hù)對(duì)某類(lèi)信息的興趣標(biāo)簽值,找出有相似行為的用戶(hù)集,從而進(jìn)行信息分發(fā)。算法技術(shù)主要應(yīng)用于信息層與模型層。

目前我國(guó)對(duì)算法推薦技術(shù)應(yīng)用已經(jīng)建立起一定的法律規(guī)則體系,涵蓋內(nèi)容包括算法應(yīng)用、審核、監(jiān)督、溯源、備案、解釋、拒絕等諸多方面;同時(shí),國(guó)家新一代人工治理專(zhuān)業(yè)委員會(huì)還發(fā)布了《新一代人工智能倫理規(guī)范》,提出了增進(jìn)人類(lèi)福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚拧?qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)6 項(xiàng)基本倫理要求。但在實(shí)踐中,對(duì)算法控制的實(shí)際效力,以及倫理原則的解釋和應(yīng)用,仍無(wú)法避免“算法歧視”產(chǎn)生“騎手困于算法”等現(xiàn)實(shí)風(fēng)險(xiǎn)和問(wèn)題。

(二)用戶(hù)自主性及其規(guī)則建構(gòu)

自主性(autonomy)即自我管理,是主體“構(gòu)建自我目標(biāo)和價(jià)值且自由地作出決定付諸行動(dòng)的能力”⑨,主要體現(xiàn)主體的意志自由及決策自由。自主性原則源自康德(Immanuel Kant)的自由理論,認(rèn)為每個(gè)個(gè)體都有決定自己命運(yùn)的權(quán)利。

用戶(hù)自主性規(guī)則層面的建構(gòu),主要體現(xiàn)在保障用戶(hù)知情權(quán)、解釋權(quán)、選擇權(quán)、拒絕權(quán)等多項(xiàng)權(quán)利方面。

1.知情權(quán)、解釋權(quán)

廣義而言,知情權(quán)是公民知悉、獲取信息的自由和權(quán)利,本文僅討論公民的民事知情權(quán),即個(gè)體對(duì)于自身信息了解、知悉的權(quán)利。

個(gè)人信息知情權(quán)指信息主體對(duì)其個(gè)人信息享有知情的權(quán)利,具體知情的內(nèi)容包括誰(shuí)收集的個(gè)人信息、收集這些信息用于何種目的、信息將以何種方式進(jìn)行使用、信息將會(huì)被處理者存儲(chǔ)多長(zhǎng)時(shí)間、信息傳遞給哪些第三方等。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理辦法》規(guī)定,使用算法服務(wù)的用戶(hù),算法服務(wù)提供者應(yīng)以顯著方式告知用戶(hù)其提供算法推薦服務(wù)的情況,如應(yīng)當(dāng)公示它的基本原理是什么,它是如何運(yùn)行的,它的應(yīng)用場(chǎng)景有哪些,以及它有何使用目的。

算法解釋權(quán)是用戶(hù)個(gè)體(或稱(chēng)數(shù)據(jù)主體)有權(quán)要求算法使用者或數(shù)據(jù)控制者對(duì)其使用的算法進(jìn)行解釋?zhuān)摻忉寫(xiě)?yīng)當(dāng)具體、清晰、明確、具有實(shí)質(zhì)意義。從時(shí)間上看,算法解釋權(quán)屬于事后解釋?zhuān)话闶莻€(gè)體在獲得算法決策結(jié)果后,要求控制者對(duì)該決策結(jié)果提供相應(yīng)的解釋。

2.選擇權(quán)

信息選擇權(quán)是指用戶(hù)有權(quán)自主選擇信息,不受他人干涉。該權(quán)利表明用戶(hù)在獲取信息的過(guò)程中,能夠根據(jù)自己的想法和意志,自主地選擇和支配信息,也就是算法的使用不得干涉用戶(hù)信息選擇自由,用戶(hù)有權(quán)決定自己接收或者閱讀哪些信息、不接收或者閱讀哪些信息。用戶(hù)擁有選擇權(quán),這實(shí)質(zhì)上是對(duì)人自主權(quán)的尊重。

3.拒絕權(quán)

算法拒絕權(quán)指?jìng)€(gè)人對(duì)算法應(yīng)用或其結(jié)果享有抵制的權(quán)利。我國(guó)《個(gè)人信息保護(hù)法》第24 條即是對(duì)算法拒絕權(quán)的規(guī)定,包括可以拒絕商業(yè)營(yíng)銷(xiāo)、個(gè)性化推送以及特定情況下的自動(dòng)化決策。

如同在數(shù)字社會(huì)中個(gè)體有拒絕接入數(shù)字世界或選擇是否使用數(shù)字技術(shù)的權(quán)利,對(duì)算法技術(shù)而言,個(gè)體也有自主決定是否使用算法的權(quán)利,這也是生活方式的一種意愿和選擇。

三、現(xiàn)有規(guī)則下算法對(duì)用戶(hù)自主性的解構(gòu)

盡管在現(xiàn)有法律和倫理規(guī)則框架下,算法似乎是“帶上了鐐銬”,但通過(guò)實(shí)踐檢視,算法正裹挾大數(shù)據(jù),對(duì)人的感情、認(rèn)知,甚至身體健康產(chǎn)生影響,借助“技術(shù)”的掩護(hù),正逐漸剝奪人的自由意志,并最終剝奪自我意志自主控制的權(quán)利和能力。

(一)用戶(hù)個(gè)人信息的提供非完全自主性

如前所述,技術(shù)層面而言,算法推薦基礎(chǔ)是個(gè)人數(shù)據(jù)收集和用戶(hù)畫(huà)像,而這二者的前提是用戶(hù)知情同意的情況下對(duì)個(gè)人信息的自愿提供。雖然在法律上我國(guó)已經(jīng)確立了知情同意的強(qiáng)制性規(guī)定,體現(xiàn)主體對(duì)個(gè)人信息具有決定權(quán)和自主性,但實(shí)際上,知情同意原則僅是形同虛設(shè)、徒有其表而已。

2022 年4 月,有記者在蘋(píng)果的應(yīng)用市場(chǎng)中下載了免費(fèi)“排行榜”前十的APP,在對(duì)其用戶(hù)協(xié)議以及隱私政策進(jìn)行統(tǒng)計(jì)時(shí)發(fā)現(xiàn),這十款A(yù)PP 的用戶(hù)協(xié)議、用戶(hù)條款的文本總字?jǐn)?shù)超過(guò)10 萬(wàn)字,隱私協(xié)議則共計(jì)約12 萬(wàn)字,二者合計(jì)約為22 萬(wàn)多字,每款A(yù)PP 需要用戶(hù)“同意并繼續(xù)”的文本內(nèi)容平均為2.2 萬(wàn)字,用戶(hù)讀完一款A(yù)PP 的用戶(hù)協(xié)議與隱私政策,快則需要40 分鐘,慢則1 個(gè)小時(shí)。⑩2021 年8 月,《光明日?qǐng)?bào)》與高校和研究所組成調(diào)研組,分別對(duì)1036 人進(jìn)行問(wèn)卷調(diào)查和深度訪談,并對(duì)15 類(lèi)共150 款A(yù)pp 的隱私協(xié)議進(jìn)行分析,發(fā)現(xiàn)在安裝App 時(shí),有77.8%的用戶(hù)“很少或從未”閱讀過(guò)隱私協(xié)議。?很多網(wǎng)友自嘲道“撒過(guò)最多的謊就是‘我已閱讀并同意用戶(hù)協(xié)議’”,因此很難得出結(jié)論,用戶(hù)已經(jīng)充分、清晰地知情算法推薦所需要的有關(guān)個(gè)體的信息數(shù)據(jù)的收集和處理狀況,更不用說(shuō)個(gè)體有自我決定的能力和權(quán)利。

(二)算法推薦消解了用戶(hù)自主性的各項(xiàng)權(quán)利

算法表面上是優(yōu)化公眾對(duì)信息的選擇,公眾可以在算法給定的范圍內(nèi)快速做出選擇和決定,但這實(shí)則是算法對(duì)公眾自主性原則的消解。用戶(hù)每次基于算法而做出的決定,看似微乎其微、不足為道,但日積月累下來(lái),用戶(hù)就習(xí)慣于依賴(lài)算法給出的推薦結(jié)果和范圍,而不再積極地、主動(dòng)地去找尋可能的其他決策,久而久之,用戶(hù)自主性屈服于算法,算法逐漸從一項(xiàng)技術(shù)演變?yōu)橐环N權(quán)力。

1.用戶(hù)對(duì)算法推薦或不充分知情或一無(wú)所知

在算法推薦語(yǔ)境下,用戶(hù)知情權(quán)的消解,主要體現(xiàn)在兩個(gè)方面:一個(gè)是對(duì)涉及個(gè)人數(shù)據(jù)的用戶(hù)協(xié)議的不完全知情或完全不知情;一個(gè)是對(duì)算法推薦運(yùn)行機(jī)制的不知情,即存在算法黑箱。

對(duì)涉及個(gè)人數(shù)據(jù)的完全不知情或不完全知情,前已論述,在于用戶(hù)對(duì)用戶(hù)協(xié)議或隱私協(xié)議無(wú)法進(jìn)行實(shí)質(zhì)性知情及控制,知情權(quán)在用戶(hù)知情同意的偽裝下,其內(nèi)容并未實(shí)質(zhì)性觸達(dá)到用戶(hù),導(dǎo)致用戶(hù)對(duì)個(gè)人信息各階段的處理沒(méi)有完整的知情權(quán)。

對(duì)算法推薦運(yùn)行機(jī)制的不知情,是對(duì)用戶(hù)知情權(quán)的另一種侵害。不論是在用戶(hù)協(xié)議中,還是隱私協(xié)議中,用戶(hù)都很難知情自己的數(shù)據(jù)是如何應(yīng)用于算法的。例如,在京東網(wǎng)的隱私政策中,對(duì)商品和服務(wù)信息的展示,其條款是這樣描述的: “為了向您提供搜索歷史、瀏覽記錄、收藏的商品或店鋪、關(guān)注的店鋪、購(gòu)物車(chē)或訂單商品或服務(wù)展示服務(wù),我們會(huì)收集您的瀏覽信息、搜索記錄、收藏記錄、關(guān)注記錄、加購(gòu)信息、訂單信息。我們會(huì)根據(jù)您的上述信息以及其他您已授權(quán)的信息,進(jìn)行數(shù)據(jù)分析、預(yù)測(cè)您的偏好特征,在京東服務(wù)或者其他第三方應(yīng)用中向您推送您可能感興趣的商品/服務(wù)、商業(yè)廣告、商業(yè)性短信及其他營(yíng)銷(xiāo)信息?!?這樣的告知,于用戶(hù)而言,似乎說(shuō)了什么,又似乎什么也沒(méi)說(shuō),用戶(hù)對(duì)網(wǎng)站如何使用這些數(shù)據(jù)進(jìn)行推送或產(chǎn)生推薦列表,仍然是一頭霧水。2022 年,為應(yīng)對(duì)算法黑箱問(wèn)題,增加算法透明性和可解釋性,政府推出算法備案制度,要求使用算法的企業(yè)向公眾公示算法運(yùn)行機(jī)制、使用的基本原理以及使用目的,但對(duì)用戶(hù)而言,此舉對(duì)用戶(hù)知情權(quán)并無(wú)改善。因?yàn)橛脩?hù)對(duì)于算法知情的終極目的,不是要知道會(huì)收集哪些數(shù)據(jù)、采取的是哪種類(lèi)別的算法,而是需要知道這種運(yùn)算的算法對(duì)個(gè)體而言可能會(huì)產(chǎn)生怎樣的后果,對(duì)個(gè)人權(quán)益是否會(huì)產(chǎn)生負(fù)面的作用? 未來(lái)要如何更好地利用算法發(fā)揮正面作用、增加信息多元化,避免信息繭房? 個(gè)體在算法面前,能不能有主動(dòng)性或者決定性? 但這些問(wèn)題對(duì)用戶(hù)而言,都無(wú)法從所公示的信息中獲得答案。

另一方面,算法解釋或透明度原則雖然可能對(duì)算法黑箱予以適當(dāng)糾偏,但過(guò)度依賴(lài)透明處理原則會(huì)陷入“透明陷阱”(transparency fallacy),即個(gè)體往往缺乏必要的專(zhuān)業(yè)知識(shí)來(lái)有意義地行使這些個(gè)人權(quán)利。?僅有當(dāng)數(shù)據(jù)主體可以真正理解特定算法所依據(jù)的因素而做出決策時(shí),算法解釋的邏輯才是有意義的。因此,算法透明的核心要義在于能夠在數(shù)據(jù)主體有疑問(wèn)時(shí)提供有意義的、樸實(shí)的、普通用戶(hù)能夠明白的解釋?zhuān)瑥亩褂脩?hù)可以充分知悉算法作出決策的邏輯,繼而行使質(zhì)疑和問(wèn)責(zé)的權(quán)利。

2.用戶(hù)只能在算法推薦的范圍內(nèi)進(jìn)行有限的選擇

算法推薦技術(shù)在信息分發(fā)方面的優(yōu)勢(shì),使用戶(hù)可以擺脫傳統(tǒng)專(zhuān)業(yè)媒體設(shè)置的“議程”,一定程度上,可以實(shí)現(xiàn)“我的信息我做主”,自主選擇感興趣的信息?;蛟S有人認(rèn)為用戶(hù)至此掌握了信息的選擇權(quán),但實(shí)際上,這種選擇權(quán)是對(duì)算法推薦結(jié)果的一種有限選擇,而不是出于個(gè)體意志的自由選擇。算法推薦所運(yùn)用的過(guò)濾機(jī)制,其邏輯過(guò)于注重用戶(hù)偏好,而忽視了諸如真實(shí)、客觀、理性等其他價(jià)值理念,實(shí)際上是損害了用戶(hù)的信息選擇權(quán)。

用戶(hù)能夠選擇的范圍不是看或者不看什么信息,而是在算法推薦的范圍內(nèi),接受還是拒絕算法推薦的信息。因此,用戶(hù)選擇的自主性是基于算法推薦的結(jié)果,而選擇的范圍也是基于算法推薦的結(jié)果。個(gè)體在算法環(huán)境下,根據(jù)機(jī)器計(jì)算結(jié)果,通過(guò)接受或拒絕模式,與機(jī)器進(jìn)行對(duì)話和互動(dòng),再代入機(jī)器運(yùn)算模型,繼續(xù)維持或調(diào)整算法推薦結(jié)果,再進(jìn)一步測(cè)試是否符合用戶(hù)需求。在這樣“機(jī)器—人—機(jī)器”的循環(huán)測(cè)試中,算法推薦的應(yīng)用,并沒(méi)有解決用戶(hù)信息過(guò)載的問(wèn)題,反而使用戶(hù)更加依賴(lài)算法和機(jī)器。用戶(hù)的點(diǎn)擊、取消、拒絕、點(diǎn)贊、收藏等操作,其實(shí)是在和機(jī)器完成對(duì)話,進(jìn)而不斷地接受機(jī)器的分析、畫(huà)像,甚至學(xué)習(xí)和模仿,從而給出看似最適合該個(gè)體的決策結(jié)果或推薦列表,但這一行為恰恰是沒(méi)有將用戶(hù)作為一個(gè)有自主意志的人對(duì)待,更像是一組代碼或數(shù)據(jù),缺乏對(duì)個(gè)體人格的尊重,而這正是對(duì)自主性原則的違背。

若長(zhǎng)期使用算法推薦獲取信息,則會(huì)對(duì)算法形成過(guò)度依賴(lài),用戶(hù)將怠于主動(dòng)作為,不去積極尋求多元或多樣化內(nèi)容,而是習(xí)慣于在算法支配下的內(nèi)容獲取和選擇,于是乎,用戶(hù)逐步成為算法可以預(yù)測(cè),甚至操縱的被動(dòng)接收者。盡管用戶(hù)可以與機(jī)器進(jìn)行一些互動(dòng),例如點(diǎn)擊“不想看到類(lèi)似信息”,但是這并不意味著用戶(hù)從此再也看不到類(lèi)似信息。在商業(yè)利益驅(qū)動(dòng)下,企業(yè)運(yùn)用算法不斷進(jìn)行個(gè)性化推送,用戶(hù)在技術(shù)包圍下很難沖破算法權(quán)力的控制邊界,所以個(gè)體主動(dòng)性的發(fā)揮空間越來(lái)越被侵蝕和壓縮,用戶(hù)也從主動(dòng)欣然接受算法到被動(dòng)默認(rèn)受算法驅(qū)動(dòng)。

3.用戶(hù)無(wú)法事前拒絕算法的介入,陷入“拒絕困境”

算法拒絕權(quán)在我國(guó)《個(gè)人信息保護(hù)法》中已有規(guī)定,其本意是為個(gè)體配置積極的控制性權(quán)利,防止信息處理者與個(gè)人之間因信息不對(duì)稱(chēng)而導(dǎo)致的地位不平等帶來(lái)負(fù)面影響。但該法所規(guī)定的拒絕權(quán),嚴(yán)格意義上說(shuō),不是拒絕算法,而是拒絕算法推薦的結(jié)果,而且是僅能拒絕對(duì)個(gè)人有重大影響的算法的結(jié)果。這種拒絕,只能事后且手動(dòng)拒絕。因此,“通過(guò)個(gè)體行使控制性權(quán)利進(jìn)行算法規(guī)制的效果非常有限”?。

以下選取我國(guó)目前用戶(hù)過(guò)億的5 個(gè)應(yīng)用程序的《隱私政策》部分內(nèi)容作為示例(見(jiàn)表1),涉及社交媒體、視頻平臺(tái)、電子購(gòu)物平臺(tái),可以看到“允許”或者“同意”自動(dòng)化決策都事先存在于《隱私政策》的“一攬子”規(guī)定之中,如果不同意該隱私政策,則不能使用該款軟件,如果想關(guān)閉算法推薦,需要手動(dòng)操作,有的還需要發(fā)送短信才能取消,如淘寶。即便是選擇關(guān)閉,關(guān)閉的是基于個(gè)性化分析的算法結(jié)果,而不是算法推薦本身,如抖音。程序上看,與不同意就無(wú)法使用的“同意困境”類(lèi)似,拒絕權(quán)的行使,也存在“拒絕困境”。算法推薦的“一攬子同意,事后拒絕”模式,使得個(gè)人“無(wú)法事前行使拒絕權(quán)”?,事后拒絕也因程序設(shè)置的復(fù)雜,難以完全實(shí)現(xiàn)。

表1 5 個(gè)應(yīng)用程序《隱私政策》部分內(nèi)容

四、用戶(hù)自主性的規(guī)則重構(gòu)

智能媒體正在通過(guò)算法或代碼重建一個(gè)新的虛擬世界,人在虛擬世界按照程序和算法所設(shè)定的“軌道”運(yùn)行,“代碼就是法律”(code is law)的論斷,預(yù)示著新型法律關(guān)系的產(chǎn)生,也清晰地表明代碼在虛擬社會(huì)的強(qiáng)制性和權(quán)力性。個(gè)體在算法指令的規(guī)劃和安排下,“人的自主創(chuàng)新和創(chuàng)造能力得到消弭,個(gè)體在不知不覺(jué)中成了米歇爾·???Michel Foucault)筆下所描述的‘馴順的肉體’”?。人如果完全淪為代碼對(duì)象,“人是機(jī)器”還是“機(jī)器是人”的話題可能不是僅停留在討論層面的問(wèn)題,而會(huì)衍生成人類(lèi)現(xiàn)實(shí)需要面對(duì)和解決的問(wèn)題。面臨技術(shù)失控的危險(xiǎn),人類(lèi)也將陷入前所未有的社會(huì)風(fēng)險(xiǎn)。

因此,智能媒體時(shí)代,守住或者重塑人的主體性成為當(dāng)前不可回避的任務(wù)之一。算法權(quán)力,主要掌握在開(kāi)發(fā)算法的技術(shù)公司和應(yīng)用算法的網(wǎng)絡(luò)平臺(tái)手中,相對(duì)于以政府為代表的“公權(quán)力”對(duì)社會(huì)關(guān)系而開(kāi)展的治理權(quán)而言,技術(shù)公司和網(wǎng)絡(luò)平臺(tái)正在以“算法/代碼”為基礎(chǔ),形成能夠影響社會(huì)關(guān)系的“數(shù)字私權(quán)力”。作為對(duì)此“私權(quán)力”的規(guī)制回應(yīng),可以通過(guò)兩個(gè)途徑合力實(shí)現(xiàn):一是完善以政府為代表的公權(quán)力的合理配置,對(duì)算法和企業(yè)進(jìn)行監(jiān)管或規(guī)制;二是對(duì)個(gè)人私權(quán)利予以賦權(quán),使得個(gè)人有能力對(duì)不合理、不合法的數(shù)字化應(yīng)用或其結(jié)果進(jìn)行抵制。在政府、企業(yè)、用戶(hù)所蘊(yùn)含的“公權(quán)力—私權(quán)力—私權(quán)利”的三元博弈中,平衡算法的功能優(yōu)勢(shì)與尊重個(gè)體自主原則是算法未來(lái)發(fā)展的核心目標(biāo)。

(一)自主性意識(shí)的構(gòu)建

“自主意識(shí)有著強(qiáng)烈的表現(xiàn)自我、實(shí)現(xiàn)自我的欲望,這正是啟動(dòng)創(chuàng)造、施展創(chuàng)造的最深刻的內(nèi)在根源,也是創(chuàng)造千姿百態(tài)、殊相萬(wàn)千世界的心態(tài)源頭?!?用戶(hù)自主性意識(shí)的構(gòu)建和強(qiáng)化,不僅需要用戶(hù)本身自主意識(shí)的覺(jué)醒,還需要能夠控制或者影響用戶(hù)行為的計(jì)算機(jī)程序或命令,在執(zhí)行中體現(xiàn)出對(duì)用戶(hù)自主性的尊重和認(rèn)可,并給予實(shí)現(xiàn)這種自主性的空間和途徑。

人工智能的運(yùn)行邏輯或算法決策需要人在環(huán)中(human in the loop),無(wú)論是自動(dòng)駕駛,自動(dòng)飛行,還是智能醫(yī)療?,完全的算法或人工智能存在巨大風(fēng)險(xiǎn)。正因如此,世界各方正在從倫理和法律方面制定治理框架,強(qiáng)調(diào)人作為主體的自主意識(shí)。2017 年,生命研究所在阿西洛馬會(huì)議中心召開(kāi)人工智能倫理道德會(huì)議,提出阿西洛馬人工智能原則,提出應(yīng)尊重人類(lèi)價(jià)值(第11 條),包括“人的尊嚴(yán)、權(quán)利、自由和文化多樣性”?。2019 年4 月歐盟頒布高水平專(zhuān)家組撰寫(xiě)的《可信任人工智能的倫理框架》,提出AI 的基本宗旨之一為“確保尊重人的自由和自治”?。2021 年11 月23 日,聯(lián)合國(guó)教科文組織193 個(gè)成員國(guó)一致通過(guò)《人工智能倫理問(wèn)題建議書(shū)》,該建議書(shū)的目標(biāo)之一即“在人工智能系統(tǒng)生命周期的各個(gè)階段保護(hù)、促進(jìn)和尊重人權(quán)和基本自由、人的尊嚴(yán)和平等”?。

盡管現(xiàn)在人工智能技術(shù)整體水平仍處于無(wú)自主意識(shí)的弱人工智能階段,人尚且可以控制人工智能,但隨著類(lèi)似ChatGPT 等技術(shù)發(fā)展和進(jìn)步,可能很快就會(huì)進(jìn)入技術(shù)比肩人類(lèi)的強(qiáng)人工智能階段。為避免產(chǎn)生人與技術(shù)工具主客體顛倒的異化現(xiàn)象,以及規(guī)避個(gè)體徹底淪為被數(shù)據(jù)化客體的風(fēng)險(xiǎn),人類(lèi)更需要強(qiáng)化自主意識(shí),尊重主體自主性。如果對(duì)人工智能不加限制地絕對(duì)相信,人終將走向鋪滿鮮花的地獄之門(mén)。

(二)自主性在算法功能設(shè)置上的具體體現(xiàn)

為避免人主體性的消解和自治性的喪失,需要賦予個(gè)體不同階段不受算法決策影響的權(quán)利,讓個(gè)體享有真正的意思自治,而不是成為數(shù)據(jù)化、客體化的對(duì)象和目標(biāo)?,F(xiàn)代社會(huì),尊重和保證“人”的自主性和完整性的最佳途徑,即是將算法權(quán)力限制在一定的制度規(guī)則之中。在功能設(shè)計(jì)上,可以考慮從事前、事中、事后三個(gè)階段對(duì)算法予以重新構(gòu)建。

1.事前拒絕算法的權(quán)利

建議改變目前我國(guó)有關(guān)算法應(yīng)用的“一攬子同意、事后拒絕”模式,將是否使用算法的決定權(quán)提前至程序應(yīng)用之前,通過(guò)單獨(dú)的“知情同意”程序進(jìn)行告知。雖然用戶(hù)的拒絕權(quán)在事前及事后都可以行使,但二者之間存在較大區(qū)別:事前拒絕意味著自始拒絕,從源頭上遏制算法對(duì)個(gè)人數(shù)據(jù)的收集,使機(jī)器無(wú)法啟動(dòng)針對(duì)個(gè)人的算法程序。而事后拒絕,實(shí)質(zhì)上是一種救濟(jì)手段,僅在產(chǎn)生特定的推薦結(jié)果之后,數(shù)據(jù)主體可以拒絕其結(jié)果影響。

源頭保護(hù)的事前權(quán)利的行使,較事后行使,更能有效阻斷算法技術(shù)的應(yīng)用。可以參照歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)的相關(guān)規(guī)定和做法,體現(xiàn)出主體對(duì)個(gè)人信息的自治性:第一,賦予數(shù)據(jù)主體事前拒絕算法決策的可能。如GDPR 第21 條規(guī)定,當(dāng)數(shù)據(jù)集合的用戶(hù)畫(huà)像是基于直接的市場(chǎng)營(yíng)銷(xiāo)目的,數(shù)據(jù)主體有權(quán)在任何時(shí)候反對(duì)相關(guān)的自動(dòng)化決策。第二,知情同意規(guī)則需要“充分”且“明確”。GDPR 明令禁止默示同意(opt-out)的規(guī)則,要對(duì)進(jìn)行算法決策作出自主的(freely given)、特定的(specific)、知情的(informed)、明確的(unambiguous)同意,且需以清晰肯定的行為作出(opt-in)。第三,對(duì)企業(yè)應(yīng)用算法決策進(jìn)行限制。增加了事前告知義務(wù)、停止自動(dòng)化決策處理個(gè)人數(shù)據(jù)的義務(wù),以及對(duì)算法決策的事前與事后評(píng)估責(zé)任等一系列相關(guān)法律責(zé)任。

2.事中行權(quán)精細(xì)化

事中階段,賦予用戶(hù)各項(xiàng)權(quán)利是有效阻止算法技術(shù)的必要途徑,借助刪除權(quán)、知情權(quán)等權(quán)利,對(duì)算法施加人為干預(yù)?!秱€(gè)人信息保護(hù)法》對(duì)個(gè)人分別賦予處理權(quán)、查閱權(quán)、更正權(quán)和刪除權(quán)??梢哉f(shuō)一定程度上滿足了個(gè)人在事中階段對(duì)算法服務(wù)提供者行權(quán)的基礎(chǔ)。但相比GDPR,我國(guó)相關(guān)規(guī)定在設(shè)計(jì)數(shù)據(jù)權(quán)利時(shí),還不夠精細(xì)化,可操作性不強(qiáng)。例如,《個(gè)人信息保護(hù)法》規(guī)定,對(duì)于自動(dòng)化決策作出的決定,若對(duì)個(gè)人權(quán)益有重大影響,則個(gè)體有權(quán)對(duì)該決策結(jié)果要求予以說(shuō)明,并且還有權(quán)拒絕未有人工干預(yù)的純自動(dòng)化決策的決定。但是何為“重大影響”? 如何要求信息處理者“予以說(shuō)明”? 如果“不予說(shuō)明”應(yīng)當(dāng)如何救濟(jì)? 說(shuō)明的語(yǔ)言應(yīng)當(dāng)達(dá)到何種清晰程度? 這些在我國(guó)的法律規(guī)定中均沒(méi)有詳細(xì)說(shuō)明,因此條文規(guī)定本身的籠統(tǒng)性無(wú)法保障具體權(quán)利的落實(shí)和保障,時(shí)常讓人不知所措。

3.事后救濟(jì)途徑

事后階段的救濟(jì)途徑一般包括兩類(lèi): 一是拒絕算法推薦的約束,二是事后司法救濟(jì)。拒絕算法前文已述,目前我國(guó)法律并未表明個(gè)人享有完整的算法拒絕權(quán),用戶(hù)僅在某些情況下享有拒絕算法結(jié)果的權(quán)利,而非拒絕算法的權(quán)利。因?yàn)閷儆谑潞缶葷?jì),行為人怎樣行使拒絕權(quán),行使拒絕權(quán)后是不是就能完全避免自動(dòng)化決策作出決定,都具有不確定性。因此用戶(hù)希望不要等發(fā)生了算法決策的負(fù)面結(jié)果再去拒絕,而是可以從源頭上自始就拒絕使用算法進(jìn)行決策。例如對(duì)于是否可以發(fā)放貸款的決定,用戶(hù)不希望銀行首先通過(guò)算法進(jìn)行決策,做出不予貸款的決定之后,用戶(hù)再實(shí)施要求解釋或予以拒絕的權(quán)利,而是自始希望有人工參與決策,考慮更多不同的現(xiàn)實(shí)情況。因此對(duì)算法推薦的拒絕,應(yīng)置于“事前階段”,且需以單獨(dú)、明示的告知方式,取得用戶(hù)同意。

在司法救濟(jì)方面,面對(duì)算法推薦的訴訟,結(jié)合已有部分訴訟案件,可以考慮適當(dāng)提高平臺(tái)責(zé)任或更加合理地分配舉證責(zé)任。如在“算法推薦第一案”愛(ài)奇藝訴字節(jié)公司案,原告愛(ài)奇藝稱(chēng)享有電視劇《延禧攻略》排他性信息網(wǎng)絡(luò)傳播權(quán),在該劇播放期間,被告字節(jié)公司在其所運(yùn)營(yíng)的今日頭條APP 上,未經(jīng)原告授權(quán),即向公眾傳播《延禧攻略》一劇的各類(lèi)短視頻,包括切條、二次創(chuàng)作等多種形式。被告公司利用算法推薦技術(shù),使得這些短視頻被頻繁推薦。被告辯稱(chēng),今日頭條APP 僅是為用戶(hù)提供了信息存儲(chǔ)空間服務(wù),所有涉案短視頻均系用戶(hù)自行上傳,被告并未上傳任何侵權(quán)視頻。另外,被告對(duì)用戶(hù)上傳的內(nèi)容,均已盡到合理注意義務(wù),主觀上并不存在過(guò)錯(cuò),侵權(quán)行為不成立。但法院認(rèn)為,字節(jié)公司在本案中,提供的不僅是網(wǎng)絡(luò)空間信息存儲(chǔ)服務(wù),被告利用技術(shù)優(yōu)勢(shì)幫助用戶(hù)提高效率獲得更多信息的同時(shí),也在為自身獲得更多商業(yè)利益和競(jìng)爭(zhēng)優(yōu)勢(shì),因此理應(yīng)對(duì)用戶(hù)的侵權(quán)行為負(fù)有更高的注意義務(wù),故被告行為構(gòu)成侵權(quán)。?在另一起關(guān)于算法歧視的“劉權(quán)訴美團(tuán)外賣(mài)平臺(tái)案”中,法院沒(méi)有支持原告要求被告承擔(dān)侵權(quán)責(zé)任的訴請(qǐng),因?yàn)榉ㄔ赫J(rèn)為原告僅能提供兩份訂單,試圖證明配送費(fèi)的差距,是無(wú)法證明外賣(mài)平臺(tái)存在“大數(shù)據(jù)殺熟”行為的。而且,兩份訂單下單時(shí)間不同,公司根據(jù)平臺(tái)交易量對(duì)配送費(fèi)進(jìn)行動(dòng)態(tài)調(diào)整,符合其自身經(jīng)營(yíng)行為,故原告敗訴。?

在《延禧攻略》案中,被告在運(yùn)用算法推薦技術(shù)擴(kuò)大傳播范圍、獲得更多優(yōu)勢(shì)和利益的同時(shí),也理應(yīng)承擔(dān)其帶來(lái)的風(fēng)險(xiǎn),應(yīng)對(duì)用戶(hù)的侵權(quán)行為負(fù)有更高的注意義務(wù),故法院判定其侵權(quán)成立。該案作為算法推薦司法第一案,為今后平臺(tái)使用算法推薦時(shí)應(yīng)承擔(dān)的注意義務(wù)提供了范例。在第二起美團(tuán)大數(shù)據(jù)殺熟案中,按照目前“誰(shuí)主張、誰(shuí)舉證”的證明責(zé)任,原告需要證明被告存在算法歧視明顯有困難,故建議考慮適當(dāng)提高算法服務(wù)提供者舉證責(zé)任。原告提供初步侵權(quán)證據(jù),例如有遇到價(jià)格不公的遭遇,以此證明侵權(quán)行為的存在,之后,應(yīng)當(dāng)由算法服務(wù)提供者證明其作出該決策的過(guò)程,以及由此產(chǎn)生的結(jié)果是符合相關(guān)法律規(guī)定,公平、公正且合理的,這樣可能更有利于用戶(hù)行使救濟(jì)權(quán)利。

總之,“人”的概念在技術(shù)權(quán)力的推動(dòng)下不斷“滑坡”,科技不僅是人類(lèi)進(jìn)化的工具和媒介,也逐漸成為人的欲望和力量的體現(xiàn)?,成為深刻改變?nèi)伺c自然關(guān)系的權(quán)力力量,尤其在智媒時(shí)代,所有人和物都可以通過(guò)算法生成和控制,人類(lèi)生命的意義也不再那么崇高和絕對(duì),僅是數(shù)據(jù)系統(tǒng)的一個(gè)組成部分而已。

算法帶給社會(huì)的風(fēng)險(xiǎn)是隱秘的、擴(kuò)散的、系統(tǒng)的,僅靠喚醒人的自主性及個(gè)體賦權(quán),尚難以全面確保個(gè)體獲得逃離算法操控的基礎(chǔ)和能力。需要在具有共識(shí)的規(guī)則體系框架內(nèi),通過(guò)政府、企業(yè)、用戶(hù)的多元協(xié)同合作,客觀理性地認(rèn)識(shí)算法風(fēng)險(xiǎn),主動(dòng)構(gòu)建防御機(jī)制,增強(qiáng)個(gè)體權(quán)利效能,尊重“人”的自由意志,從而構(gòu)建尊重個(gè)體尊嚴(yán)與權(quán)利,并利于技術(shù)發(fā)展的平衡、共生的“人—機(jī)”智媒傳播生態(tài)體系。

注釋:

① 單小曦、別君華:《人性化與自主性:媒介智能化進(jìn)化的內(nèi)在機(jī)制與雙重結(jié)構(gòu)》,《中國(guó)新聞傳播研究》,2019 年第6 期,第51 頁(yè)。

② 彭蘭:《“數(shù)據(jù)化生存”:被量化、外化的人與人生》,《蘇州大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版),2022 年第2 期,第160 頁(yè)。

③ Denise A Baker.Four Ironies of Self-Quantification:Wearable Technologies and the Quantified Self,Science and Engineering Ethics,https://doi.org/10.1007/s11948-020-00181-w,22 January 2020.

④ 隋巖:《群體傳播時(shí)代:信息生產(chǎn)方式的變革與影響》,《中國(guó)社會(huì)科學(xué)》,2018 年第11 期,第124 頁(yè)。

⑤ 於興中:《算法社會(huì)與人的秉性》,《中國(guó)法律評(píng)論》,2018 年第2 期,第57 頁(yè)。

⑥ 劉培、池忠軍:《算法的倫理問(wèn)題及其解決進(jìn)路》,《東北大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版),2019 年第2 期,第119 頁(yè)。

⑦ Neyland D,Mllers N.Algorithmic IF...THEN Rules and the Conditions and Consequences of Power.Information,Communication & Society,vol.20,no.1,2017.p.2.

⑧ 衣俊霖:《數(shù)字孿生時(shí)代的法律與問(wèn)責(zé)——通過(guò)技術(shù)標(biāo)準(zhǔn)透視算法黑箱》,《東方法學(xué)》,2021 年第4 期,第79 頁(yè)。

⑨ Stahl BC,Timmermans J,Mittelstadt BD.The Ethics of Computing:A Survey of the Computing-Oriented Literature.Acm Computing Surveys(CSUR),vol.48,no.4,2016.p.27.

⑩ 趙樂(lè)瑄:《APP 用戶(hù)協(xié)議與隱私政策,你真的讀過(guò)嗎?》,https://mp.weixin.qq.com/s/cYBatGkuT3Oz6DW7DcZcKg,2022 年4 月29 日。

? 光明日?qǐng)?bào)與武漢大學(xué)聯(lián)合調(diào)研組: 《保障安全的“權(quán)利書(shū)”,還是竊取信息的“任意門(mén)”——App 隱私協(xié)議現(xiàn)狀調(diào)查》,https://baijiahao.baidu.com/s? id=1708521630294149131 & wfr=spider & for=pc,2021 年8 月19 日。

? 京東隱私政策:https://about.jd.com/privacy/,2022 年10 月26 日。

? Lilian Edwards & Michael Veale.Slave to the Algorithm:Why a Right to an Explanation Is Probably Not the Remedy You Are Looking For,16 Duke Law & Technology Review,vol.16,no.1,2017.p.81.

? 謝琳、曾俊森:《個(gè)體賦權(quán)在算法決策治理中的定位》,《法治社會(huì)》,2022 年第1 期,第91 頁(yè)。

? 楊立新、趙鑫:《利用個(gè)人信息自動(dòng)化決策的知情同意規(guī)則及保障——以個(gè)性化廣告為視角解讀〈個(gè)人信息保護(hù)法〉第24 條規(guī)定》,《法律適用》,2021 年第10 期,第27 頁(yè)。

? 盧衛(wèi)紅、楊新福:《人工智能與人的主體性反思》,《重慶郵電大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版),2023 年第2 期,第87 頁(yè)。

? 車(chē)洪波:《自主意識(shí)的由來(lái)與必然走向》,《學(xué)習(xí)與探索》,1997 年第1 期,第60 頁(yè)。

? 自動(dòng)駕駛事故指2018 年3 月18 日,uber 自動(dòng)駕駛汽車(chē)在亞利桑那州發(fā)生的交通事故。自動(dòng)飛行事故指2019 年3 月10 日,埃塞俄比亞航空波音737MAX8 飛機(jī)墜毀,事故由波音公司安裝的自動(dòng)駕駛操作系統(tǒng)(MCAS)造成。智能醫(yī)療事故指2021 年6 月,世界衛(wèi)生組織(WHO)發(fā)布“世界衛(wèi)生組織健康領(lǐng)域人工智能倫理與治理指南”(WHO Guidance on the Ethics and Governance of Artificial Intelligence for Health),《指南》指出人工智能在某些情況下?lián)p害人類(lèi)自主決策,動(dòng)搖人類(lèi)在知識(shí)生產(chǎn)中的中心地位,導(dǎo)致認(rèn)知權(quán)威發(fā)生偏移。

? Nancy Owano.Asilomar AI Principles: A Framework for Human Value Alignment,https://techxplore.com/news/2017-02-asilomar-ai-principlesframework-human.pdf,6 February 2017.

? EU.Ethics Guidelines for Trustworthy AI,https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html,8 April 2019.

? UNESCO.Recommendation on the Ethics of Artificial Intelligence,https://unesdoc.unesco.org/ark:/48223/pf 0000381137,23 November 2021.

? 北京市海淀區(qū)人民法院一審民事判決書(shū),(2018)京0108 民初49421 號(hào)。

? 湖南省長(zhǎng)沙市芙蓉區(qū)人民法院一審民事判決書(shū),(2018)湘0102 民初13515 號(hào)。

? 張旭:《技術(shù)時(shí)代的責(zé)任倫理學(xué):論漢斯·約納斯》,《中國(guó)人民大學(xué)學(xué)報(bào)》,2003 年第2 期,第70 頁(yè)。

猜你喜歡
自主性權(quán)利決策
為可持續(xù)決策提供依據(jù)
我們的權(quán)利
決策為什么失誤了
論不存在做錯(cuò)事的權(quán)利
法大研究生(2018年2期)2018-09-23 02:19:50
英語(yǔ)學(xué)習(xí)的自主性及其教學(xué)應(yīng)用
實(shí)用英語(yǔ)教材與藝術(shù)生自主性培養(yǎng)
發(fā)揮主體作用,加強(qiáng)高中數(shù)學(xué)復(fù)習(xí)的自主性
權(quán)利套裝
Coco薇(2015年12期)2015-12-10 02:43:39
維護(hù)科學(xué)的自主性
愛(ài)一個(gè)人
文苑·感悟(2012年12期)2012-12-13 01:53:52
和平区| 肥西县| 连城县| 扎兰屯市| 肇州县| 维西| 江都市| 湘潭市| 河北省| 临猗县| 泸溪县| 凤山市| 五台县| 睢宁县| 定远县| 上虞市| 梅河口市| 新巴尔虎右旗| 呈贡县| 许昌市| 张家界市| 句容市| 肃宁县| 盐山县| 从江县| 永安市| 安国市| 肇庆市| 广西| 宁化县| 峨眉山市| 余干县| 荔波县| 时尚| 濮阳市| 那坡县| 丘北县| 洪雅县| 乐陵市| 分宜县| 巴林左旗|