楊秀 李芬
摘 要:
算法已然成為當前社會運轉(zhuǎn)的一個重要技術(shù)元素,而伴隨著媒介成長起來、被稱為“數(shù)字原住民”的未成年群體,在享受技術(shù)紅利的同時,也不可避免地面臨著諸如成人化、信息繭房、全景監(jiān)視、娛樂模仿以及階層分化等算法風險。我國日漸成型的算法規(guī)制體系在制度供給、司法執(zhí)行以及業(yè)界實踐過程中給予了未成年人特殊的關(guān)照與保護,但仍然在監(jiān)管條件、配套規(guī)則、對象界定、技術(shù)實踐以及家庭教育等方面存在缺陷。這需要多主體在多環(huán)節(jié)協(xié)作配合,通過相關(guān)立法的完善、監(jiān)管框架的優(yōu)化、標準文件的出臺、階段保護的落實以及算法問責的強化,來妥善回應算法濫用及異化帶給未成年群體的挑戰(zhàn),幫助未成年人構(gòu)建友好型網(wǎng)絡(luò)生態(tài),推動我國網(wǎng)絡(luò)強國的建設(shè)。
關(guān)鍵詞:
算法;未成年人;網(wǎng)絡(luò)保護;法律
中圖分類號:D902
文獻標識碼:A
文章編號:1673-8268(2023)02-0076-09
技術(shù)的發(fā)展必然會對社會運行模式施加影響。作為大數(shù)據(jù)技術(shù)在信息傳播中的應用,算法推薦服務(wù)將人們從海量信息中解救出來,實現(xiàn)了信息與人之間的高效匹配,大幅提升了信息傳播的效率。學界關(guān)于算法的相關(guān)研究最早可追溯到20世紀,但是它成為新聞業(yè)的傳播方式則是發(fā)生在近十年,并且發(fā)展勢頭迅猛。算法與媒體的正式結(jié)合源于2002年9月推出的谷歌新聞[1];而在我國,自2012年“今日頭條”開啟算法分發(fā)的嘗試以來,不僅新聞資訊類平臺,而且類似于抖音、快手的視頻類平臺,包括微博、微信在內(nèi)的社交平臺以及淘寶、京東類的交易平臺,都開始運用算法推薦機制來進行信息分發(fā)并影響人們的決策。
2021年11月16日,國家互聯(lián)網(wǎng)信息辦公室審議通過了我國第一部以算法作為專門規(guī)制對象的部門規(guī)章——《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《規(guī)定》),其中指出算法推薦技術(shù)包括生成合成類、個性化推送類、排序精選類、檢索過濾類、調(diào)度決策類等五大類別。各類型算法推薦服務(wù)在人們的不同生活場景中發(fā)揮著作用。作為計算機程序?qū)崿F(xiàn)數(shù)據(jù)分析、面向特定目標的一套指令[2],算法逐漸成為媒介化社會中的基礎(chǔ)性技術(shù)元素,改變了信息傳播邏輯的同時,還促進了經(jīng)濟運行與國家管理方式的變革,并對當代未成年人的生活與成長環(huán)境產(chǎn)生了深刻影響。當前社會中的未成年群體多為伴隨互聯(lián)網(wǎng)成長起來的“數(shù)字原住民”,他們在算法作用機制下獲取信息、了解世界、構(gòu)建認知、作出決策,也在更大程度上面臨著算法誘發(fā)的風險挑戰(zhàn)。我國現(xiàn)有的算法規(guī)制體系能否給予未成年人足夠的關(guān)照?當下社會應當如何幫助未成年人在算法推薦服務(wù)普遍運用的環(huán)境下實現(xiàn)“安全”與“發(fā)展”的雙軌成長?這些都是值得探討的問題。
一、未成年人面臨的算法風險審視
近年來未成年網(wǎng)民規(guī)模持續(xù)增大,觸網(wǎng)低齡化趨勢也愈加明顯。截至2022年6月,我國網(wǎng)民規(guī)模為10.51億,19 歲以下網(wǎng)民占全國網(wǎng)民人數(shù)的17.7%[3]。算法技術(shù)越早入駐未成年人的生活,也就將其越早地暴露在技術(shù)應用的風險中。基于未成年群體特殊的心理機制與行為模式,他們在享受算法推薦服務(wù)帶來的好處時,也正在被植入的算法邏輯渲染上數(shù)字色彩,從認知到行為,都被埋下了受技術(shù)殖民的隱患。具體來說,算法推薦服務(wù)帶給未成年人的風險主要包括五個方面。
(一)倍速中成長
媒介文化研究者尼爾·波茲曼曾提出,童年并非是由生物學決定的概念,而是一個社會學概念;書籍和閱讀往往限定了相應的門檻要求從而實現(xiàn)了兒童與成年人的區(qū)分,因此書籍和閱讀的普及創(chuàng)造了童年。但是,電視影像時代不設(shè)界限的傳播方式卻導致了童年的消逝,“新媒介的自由化視像語法摧毀了成人與兒童之間由讀寫能力孕育的文化分野,‘成人化的兒童與成人一起,在簡單化的觀看之中,漂浮在娛樂消費的文化表象之上”[4]?,F(xiàn)代社會已然是一個“算法時代”,由于媒介設(shè)備的易得性、算法應用的普遍性以及把關(guān)人的缺失,未成年人被偏重“工程傳播邏輯”的算法削弱了群體特殊性,成年與未成年的分野因技術(shù)手段而變得模糊。一方面,一些網(wǎng)絡(luò)服務(wù)平臺在用戶注冊信息時并未強制要求實名認證,這便給予了未成年人在入池階段隱瞞自己真實年齡的機會,錯誤的用戶標簽使得他們接觸的信息超出其本應置身的未成年內(nèi)容池,而開始延伸至更大范圍的成年人可讀內(nèi)容。另一方面,基于現(xiàn)實社交關(guān)系的精準分發(fā)以及流量池疊加推薦等操作,都無疑會使得成人世界的“秘密”不再被遮蔽,而成為繁雜信息中推向大眾的滄海一粟,從而致使具有較強好奇心以及較低辨別能力的未成年人在潛移默化中被催熟,并開啟倍速成長模式,漸趨“成人化”。
(二)繭房中生存
“信息繭房”這一概念最早由美國學者凱斯·桑斯坦在《信息烏托邦》中提出,他認為用戶在接觸互聯(lián)網(wǎng)信息時,往往只會選擇自己感興趣的內(nèi)容,而刻意無視并排斥其他內(nèi)容,長此以往就形成了“信息繭房”[5]。算法技術(shù)本身是基于信息爆炸的現(xiàn)實圖景應運而生,甚至可以被解釋為是人們在信息過剩時代的某種自我保護,是現(xiàn)代人以個體為基礎(chǔ)信息消費的必然結(jié)果[6];它將人們從海量信息帶來的迷茫、焦慮與壓力困境中解救出來,放縱用戶的獨異性需求,降低信息檢索成本,幫助受眾更快定位自己所需要的資源。理想狀態(tài)下,未成年人本應借由強大的信息技術(shù)接受多元信息并全面了解世界,在觀點的碰撞之下形成自己的價值觀,不斷進行自我提升,現(xiàn)卻因為對算法的不當應用而使自己無休止地被同質(zhì)化內(nèi)容飼養(yǎng),導致視野的偏狹和觀念的固化。對未成年人而言,算法推薦服務(wù)能把他們與擁有相同興趣、關(guān)注共同話題的人集聚起來,從而讓自己迅速獲得群體歸屬感與滿足感。但是,這也使其只接觸并關(guān)注自己認同的信息,而下意識屏蔽、排斥其他觀點和內(nèi)容,從而造成了信息繭房的固化。而且,未成年人往往在自主意識方面難以擺脫算法的“知心”服務(wù),于是在媒介使用方面難以自控,由此患上媒介依賴癥。算法對于用戶興趣的精準掌控,無疑會加深這種依賴,如此循環(huán)之下,便會使未成年人深陷技術(shù)漩渦與信息繭房之中。
(三)監(jiān)視中“裸奔”
人工智能算法的實質(zhì)是算法系統(tǒng)處理和利用用戶存在于網(wǎng)絡(luò)之中的個人信息[7],因此算法推薦機制得以運行的基礎(chǔ)在于對個人信息數(shù)據(jù)的獲取與處理;用戶在平臺上停留的時間越長、暴露的數(shù)據(jù)越多,算法為用戶所刻畫的畫像就會更精確。邊沁曾提出圓形監(jiān)獄理論,指出由外圍環(huán)形建筑和中心瞭望塔兩部分組成的建筑結(jié)構(gòu)能令處于中心瞭望塔的獄警完全監(jiān)視到犯人們的一舉一動,使其毫無隱私可言[8]。而在當前的媒介環(huán)境中,算法技術(shù)對于用戶信息的獲取在某種程度上也產(chǎn)生了一種隱性的監(jiān)視機制。技術(shù)的背后往往附帶相應的利益訴求和價值觀念。不具備專業(yè)技術(shù)知識的普通用戶對于自己同意被采用的數(shù)據(jù),除了了解其將被作為信息分發(fā)的依據(jù)之外,對于其是否被作為他用以及數(shù)據(jù)存儲機構(gòu)能否保證數(shù)據(jù)庫安全不受侵犯,往往沒有進行全面的了解。特別是處于技術(shù)黑箱中的未成年人,對平臺背后的工程邏輯了解較淺,在自身隱私信息保護方面警覺性也相對較低,因而很少刻意采取相應的措施來規(guī)避算法監(jiān)視。在此意義上,由于現(xiàn)在的未成年人觸網(wǎng)年齡越來越小,其數(shù)字生命相較于成年人而言會更長;隨著時間的累積,他們被獲取的數(shù)據(jù)會更多,卷入隱私風險的可能性也越大。
(四)娛樂中模仿
新媒體時代的技術(shù)賦權(quán),完成了傳播流程的去中心化,任何個體都可能成為傳播中心。算法的推送機制更是解構(gòu)了傳統(tǒng)社會中的權(quán)力結(jié)構(gòu),那些帶有娛樂性質(zhì)的傳播內(nèi)容往往能夠獲得更多的瀏覽與點擊率,并在下一個流量池中“俘獲”系統(tǒng)的自動加權(quán),實現(xiàn)更大范圍內(nèi)的內(nèi)容分發(fā)與傳播?;谖闯赡耆说男睦頇C制,帶有強烈趣味性、偏向娛樂化的信息對其更加具有吸引力。而未成年人長期瀏覽娛樂化內(nèi)容,使得算法在持續(xù)的自我馴化過程中為其建立相應的標簽,并在之后的服務(wù)實踐中繼續(xù)加大娛樂內(nèi)容的傳播比重。由于當前的娛樂化信息中不乏低級低俗、價值觀扭曲的內(nèi)容,且具有人文關(guān)懷的把關(guān)人在算法推薦過程中缺席,而以工具理性為導向的算法又不具備分辨內(nèi)容價值的能力,因此,僅以未成年人自身興趣為推送衡量標準往往會造成不良信息以畸形的“合理性”乘虛而入,在導致未成年人沉迷網(wǎng)絡(luò)的同時,也在其建立價值觀的重要階段產(chǎn)生誤導。此外,出生于數(shù)字時代的未成年群體有其特定的娛樂需求與社交需求,在接受算法推薦的過程中,也在扮演傳播角色??勺儸F(xiàn)的流量與被關(guān)注的渴望,驅(qū)使許多孩子孵化網(wǎng)紅理想,而模仿行為則會是大部分未成年人“打拼事業(yè)”的第一步。但是,處于認知建構(gòu)環(huán)節(jié)的未成年人,會疏于對其所模仿的內(nèi)容進行甄別,而對包含暴力、性暗示、畸形審美等高風險、惡趣味、錯誤價值導向的行為進行模仿,這無疑會阻礙未成年人健康成長。
(五)偏見中分層
算法技術(shù)的數(shù)據(jù)模型以及運行標準是人為設(shè)定的,設(shè)計者個人的道德觀念以及利益集團的資本追逐訴求,都會在某種程度上影響受眾的信息獲取,并在更長遠范圍內(nèi)影響其社會認知。算法廣告中的種族歧視、性別歧視以及“大數(shù)據(jù)殺熟”背后的價格歧視,是生活中常見的幾種算法偏見[9]。這些社會歧視反映在算法推薦環(huán)節(jié)中,會使得處于成長過程中的未成年人延續(xù)既有的社會偏見,加深刻板印象。并且,同質(zhì)產(chǎn)品與服務(wù)的長期投放,使得用戶難以接觸多元觀點,在窄化其認知的同時,也致使其失去獲得新資源的機會,從而阻礙了社會階層的流動,這無疑扼殺了未成年群體成長發(fā)展的更多可能性。此外,基于現(xiàn)實社會客觀存在的階層分級,未成年群體對媒介信息的接觸與使用會因為環(huán)境條件的不同而呈現(xiàn)出差異,這種差異多由家庭、教育等因素決定。在接受算法推薦服務(wù)時,
未成年群體在獲得來自父母、長輩、老師甚至是同齡人的引導方面,經(jīng)濟條件富裕的會比經(jīng)濟條件貧瘠的更好,從而能夠有效實現(xiàn)算法這項新技術(shù)在開拓新知、資源整合以及行為決策方面的正面效應。諸如留守兒童等群體卻往往面臨著更大的算法風險,他們因技術(shù)使用缺乏家長引導與監(jiān)督而更加追逐新技術(shù)的娛樂功能、忽視其發(fā)展功能,長此以往就逐漸成為“數(shù)字鴻溝”下知識貧瘠的一端。
二、算法治理中對未成年人的多維關(guān)照
隨著算法技術(shù)背后的風險漸漸引起社會各界的重視,我國開始引導算法向善,深入探索算法治理路徑,并在這個過程中不斷體現(xiàn)出關(guān)照未成年人的取向,以促使技術(shù)增進人類福祉。當前,我國在算法治理過程中對于未成年的關(guān)照主要體現(xiàn)在以下三個方面。
(一)制度關(guān)照
“制度供給是通過法定程序設(shè)立和創(chuàng)新行為規(guī)則的過程,其本質(zhì)就是明確經(jīng)濟社會運行規(guī)則;要針對經(jīng)濟社會生活中出現(xiàn)的新情況新要求,增強制度供給的及時性?!保?0]為了規(guī)制算法推薦技術(shù)應用可能存在的潛在風險,我國致力于為算法治理提供制度支撐?!兑?guī)定》作為我國首個針對算法推薦服務(wù)制定的專門法律文件,標志著我國算法治理事業(yè)初步邁入體系化軌道。繼《未成年人保護法》《兒童個人信息網(wǎng)絡(luò)保護規(guī)定》等法律文件之后,《規(guī)定》的出臺和實施為我國未成年人網(wǎng)絡(luò)保護制度增設(shè)了重要內(nèi)容,且在算法治理領(lǐng)域?qū)ξ闯赡耆后w表現(xiàn)出明確的制度關(guān)照。作為未成年的權(quán)益保護專條,《規(guī)定》第18條提出了算法推薦服務(wù)提供者在未成年人網(wǎng)絡(luò)保護方面應當履行的責任義務(wù),明確要求他們通過開發(fā)未成年人模式、提供適合未成年人的特定服務(wù)等方式履行積極義務(wù),并界定了算法推薦服務(wù)提供者在把控甄別不良信息、預防未成年人網(wǎng)絡(luò)沉迷等方面的消極義務(wù),以此在算法領(lǐng)域提供了未成年人網(wǎng)絡(luò)保護和發(fā)展并行的中國智慧。
(二)司法關(guān)照
個人信息的收集與處理是算法執(zhí)行邏輯的前提,因而算法技術(shù)的不當運用會造成未成年人個人信息的濫用。在此過程中,鑒于算法技術(shù)隱蔽而復雜的“黑箱機制”,算法推薦服務(wù)的潛在風險不易被未成年人及其監(jiān)護人察覺;即便有所察覺,由于算法服務(wù)提供者與使用者之間對于專業(yè)技術(shù)知識的掌握存在明顯參差,個人維權(quán)面臨著成本過高、流程冗長等問題,這都會使得普通大眾讓渡自己的權(quán)益訴求以獲取生活便利。因此,為了更好地維護公民利益,我國在司法執(zhí)行層面規(guī)定可由相應的國家機關(guān)提出公益訴訟,拓寬救濟范圍,遵循兒童利益最大化原則,并促進互聯(lián)網(wǎng)行業(yè)健康發(fā)展。2021年新修訂的《未成年人保護法》在其第106條中規(guī)定:“未成年人合法權(quán)益受到侵犯,相關(guān)組織和個人未代為提起訴訟的,人民檢察院可以督促、支持其提起訴訟;涉及公共利益的,人民檢察院有權(quán)提起公益訴訟。”這為解決算法侵權(quán)糾紛提供了司法依據(jù)。當前,我國司法實踐中,已經(jīng)出現(xiàn)了運用公益訴訟保護未成年人權(quán)益的司法案例,如“杭州市余杭區(qū)人民檢察院訴某短視頻平臺未成年人保護民事公益訴訟案”。該案系全國首例有關(guān)兒童個人信息網(wǎng)絡(luò)安全保護的民事公益訴訟,其中指出,“某短視頻APP在未再次征得兒童監(jiān)護人有效明示同意的情況下,運用后臺算法,向具有瀏覽兒童內(nèi)容視頻喜好的用戶直接推送含有兒童個人信息的短視頻”,以及“信息處理者對兒童用戶進行畫像,未獲監(jiān)護人同意默認開啟個性化推薦,運用算法進行內(nèi)容推送”,這些行為被認定為違法處理兒童個人信息。在法院調(diào)解下,該案公益訴訟起訴人與被告某科技公司達成調(diào)解協(xié)議,被告需履行停止侵權(quán)、進行整改、接受審查、賠禮道歉以及交付罰款等調(diào)解事項[11]。此案為通過公益訴訟在算法推薦服務(wù)領(lǐng)域保護未成年人權(quán)益的司法實踐提供了示范。
(三)平臺關(guān)照
無論是應國家相關(guān)法律法規(guī)要求的被動行為,還是基于社會責任感的主動履行,作為提供互聯(lián)網(wǎng)服務(wù)與運用算法推薦服務(wù)的重要角色,平臺在對未成年人保護的過程中都發(fā)揮著舉足輕重的作用,體現(xiàn)出愈加強烈的關(guān)照趨勢。對未成年群體進行優(yōu)先、特殊的網(wǎng)絡(luò)保護,保護其隱私信息并為其提供優(yōu)質(zhì)內(nèi)容,運用合理的算法推薦模式,為其構(gòu)建友好、健康的網(wǎng)絡(luò)空間,已經(jīng)成為互聯(lián)網(wǎng)企業(yè)的普遍義務(wù)。自2007年4月我國網(wǎng)絡(luò)游戲正式進入防沉迷時代開始,從網(wǎng)絡(luò)游戲到各個短視頻平臺、直播平臺,乃至社交軟件,未成年人保護模式的應用場景陸續(xù)拓寬,實名認證制被不斷普及且要求更為嚴格細致;各大網(wǎng)絡(luò)平臺也逐漸開始制定“兒童隱私保護條款”,運用技術(shù)手段增設(shè)相關(guān)的“青少年保護模式”“防沉迷系統(tǒng)”以及“專屬內(nèi)容池”,對未成年人的網(wǎng)絡(luò)在線時長、使用時段、內(nèi)容類別、消費層級以及披露范圍進行規(guī)范。在此過程中,平臺借助“監(jiān)護人或家長同意”機制,合力保護著未成年人在網(wǎng)絡(luò)環(huán)境中的健康與安全。
三、算法治理中未成年人保護困境探析
為了應對算法推薦技術(shù)給傳播、經(jīng)濟、政治、文化以及大眾生活帶來的風險,我國從上層制度出發(fā),不斷完善平臺服務(wù)者以及行政監(jiān)管者的責任義務(wù),加大對算法設(shè)計者、學校、家長等多元主體的呼吁力度,初步構(gòu)建了中國算法推薦技術(shù)應用治理體系;并在此過程中,關(guān)注重視未成年人這一特殊群體,旨在幫助未來網(wǎng)絡(luò)強國的接班人健康、安全地成長。但是,面對“算法”這一新興事物,我國在該領(lǐng)域?qū)ξ闯赡耆碎_展的保護工作依然存在一些問題。
(一)監(jiān)管執(zhí)行門檻高
《規(guī)定》作為我國首個針對算法推薦服務(wù)制定的專門規(guī)定,主要面向包括各級網(wǎng)信部門、電信、公安、市場監(jiān)管等有關(guān)部門在內(nèi)的政府機關(guān)以及作為算法推薦服務(wù)提供者的企業(yè)平臺,明確了各自的信息服務(wù)規(guī)范、用戶權(quán)益保護以及監(jiān)督管理責任,從而為我國算法安全管理提供了制度供給,具有國際示范性。值得注意的是,有規(guī)可依只是我國開展算法治理的第一步,如何落實才是重中之重。然而,我國現(xiàn)有的實踐脈絡(luò)并不清晰,面對算法技術(shù)這一新興事物,監(jiān)管部門在履行相關(guān)責任的過程中面臨著技術(shù)門檻過高的問題。因為,要對算法推薦服務(wù)進行監(jiān)管,就意味著包括各級行政機關(guān)在內(nèi)的政府部門要掌握對等、甚至高于監(jiān)管對象的技術(shù)能力,即需要配備一定的技術(shù)團隊并提供相應的經(jīng)濟支持;現(xiàn)實情況卻是:除了經(jīng)濟發(fā)達地區(qū),其他地區(qū)并不具備這樣完善的條件,這就從技術(shù)層面阻礙了算法服務(wù)監(jiān)管的有效落實。
(二)配套規(guī)則不完善
《規(guī)定》提出了貫穿算法推薦服務(wù)提供過程的事前、事中、事后監(jiān)管體系,具體包括分級分類安全管理、算法備案制度、算法安全評估機制以及算法監(jiān)督檢查等;但是,對于監(jiān)管體系內(nèi)的具體流程、具體標準以及落地實施,我國目前還處于起步階段,各主體的責任義務(wù)相對模糊,配套規(guī)則并不完善?!兑?guī)定》第23條將算法推薦服務(wù)的輿論屬性、社會動員能力、內(nèi)容類別、用戶規(guī)模、算法推薦技術(shù)處理的數(shù)據(jù)重要程度、對用戶行為的干預程度等作為建立算法分級分類管理制度的關(guān)鍵要素,隨后對具有輿論屬性或者社會動員能力的算法推薦服務(wù)提供者提出了更嚴格的管理要求。值得注意的是,此處雖然對于分級分類的相關(guān)要素進行了羅列,但是關(guān)于“社會動員能力”“用戶規(guī)模”“重要程度”以及“干預程度”的具體界定標準卻并未明確,并且該條款主要聚焦于具備較大影響力的算法推薦服務(wù)者,對于中小規(guī)模企業(yè)的監(jiān)督管理路徑也并不清晰。此外,《規(guī)定》第8條要求算法推薦服務(wù)提供者自行對其采用的算法機制機理、模型、數(shù)據(jù)和應用結(jié)果等進行定期審核、評估與驗證,但是由于算法推薦的效果大多需要一個時間的積累,如何確認審核工作的完成,什么樣的結(jié)果是符合標準的,誰來設(shè)置標準,等等,這些都有待進一步界定。
(三)保護對象存局限
在我國既有的算法治理制度設(shè)計中,對于未成年人的保護多集中在十四周歲以下的群體,“兒童”與“未成年人”概念的差異性致使十四至十八周歲的未成年群體保護存在局限?!秱€人信息保護法》第15條明確了關(guān)于個人信息處理的同意撤回規(guī)則,《規(guī)定》第17條則進一步確定了算法應用的拒絕權(quán),指出算法推薦服務(wù)提供者應當向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項。由于對個人信息進行處理是算法運行的基本邏輯,因此在個人信息處理方面的法律法規(guī)文本設(shè)計也在一定程度上為算法推薦服務(wù)的應用治理提供了依據(jù)。在此意義上,《個人信息保護法》第31條對不滿十四周歲未成年人個人信息的處理作出了特殊規(guī)定,要求個人信息處理者在處理時應當取得其父母或者監(jiān)護人的同意,并且需要制定專門的處理規(guī)則。如此看來,這一條款默認年滿十四周歲而不滿十八周歲的未成年人擁有“同意能力”,可以獨自拒絕或同意個性化推薦算法處理自己的數(shù)據(jù)[12]。但現(xiàn)實中,這個階段的未成年人在“數(shù)字年齡”與“社會年齡”之間存在嚴重不對稱,讓他們完全自行決定是否接受或拒絕算法推薦,實際上是充滿風險的。由于這個范圍內(nèi)的未成年人多處于中學階段,媒介設(shè)備普及率明顯高于十四周歲以下群體,信息技術(shù)使用能力又高于其父母,因而,相較于傳統(tǒng)媒體時代兒童對社會的關(guān)注度和理解力,“童年的消逝”使得他們更趨于成熟[13],信息主體意識顯著提高,也具備更完善的條件與更強烈的積極性來進入媒介構(gòu)筑的“擬態(tài)環(huán)境”。但是,由于他們?nèi)^尚未成型,無論是在文化素養(yǎng)、社會閱歷,還是認知判斷方面,都與真正意義上的成年人存在斷層,放任他們接受算法飼養(yǎng),可能導致其難以清晰區(qū)分現(xiàn)實與網(wǎng)絡(luò),從而脫離正確的三觀建設(shè)道路。
(四)技術(shù)實踐有缺陷
網(wǎng)絡(luò)生存已然成為當代未成年人社會化的重要途徑,對未成年群體進行網(wǎng)絡(luò)保護也逐漸在社會各界達成共識,相關(guān)的網(wǎng)絡(luò)服務(wù)提供商在此過程中被賦予了更多的責任義務(wù),
并且越來越多地借助技術(shù)手段開啟青少年保護模式。2022年11月30日發(fā)布的《2021年全國未成年人互聯(lián)網(wǎng)使用情況研究報告》顯示,雖然青少年保護模式對減少未成年人網(wǎng)絡(luò)依賴發(fā)揮了積極作用,且八成以上未成年人和家長知道該模式,但對此設(shè)置過的人不到五成[14]。從現(xiàn)實來看,這種技術(shù)實踐目前仍舊存在許多缺陷,包括:界面顯示不顯著,監(jiān)護人難以注意到模式的存在;模式設(shè)置環(huán)節(jié)多,因消磨家長耐心或者超過家長的媒介使用能力而使其放棄設(shè)置;模式容易被破解,已設(shè)置的模式可通過卸載重裝、購買相應代碼以及手機驗證等方式繞過或取消;此外,還存在著身份冒用的問題,即使有的平臺設(shè)置了實名認證,但是部分未成年人會冒用身邊成年人的身份信息或者直接運用家長的媒介設(shè)備獲取互聯(lián)網(wǎng)服務(wù),主動將自己放置到算法推薦的場域之中。即使現(xiàn)有大數(shù)據(jù)技術(shù)已相對成熟,可通過用戶媒介使用軌跡判定其年齡,但這類技術(shù)并沒有在互聯(lián)網(wǎng)行業(yè)普及,且部分平臺為了追逐利益,疏于執(zhí)行“監(jiān)護人或家長同意”機制,即使檢測到用戶疑似未成年人,也不會做出相應舉措。以上技術(shù)實踐都有待解決和完善。
(五)家庭教育關(guān)照少
隨著媒介設(shè)備的下沉市場不斷增大,當前大多數(shù)未成年人都擁有自己的移動設(shè)備,或是有條件獲取媒介設(shè)備。加上近年來疫情的影響,未成年人接受線上教育的頻率大幅增加,接觸互聯(lián)網(wǎng)的時間明顯增長,家長在進行未成年人網(wǎng)絡(luò)保護的過程中顯然需要承擔比以往更大的責任。然而,目前,對于家庭教育在幫助未成年人規(guī)避算法風險方面,我國所給予的重視程度并不夠。一方面,雖然《未成年人保護法》第17條、第64條以及第71條規(guī)定了家長在未成年人網(wǎng)絡(luò)保護中的職責,但并沒有明確其法律責任,法律對家長這一主體的要求更多體現(xiàn)為柔性規(guī)范。另一方面,2021年通過并實施的《家庭教育促進法》也對家長進行未成年人網(wǎng)絡(luò)保護的關(guān)注不夠,主要提到了家長在預防孩子網(wǎng)絡(luò)沉迷方面的責任,而未涉及他們在新技術(shù)應用層面對孩子的引導義務(wù)。此外,在媒介使用方面,作為“數(shù)字原住民”的未成年群體與作為“數(shù)字移民”的家長監(jiān)護人在一定程度上存在數(shù)字鴻溝,部分家庭甚至需要通過技術(shù)反哺,即孩子教給家長傳播知識來幫助其適應現(xiàn)行媒介化社會,這就限制了家庭教育作用的發(fā)揮。
四、算法治理中未成年人保護路徑的優(yōu)化
作為未來網(wǎng)絡(luò)強國的主力軍,未成年人是否健康地成長生活,這關(guān)系到后繼人類社會的福祉。較之傳統(tǒng)媒體時代,當代社會中的未成年人迎來了新技術(shù)促發(fā)展的時代機遇,卻也面臨著新技術(shù)增風險的時代挑戰(zhàn),算法對未成年人施加的影響貫穿了其認知、行為乃至社會化全過程。因此,在現(xiàn)有的算法規(guī)制體制下,更加細致、全面地對未成年人進行保護,是我國重要的時代要務(wù)。
(一)健全相關(guān)立法,提升規(guī)范位階
算法技術(shù)的運用已然成為當前社會各行各業(yè)運轉(zhuǎn)的一個重要脈絡(luò),并且這種趨勢大有愈演愈烈之意?!兑?guī)定》作為中國第一部聚焦算法推薦服務(wù)安全治理的部門規(guī)章,對于我國算法規(guī)范與技術(shù)發(fā)展具有重要意義。但是,由于它僅為部門規(guī)章,且主要面向“算法推薦”,而未來算法應用不會局限于“推薦服務(wù)”這一應用場景,因此其效力有限,場景窄小,也在未成年人保護的重要性與實際效力方面存在脫節(jié)。立法如果停留于部門規(guī)章層級,則不僅難以對算法亂象進行全面規(guī)制,而且容易導致針對一種違法行為制定一種規(guī)則的滯后性問題[15]。因此,基于算法應用場景必將持續(xù)擴大的趨勢及其對人民生活的重要影響,對算法進行專項立法是必要的,且在專項立法中需要對未成年人面臨的算法風險進行??钜?guī)制。鑒于現(xiàn)有的制度供給情況,對于算法的專項立法必然還需要經(jīng)歷很長時間的磨合與商榷,為了更及時地幫助未成年人規(guī)避算法風險,同時節(jié)省司法成本,可在既有的《未成年人保護法》《家庭教育促進法》等法律中增設(shè)“算法使用”的相關(guān)條款,從更高的法律層級,以更強大的法律效力提請人們留意、關(guān)注并付出實際行動以保護置身算法應用中的未成年人,同時為算法監(jiān)管、問責等流程的有效推進提供強有力的法律背書。
(二)優(yōu)化監(jiān)管框架,充實監(jiān)管力量
算法推薦服務(wù)依賴于持續(xù)性的自我學習與進化,它的運作程序總是處在變化之中,其技術(shù)邏輯決定了對它進行全生命周期動態(tài)監(jiān)管的必要性?!兑?guī)定》強調(diào)了行政部門與算法推薦服務(wù)提供者在監(jiān)管算法安全過程中的責任義務(wù),但由于算法從設(shè)計到應用的全流程包含了多主體,因此,無論是現(xiàn)有的監(jiān)管框架還是監(jiān)管力量,都亟待更合理的優(yōu)化。具體來說,可從三個階段結(jié)合不同主體進行有效監(jiān)管。首先,算法應用前,可由通過了資質(zhì)認證或者國家授權(quán)的第三方機構(gòu)事先進行算法審計,避免專業(yè)壁壘導致監(jiān)管門檻過高的問題;審計對象主要包括算法代碼、模型、數(shù)據(jù)等,關(guān)注其有無設(shè)置未成年人特殊推薦機制,必要時可對相關(guān)算法程序采取試運行的方式,來判斷算法推薦服務(wù)提供者意圖采用的算法是否符合國家法律政策要求以及社會公共善原則。其次,在算法應用過程中,除了要求專業(yè)機構(gòu)定期審查算法運行過程、測試平臺采用的算法是否存在異化轉(zhuǎn)向之外,還可以在這個階段強調(diào)算法推薦服務(wù)提供者的自檢責任,要求其定期進行自我評估并抄送報告以用于行政機關(guān)備案或者專業(yè)機構(gòu)輔助抽查。最后,在算法的輸出結(jié)果層面,行政機關(guān)由于受到客觀的技術(shù)條件限制而主要負責定量監(jiān)管。其監(jiān)管內(nèi)容包括:算法推薦服務(wù)提供者的算法使用強度、范圍與頻率,是否嚴格落實實名認證機制,是否對疑似未成年人的用戶進行有效甄別并采取措施,是否創(chuàng)建未成年人專屬內(nèi)容池,是否設(shè)定未成年人算法推薦模式,以及是否實現(xiàn)算法推薦與“隨機內(nèi)容”雙流推進[16]。也就是說,在運用算法技術(shù)的過程中,算法推薦服務(wù)者應該有意識地將未成年人不感興趣但具有社會意義的新聞、與其觀點不同的評論以及必要的科普信息等按照一定比例進行分發(fā),為其創(chuàng)造多元化信息環(huán)境。
(三)細化配套規(guī)則,出臺標準文件
《規(guī)定》的出臺構(gòu)建了較為完善的算法推薦服務(wù)監(jiān)管體系,但其中的配套規(guī)則亟待更為細致的完善。《規(guī)定》設(shè)立了未成年人保護條款,因此,鎖定未成年群體,并出臺具體的分級分類標準、安全評估標準、算法備案標準以及監(jiān)督檢查標準是必要的。關(guān)于分級分類標準,其一,應當依照平臺自身屬性,即是否專門面向未成年用戶提供服務(wù)而區(qū)分未成年人平臺與成年人平臺;其二,由于絕大多數(shù)平臺受眾范圍并不局限于未成年群體,因此可對照《規(guī)定》中涉及到的“社會動員能力”“用戶規(guī)?!薄爸匾潭取币约啊案深A程度”等要素,結(jié)合平臺內(nèi)的未成年用戶使用情況,對于市面上現(xiàn)有網(wǎng)站與APP進行分級。關(guān)于安全評估標準,則可以根據(jù)分級分類的相關(guān)結(jié)果,將平臺劃分為“重大”“中等”“微小”等不同風險等級。關(guān)于算法備案制度,則應當要求算法推薦服務(wù)提供者在備案時明確報告其算法推薦服務(wù)中設(shè)置的未成年人專屬程序、風險糾偏、敏感文本過濾等情況,以此在事前以及運行過程中固定問責點,以便后期的問責程序能快速定位相關(guān)依據(jù)。而關(guān)于監(jiān)督檢查標準,則可以依據(jù)前面的安全評估情況以及算法備案情況,對不同風險等級的平臺進行區(qū)別監(jiān)管。比如,那些專門針對未成年人或者包含大量未成年人的平臺,會被界定為“重大風險”級,需要受到嚴格的監(jiān)管,包括多機構(gòu)審查、定期檢查以及不定時抽查;隸屬于其他風險等級的,則可以依據(jù)具體情況在監(jiān)管主體、監(jiān)管周期方面靈活設(shè)置。
(四)實施階段區(qū)分,進行差異保護
我國現(xiàn)有制度對于十四周歲以下未成年人采取父母知情同意原則,而給予十四至十八周歲未成年人個人自治的權(quán)利,這種制度設(shè)計無疑使得十四至十八周歲的未成年人在算法治理領(lǐng)域存在保護空檔。因為這部分未成年人同樣面臨著不良誘導、信息繭房、算法歧視以及隱私泄露等算法風險,甚至相較于得到法律以及社會更多關(guān)照的兒童,他們受到算法傷害的可能性更大。因此,不應使其置身于完全的信息自決狀態(tài),而可采取以十四周歲為界限的區(qū)分保護:平臺在無法準確獲知用戶年齡的情況下,應當默認關(guān)閉算法推薦服務(wù)選項,這項服務(wù)需在實名認證之后再開啟。對于十四周歲以下的未成年人,應當奉行嚴格的準入門檻,對于算法推薦服務(wù)的接受與否需要得到其家長明確的同意;“同意”獲取途徑包括但不限于人臉識別、支付認證以及電子簽名等不易偽造的方式,甚至可以不定時以發(fā)送郵件的方式提醒家長未成年人保護模式的存在,并盡量簡化該模式的設(shè)置過程。而對于十四至十八周歲的未成年人,鑒于其信息主體意識的提高,可賦予他們一定的自由決定權(quán),但仍舊需要發(fā)揮父母輔助決定的作用;輔助決定的途徑包括通過郵件獲取家長同意,或者定期發(fā)送行為軌跡報告,以便家長及時對孩子進行行為糾偏。輔助決定的必要性可根據(jù)算法推薦服務(wù)應用的具體場景進行區(qū)分,如“教育類”與“商業(yè)類”是兩種不同的情形,對前者可給予孩子足夠的自我同意權(quán),對后者則需要家長輔助決定[17]。
(五)強化算法問責,督促主體履責
算法問責的有效落實,有利于督促相關(guān)主體擔起責任,促使算法監(jiān)管與治理工作落到實處。算法問責的相關(guān)依據(jù)不應只局限于重大社會損害事實,還可來源于專業(yè)機構(gòu)或者第三方機構(gòu)撰寫的審計報告、行政部門的檢查結(jié)果、算法推薦服務(wù)提供者與備案有出入的評估報告以及民眾的舉報信息。算法問責對象主要面向以下主體:一是算法推薦服務(wù)提供者,問責場景包括其違背相關(guān)的法律政策與社會公共善原則惡意操縱算法、沒有盡到合理注意與通知義務(wù)以及其他沒達到的應當行為和禁止行為;二是行政機關(guān),問責主要指向其不監(jiān)管、不履行、不盡職行為。同時,鑒于算法侵害事實的廣泛性與隱蔽性,“公益訴訟”無疑是現(xiàn)有社會環(huán)境下幫助未成年群體應對算法風險挑戰(zhàn)并維護權(quán)益的重要途徑。但是,目前我國運用“公益訴訟”開展未成年人網(wǎng)絡(luò)保護的司法實踐模式并不成熟,所能提供的示范經(jīng)驗也較為有限。因此,在侵權(quán)范圍廣泛或者收到人民舉報卻沒有做出相關(guān)行為的情況下,相應的檢察機關(guān)也可被納入問責對象范圍。此外,對于作為未成年人權(quán)益維護的重要責任人的家長,現(xiàn)有法律主要通過柔性規(guī)范來規(guī)制,因而廣大家長還未意識到算法推薦服務(wù)帶給未成年人的影響之大以及自己在幫助孩子規(guī)避算法風險方面的責任之深,對此可采取罰款、訓誡等相應的問責手段以督促家長積極履責,正確開展家庭教育。
五、結(jié) 語
算法推薦服務(wù)的普及與大規(guī)模運用,促進了大眾信息接收、企業(yè)生產(chǎn)方式以及文化傳承路徑的變革,也在改變著年輕一代的成長環(huán)境。對未成年群體進行優(yōu)先、特殊地保護關(guān)系到社會穩(wěn)定與人類福祉,因此,以促進算法向上向善為原則對未成年人進行合理、健康地引導與保護,是相當必要的。當前,我國已經(jīng)在算法治理領(lǐng)域初步實現(xiàn)了有規(guī)可依的階段性進步,構(gòu)建了算法運行環(huán)境下未成年人網(wǎng)絡(luò)保護的基本框架。但是,其效果的局限性明顯,現(xiàn)有制度設(shè)計與監(jiān)管實踐均不成熟,且制度與制度、制度與實踐之間本身就存在脫節(jié)。納入多元主體,細化階段環(huán)節(jié),開展多維治理,是現(xiàn)階段實現(xiàn)算法技術(shù)持續(xù)發(fā)展與未成年人健康成長共贏的主要邏輯理路。至于未來如何在法律層面實現(xiàn)涵蓋“算法安全”與“未成年人保護”文件的有效銜接,如何在技術(shù)層面創(chuàng)新專門的“算法”來監(jiān)督平臺算法,如何在實踐層面執(zhí)行嚴格的審計流程以及如何在認知層面普遍提高全民算法素養(yǎng),這些都是值得進一步持續(xù)探討的問題。
參考文獻:
[1] 景佳琦.國內(nèi)媒體個性化算法推薦研究熱點分析——基于CNKI的文獻計量分析(2016-2019年)[J].新媒體研究,2020(13):7-10.
[2] SEDGEWICK R, WAYNE K. 算法[M].謝路云,譯.4版.北京:人民郵電出版社,2012:1.
[3] 中國互聯(lián)網(wǎng)絡(luò)信息中心.《第 50 次中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》[R/OL].(2022-09-26)[2022-10-19].http://www.cnnic.net.cn/NMediaFile/2022/0926/MAIN1664183425619U2MS433V3V.pdf.
[4] 趙霞.童年的消逝與現(xiàn)代文化的危機——新媒介環(huán)境下當代童年文化問題的再反思[J].學術(shù)月刊,2014(4):106-114.
[5] 凱斯·R·桑斯坦.信息烏托邦:眾人如何生產(chǎn)知識[M].畢競悅,譯.北京:法律出版社,2008:8.
[6] 喻國明,曲慧.“信息繭房”的誤讀與算法推送的必要——兼論內(nèi)容分發(fā)中社會倫理困境的解決之道[J].新疆師范大學學報(哲學社會科學版),2020(1):127-133.
[7] 麥買提·烏斯曼,阿不都米吉提·吾買爾.人工智能算法個人信息利用刑法規(guī)制與個人信息安全刑法保護——從新型權(quán)利轉(zhuǎn)向新型法益談起[J].重慶郵電大學學報(社會科學版),2022(1):48-60.
[8] ???規(guī)訓與懲罰——監(jiān)獄的誕生[M].劉北成,楊遠嬰,譯.北京:生活·讀書·新知三聯(lián)書店,2003:224.
[9] 張力,鄭麗云.算法推薦的歧視與偏見[J].中國報業(yè),2020(13):48-49.
[10]丁偉.增強地方立法供給的有效性和及時性[EB/OL].(2018-01-28)[2022-09-20].https://mp.weixin.qq.com/s?_biz=MjM5MjIxMzE0Ng==&mid=2651783877&idx=7&sn=fa2d1e50f43b07391ee9c2eda7a9d5f6&chksm=bd5213308a259a262ddbbbc068e91ab53975ae93cd7531be0912dfb6061e27803ae013dc1bdb&scene=27.
[11]杭州中院.個人信息保護十大典型案例|杭州互聯(lián)網(wǎng)法院5周年[EB/OL].(2022-08-19)[2022-10-23].https://mp.weixin.qq.com/s?_biz=MzA4ODk5OTQwOQ==&mid=2698618431&idx=1&sn=7c2dd2ccfcba5a6f7e9e46edba0a9a26&chksm=b50c92a1827b1bb78ad4a4da3e2e52482fe139165e9f2dfbdfeb25fcdca17549c5e937d7127f&scene=27.
[12]林洹民.個性化推薦算法的多維治理[J].法制與社會發(fā)展,2022(4):162-179.
[13]華劼.論《兒童個人信息網(wǎng)絡(luò)保護規(guī)定》之完善——以美歐兒童網(wǎng)絡(luò)隱私保護立法的比較和借鑒為視角[J].重慶郵電大學學報(社會科學版),2021(1):56-63.
[14]共青團中央.《2021年全國未成年人互聯(lián)網(wǎng)使用情況研究報告》發(fā)布[EB/OL].(2022-11-30)[2022-12-02].https://baijiahao.baidu.com/s?id=1750980106630135317&wfr=spider&for=pc.
[15]任穎.算法規(guī)制的立法論研究[J].政治與法律,2022(9):98-111.
[16]馬紅麗.有“規(guī)”之后算法推薦如何監(jiān)管?[J].中國信息界,2022(1):49-52.
[17]王者鵬,王肅之.論未成年學生個人信息制度保護的層次化[J].教育科學研究,2020(10):31-34+40.
On Minors Network Protection from the Perspectiveof Algorithm Governance
YANG Xiu, LI Fen
(School of Journalism & Communication, Chongqing University, Chongqing 400044, China)
Abstract:
Algorithm has become an important technical element in the current social operation. With the growth of media, the underage group, known as “digital aborigines”, is also inevitably faced with algorithm risks such as adulthood, information cocoon room, panoramic surveillance, entertainment imitation and class differentiation while enjoying the technological dividend. The increasingly mature algorithm regulation system in China has given special care and protection to minors in the process of system supply, judicial implementation and industry practice, but it still has defects in regulatory conditions, supporting rules, object definition, technical practice and family education, which requires the cooperation of multiple subjects in multiple links. Through the improvement of relevant legislation, the optimization of regulatory framework, the introduction of standard documents, the implementation of staged protection and the strengthening of algorithm accountability, it will properly respond to the challenges brought by algorithm abuse and alienation to the minors, help them build a friendly network ecology, and promote the construction of Chinas network power.
Keywords:
algorithm; juveniles; network protection; law
(編輯:刁勝先)
收稿日期:2022-11-20
基金項目:重慶市社科規(guī)劃項目:《民法典》實施與新聞傳播法治建設(shè)的關(guān)系研究(2020YBCB121)
作者簡介:
楊秀,副教授,博士,博士生導師,主要從事新聞傳播法學、策略傳播等研究,E-mail:yangxiubj@126.com;李芬,碩士研究生,主要從事新聞傳播法學研究,E-mail:2579062112@qq.com。