龔超
2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》(以下簡稱《倫理規(guī)范》),旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關(guān)活動的個人與機構(gòu)提供倫理指引?!秱惱硪?guī)范》提出了增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚拧娀熑螕?、提升倫理素養(yǎng)等6項基本倫理要求,同時也提出了人工智能管理、研發(fā)、供應、使用等特定活動的18項具體倫理要求。
然而,據(jù)筆者調(diào)研發(fā)現(xiàn),倫理往往是中小學教育中最容易被忽視的內(nèi)容。以幾家不同出版社出版的高中人工智能教材為例,涉及人工智能倫理的內(nèi)容平均篇幅占比不足5%,少數(shù)教材中對倫理甚至只字未提。中國的人工智能倫理研究任重道遠,筆者結(jié)合相關(guān)文獻資料及自身給中小學師生培訓經(jīng)驗,淺析中小學人工智能倫理教學,借以拋磚引玉,望有更多相關(guān)人士建言獻策,推動中國中小學人工智能倫理教育的發(fā)展。
雙輪驅(qū)動文理兼修,不可忽視的人工智能倫理
人工智能,作為一門增強人類改造自然、治理社會的新興技術(shù),涉及諸多人與社會價值的問題。相對于英、美、日、韓等國家而言,中國的人工智能倫理研究存在一定的滯后性,這與中國人工智能其他領(lǐng)域研究的快速發(fā)展已經(jīng)不相匹配。毫不夸張地說,離開了倫理的約束,人工智能好比一匹脫韁野馬,風險將大大增加。
倫理是人工智能知識體系中不可分割的組成部分,也是中小學人工智能教育中最為重要的內(nèi)容之一。以社會主義核心價值觀為指導,強化人工智能倫理教育,從小樹立正確的價值觀是中小學人工智能教育的重中之重。要打造不同學段進階、課程體系完善、知識內(nèi)容豐富、教學形式新穎的人工智能教學體系,人工智能倫理教育必不可少。
了解什么是人工智能倫理,要先從認識機器倫理開始。機器倫理的出現(xiàn)早于人工智能,學界通常認為,米切爾·安德森等學者最早提出了機器倫理的概念,即如何關(guān)注機器的倫理屬性。2004年《走向機器倫理》一文的發(fā)表,為機器倫理學奠定了理論基礎。其實,人們對機器引發(fā)的倫理問題很早就有關(guān)注。比如非常知名的機器人三定律,是科幻作家艾薩克·阿西莫夫在其1942年的短篇小說《轉(zhuǎn)圈圈》中提出的??刂普搫?chuàng)始人諾伯特·維納在1950年出版的《人有人的用處》一書中,也道出了一些機器帶給人類風險的思考。
正是因為人工智能涉及人類智能的某些特征,人們在與其交互的過程中不可避免會引發(fā)倫理方面的風險。因此將人工智能技術(shù)的發(fā)展與倫理問題進行同步討論是十分必要的,這點在中小學人工智能教育中尤為重要。
巧用科技影視作品,思考強人工智能倫理問題
一些知名的學者、企業(yè)家均表達過對人工智能引發(fā)人類災難的擔心。斯蒂芬·威廉·霍金曾說,人工智能研發(fā)的成功有可能成為人類歷史上最大的事件,但是它也可能成為人類文明的終結(jié),除非我們學會如何避免危險。比爾·蓋茨就曾公開發(fā)表言論,擔心幾十年后人工智能會強大到足以令人擔憂的地步。埃隆·馬斯克也說過,人工智能是關(guān)系人類文明存亡的最大威脅,是汽車事故、飛機墜毀、濫用藥物或劣質(zhì)食品都比不了的威脅。
不少學者還擔心另一個議題,即奇點的來臨。奇點是一個臨界點,一旦超過該點,人工智能就會對人類產(chǎn)生巨大影響。奇點一說并非一蹴而就,計算機之父馮·諾伊曼在與控制論創(chuàng)始人諾伯特·維納談話中受到啟發(fā),引入“技術(shù)奇點”。2005年,人工智能專家瑞·庫茨維爾在其《奇點臨近》一書中提出了2045年機器智能將超過人類智能,一時間引發(fā)了人們對人工智能倫理的廣泛討論。
其實,這些言論都屬于強人工智能討論范疇,也就是當人工智能擁有了自我意識后引發(fā)的一些倫理風險問題。從目前的發(fā)展來看,強人工智能引發(fā)的倫理問題仍然處于假設階段,然而由于一些文學影視作品帶來的沖擊激發(fā)了人們對于未來人工智能發(fā)展的無限遐想與擔憂,這種憂慮甚至蔓延到了中小學。比如,根據(jù)對教師的調(diào)研可知:小學高年級的一些學生開始擔心人工智能會取代未來的工作甚至毀滅人類,因此在學習、生活上產(chǎn)生了消極心理;還有一些學生認為未來的人工智能會包辦一切,因此無須好好學習。這些誤區(qū)都需要加以糾正。
針對強人工智能引發(fā)的倫理問題,教師可以通過結(jié)合豐富的影視作品片段,如《阿凡達》《她》《機器姬》《機器崩壞》《超驗駭客》等,詮釋影片中技術(shù)引發(fā)的倫理問題,甚至可以讓學生們參與討論,切身體會未來科技下的倫理問題。
算法歧視層出不窮,如何思考背后倫理問題
算法歧視是弱人工智能范疇下備受熱議的倫理問題之一。近幾年,運用人工智能導致偏見的問題屢見不鮮。早在2015年,Google Photos使用的圖像分類器就曾將一名黑人女性“歸為”大猩猩類別。無獨有偶,2020年,有Facebook用戶在觀看完某黑人的視頻時,收到了是否繼續(xù)觀看靈長類動物視頻的信息。
除了種族歧視外,人工智能技術(shù)中還存在著一定程度的性別歧視。比如一些學者指出,像IBM、微軟以及亞馬遜等公司,在利用人工智能處理海量簡歷進行打分篩選時,對女性應聘者產(chǎn)生了嚴重的偏見。另外,在廚房工作的男性,也被人工智能識別成了女性。
當然,人工智能產(chǎn)生的“歧視”問題遠不止這些,比如價格歧視、身份歧視、就業(yè)歧視、教育歧視、信貸歧視等,層出不窮。教師可以帶著學生一起思考并討論這些由人工智能歧視引發(fā)的倫理問題。一方面,某些人工智能算法的不可解釋性制約了人工智能倫理的研究與發(fā)展,從而催生了當下一個熱門概念——可解釋的AI(Explainable AI,簡稱XAI)。另一方面,很多倫理的偏見也產(chǎn)生在數(shù)據(jù)環(huán)節(jié),而有關(guān)數(shù)據(jù)收集、整理與分析等相關(guān)知識,在中小學階段也是比較容易被忽視的內(nèi)容之一。
比如針對某算法將黑人照片“美化”成白人照片,圖靈獎得主楊立昆認為這是數(shù)據(jù)的偏差所致。麻省理工學院研究人員喬伊·博拉姆維尼認為,人工智能是建立在數(shù)據(jù)基礎上的,數(shù)據(jù)反映了我們的歷史,過去的不平等一直存在,人工智能很容易受到數(shù)據(jù)的偏見影響,因此她創(chuàng)立了算法正義聯(lián)盟(Algorithmic Justice League),旨在挑戰(zhàn)人工智能帶來的偏見。2016年,微軟曾推出人工智能聊天機器人Tay(設定為一個什么都不懂的19歲美國女孩)向線上的用戶互動學習,然而不到一天時間,微軟就關(guān)閉了該服務。原因是網(wǎng)上的惡意言論(數(shù)據(jù))將其徹底“教”壞,成為一個飆臟話和種族歧視的“不良少女”。
隱私保護不容忽視,提升自我安全防范意識
大數(shù)據(jù)往往被稱為信息時代的石油。人工智能能夠再度崛起,一個重要原因就是得益于大數(shù)據(jù)。然而,大數(shù)據(jù)收集與分析帶來的諸如隱私權(quán)等問題越來越被重視。以人臉識別為例,《信息安全技術(shù)個人信息安全規(guī)范》明確指出指紋、聲紋以及面部識別等個人生物識別信息屬于個人敏感信息。因此在中小學階段,一定要教育學生學會保護自己的敏感信息,避免被他人擅自采集。像照片中V字手,又或是娛樂App中上傳人臉等,都存在個人敏感信息泄露的風險。
比如,中小學教師在課堂上展示換臉等人工智能技術(shù)帶來的強大功能時,也應該將deepfake等技術(shù)帶來的危害一并告知學生。比如網(wǎng)上流出的某國總統(tǒng)發(fā)言的視頻,其實是某大學研究團隊“偽造”的,利用人工智能技術(shù)可以做到偽造人物的發(fā)音與嘴唇都嚴絲合縫。這就是人工智能技術(shù)雙刃劍的體現(xiàn),在其推動社會發(fā)展的同時,我們更要思考人工智能會帶來哪些不良的影響。
另外,在中小學生掌握人工智能技能的同時,教師還要教育他們提升倫理責任意識,切勿做一些違反法律或倫理準則的事情。近幾年,國內(nèi)時有發(fā)生中學生利用技術(shù)手段非法獲取信息,或是被不法分子利用從而釀成大禍的事件,這與倫理教育的缺失也存在一定的關(guān)系。
很多中小學教師感慨在人工智能倫理方面沒有太多內(nèi)容可以教授,事實并非如此。除了上述問題外,人工智能倫理中的電車困境、控制權(quán)歸屬、責任擔當、身份認同、公平公正等話題,都是人工智能倫理教育需要進一步探討的問題。
中小學人工智能教育中,不僅要教授人工智能的知識、訓練人工智能的技能,更要隨時進行倫理教育,讓人工智能知識技能與倫理雙輪驅(qū)動,讓學生認識到科技帶來的利與弊,從小樹立正確的價值觀,培養(yǎng)科技向善的意識。