曹建峰
2019年的《政府工作報告》首次提出“智能+”這一全新概念。并提出“深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,壯大數(shù)字經(jīng)濟(jì)”,同時要求“加快在各行業(yè)各領(lǐng)域推進(jìn)‘互聯(lián)網(wǎng)+”。兩會上科技熱度不減的同時,是社會各界對人工智能等前沿技術(shù)越來越多的倫理思考和探索。
科技倫理引起廣泛關(guān)注
《政府工作報告》在要求“加大基礎(chǔ)研究和應(yīng)用基礎(chǔ)研究支持力度,強(qiáng)化原始創(chuàng)新,加強(qiáng)關(guān)鍵核心技術(shù)攻關(guān)”的同時,提出“加強(qiáng)科研倫理和學(xué)風(fēng)建設(shè)”。表明國家對前沿科技領(lǐng)域的倫理建設(shè)的高度重視。
科技倫理也是人大代表和政協(xié)委員積極關(guān)注的話題,諸多建議案涉及大數(shù)據(jù)、人工智能等前沿技術(shù)的法律、倫理和社會問題。3月6日,馬化騰向全國人大提交了7份建議案,其中就包括《關(guān)于加強(qiáng)科技倫理建設(shè) 踐行科技向善理念的建議》。
馬化騰認(rèn)為,科技倫理是創(chuàng)新驅(qū)動發(fā)展戰(zhàn)略、數(shù)字中國建設(shè)、數(shù)字時代商業(yè)競爭的重要保障。他呼吁在全社會、全行業(yè)積極倡導(dǎo)“科技向善”“負(fù)責(zé)任創(chuàng)新”“創(chuàng)新與倫理并重”等理念。并建議加強(qiáng)科技倫理的制度化建設(shè),針對相關(guān)新技術(shù)制定倫理準(zhǔn)則并積極參與、推動新技術(shù)領(lǐng)域的全球治理;加快研究數(shù)據(jù)、人工智能等新興技術(shù)領(lǐng)域的法律規(guī)則問題;加強(qiáng)科技倫理的教育宣傳并鼓勵全社會踐行“科技向善”理念。
要言之,在科技創(chuàng)新進(jìn)入深水區(qū),經(jīng)濟(jì)社會全面數(shù)字化、智能化的今天,深入研究新技術(shù)應(yīng)用及其影響,已經(jīng)成為擺在全人類面前的重大課題。在利用科技這一強(qiáng)大手段推動經(jīng)濟(jì)社會發(fā)展的時候,只有發(fā)揮好科技倫理對科技創(chuàng)新及其應(yīng)用的調(diào)節(jié)、引導(dǎo)和規(guī)范作用,才能促使科技活動朝著更加有利于人類和人類社會的方向發(fā)展,實(shí)現(xiàn)科技向善的目的。在這個意義上,科技創(chuàng)新是手段,科技倫理是保障,科技向善是目的,三者相互配合協(xié)調(diào),缺一不可。
科技倫理為科技創(chuàng)新及其應(yīng)用劃定底線和邊界,以確保向上向善的發(fā)展方向
以史為鑒,創(chuàng)新而無倫理(innovation without ethics),就有可能導(dǎo)致廣泛的負(fù)面影響甚至災(zāi)難性后果。如今,科技創(chuàng)新進(jìn)入深水區(qū),以新一代信息技術(shù)(大數(shù)據(jù)、人工智能、虛擬現(xiàn)實(shí)、IoT、5G等)和生物技術(shù)(基因編輯、神經(jīng)技術(shù)等)為代表的新技術(shù)加速發(fā)展并廣泛運(yùn)用,有望重塑人類和人類社會。在這個過程中,各種不確定性和不可控因素將大大增大。
對于未來可能出現(xiàn)的通用人工智能和超級人工智能,如果不加約束地發(fā)展應(yīng)用,就有可能威脅到人類整體的利益,已故的霍金和埃隆·馬斯克、比爾·蓋茨等都表達(dá)了類似的擔(dān)憂。這并非危言聳聽,國際社會已在積極推動AI倫理研究并爭取最大范圍的共識。因此,亟需為新技術(shù)應(yīng)用劃定倫理底線和邊界,以確保向上向善的發(fā)展方向。
而且近些年來,突破倫理底線的行為時有發(fā)生,如去年11月底發(fā)生的基因編輯嬰兒事件,涉事者嚴(yán)重違反有關(guān)法律法規(guī)和倫理準(zhǔn)則,實(shí)施國家明令禁止的以生殖為目的的人類胚胎基因編輯活動,在國內(nèi)外引發(fā)了強(qiáng)烈的譴責(zé)。這更是彰顯了科技倫理的重要性。
一方面,科技倫理可以使科學(xué)技術(shù)的應(yīng)用得到明確的道德理性的引導(dǎo),從而最大限度地減少出于邪惡目的利用科技成果的可能性;另一方面,作為道德理性的科技倫理又可以彌補(bǔ)單純的科技理性之不足,增強(qiáng)科技工作者對于科技開發(fā)之后果的道德責(zé)任感,從而以道德理性的自覺來最大限度地消解科技理性在社會負(fù)面作用上的不自覺。
顯然,新技術(shù)集群正在推動人類文明邁向新的階段,有人稱之為數(shù)字文明、智能文明、生命3.0等。然而正如基辛格所言,面對人工智能的興起,人們在哲學(xué)、倫理、法律、制度、理智等各方面都還沒做好準(zhǔn)備。
人工智能等技術(shù)變革正在沖擊既有的世界秩序,我們卻無法完全預(yù)料這些技術(shù)的影響,而且這些技術(shù)可能最終導(dǎo)致我們的世界所依賴的各種機(jī)器為數(shù)據(jù)和算法所驅(qū)動,且不受倫理或哲學(xué)規(guī)范約束。所以需要新的倫理規(guī)范來對科技創(chuàng)新及其應(yīng)用形成積極的引導(dǎo)、規(guī)范和約束,以保障智能社會不失序、不失范、不失常。
所以,面對新技術(shù)發(fā)展的不確定性,人們需要超越狹隘的技術(shù)向度和利益局限,加強(qiáng)對科技倫理的重視程度,通過預(yù)警性思考、廣泛的社會參與和多學(xué)科評估來充分討論可能存在的風(fēng)險和危害,制定出切實(shí)可行的指導(dǎo)方針和倫理準(zhǔn)則來引導(dǎo)、規(guī)范新技術(shù)研發(fā)應(yīng)用,以更好地應(yīng)對前沿領(lǐng)域技術(shù)應(yīng)用可能引發(fā)的社會治理危機(jī)。
歐盟、英國、德國已在積極制定人工智能、自動駕駛等領(lǐng)域的倫理準(zhǔn)則和指南,并推動相關(guān)國際標(biāo)準(zhǔn)、規(guī)則的制定。如今,我國的科技硬實(shí)力不斷得到提升,尤其是在互聯(lián)網(wǎng)領(lǐng)域呈現(xiàn)出活躍的創(chuàng)新發(fā)展氛圍,應(yīng)加強(qiáng)相應(yīng)的軟實(shí)力建設(shè),加快研究啟動前沿領(lǐng)域的科技倫理建設(shè),積極參與、主導(dǎo)新技術(shù)領(lǐng)域的全球治理,進(jìn)一步增強(qiáng)我國在國際規(guī)則設(shè)定方面的影響力和主導(dǎo)性。
在技術(shù)占劣勢的情況下,歐盟希望能夠向國際社會輸出歐盟的人工智能價值觀,引領(lǐng)人工智能的發(fā)展方向,當(dāng)然不是技術(shù)的發(fā)展方向,而是塑造人工智能在社會中的積極角色。
然而,占據(jù)技術(shù)高地的美國的人工智能政策卻是另一番景象,國家層面更多著力于技術(shù)發(fā)展和創(chuàng)新層面,較少談?wù)撍^的人工智能倫理問題,對立法和監(jiān)管也更為謹(jǐn)慎。
比如,在美國交通部的自動駕駛政策中,自動駕駛汽車倫理問題曾被輕描淡寫地作為一個安全標(biāo)準(zhǔn),但后來卻不再作為一項安全評估標(biāo)準(zhǔn),被放置在了一邊。反倒是行業(yè)和私營企業(yè)對此較為關(guān)注,反映了美國一貫的行業(yè)自律思路。
反觀歐盟,其已經(jīng)開始急沖沖地制定人工智能法律和倫理規(guī)則,希望用正確的價值觀約束人工智能技術(shù)研發(fā)和應(yīng)用。而美國僅有的幾個人工智能法律提案更多涉及如何促進(jìn)技術(shù)創(chuàng)新和應(yīng)用,如何通過設(shè)立人工智能技術(shù)咨詢委員會為政府和社會提供政策和戰(zhàn)略咨詢建議,等等,即使對自動駕駛汽車的監(jiān)管,也更多采取了事后監(jiān)管和行業(yè)自律的方式。
美國更多采取多利益相關(guān)方(multi-stakeholder)共同合作交流的機(jī)制,通過行業(yè)自律性質(zhì)的指南、最佳實(shí)踐等回應(yīng)新技術(shù)帶來的挑戰(zhàn)。人工智能需要價值觀,也需要創(chuàng)新觀,恰如其分地平衡好兩者是人工智能政策制定的關(guān)鍵。
科技倫理在互聯(lián)網(wǎng)新技術(shù)治理中將發(fā)揮越來越重要的自律作用
2018年絕對稱得上是互聯(lián)網(wǎng)發(fā)展過程中的分水嶺,一些影響重大的事件讓人民開始反思互聯(lián)網(wǎng)的發(fā)展方向和潛在變革。如Facebook-劍橋分析數(shù)據(jù)丑聞成為當(dāng)之無愧的年度事件,直指數(shù)據(jù)的泄露、濫用、不正當(dāng)二次利用等突出問題。此外,算法歧視、假新聞、信息繭房、人工智能濫用等問題也得到持續(xù)的關(guān)注。對此,存在加強(qiáng)監(jiān)管、制定立法的呼聲。
但正如北京大學(xué)法學(xué)院教授、副院長薛軍在《數(shù)字經(jīng)濟(jì)立法與執(zhí)法應(yīng)當(dāng)審慎、包容》一文中所言,由于技術(shù)以及商業(yè)模式快速發(fā)展和迭代,草率的立法,不可能期待會產(chǎn)生正面的效果;除了法律之外,也完全可以通過國家標(biāo)準(zhǔn)、行業(yè)公約、最佳實(shí)踐、技術(shù)指南等“軟法”性質(zhì)的規(guī)范來調(diào)整數(shù)字經(jīng)濟(jì)領(lǐng)域的事項。
國內(nèi)外的互聯(lián)網(wǎng)科技公司也在積極思考如何通過技術(shù)手段來解決技術(shù)應(yīng)用帶來的問題,加強(qiáng)平臺整理。比如YouTube利用內(nèi)容識別措施來主動打擊其分享平臺上的盜版內(nèi)容,F(xiàn)acebook利用人工智能識別假新聞、暴恐、色情等非法活動和內(nèi)容,都取得了顯著的效果。
因此,作為對技術(shù)應(yīng)用的“軟法”規(guī)制,可以通過科技倫理來對科技行業(yè)的狹隘的技術(shù)向度和利益局限進(jìn)行糾偏和矯正。而且考慮到當(dāng)前技術(shù)發(fā)展的特征,科技倫理在預(yù)防和緩解新技術(shù)、新業(yè)務(wù)帶來的風(fēng)險挑戰(zhàn)方面將發(fā)揮越來越重要的作用。因?yàn)榉梢?guī)范本身具有滯后性,難以跟上技術(shù)發(fā)展的步伐,造成許多規(guī)范真空地帶,而科技倫理可以更好地發(fā)揮事前引導(dǎo)作用,將技術(shù)發(fā)展引向向上向善的健康發(fā)展軌道。
另一方面,科技倫理水平直接衡量著科技發(fā)展的成熟度,完善的科技倫理制度意味著能夠更好地防范、緩解科技發(fā)展應(yīng)用帶來的負(fù)面影響,從而營造積極健康的發(fā)展氛圍。所以美國等西方國家的科技行業(yè)都具有較為完善的科技倫理相關(guān)的自律管理機(jī)制,主流科技企業(yè)內(nèi)部建立倫理審查機(jī)制,行業(yè)組織積極制定行業(yè)標(biāo)準(zhǔn),通過多種倫理自律措施防范技術(shù)濫用和其他風(fēng)險挑戰(zhàn)。
尤其是近幾年來,谷歌、微軟、Facebook、DeepMind等科技公司多舉措加強(qiáng)人工智能倫理的自律建設(shè),包括發(fā)起成立行業(yè)組織(比如Partnership on AI),成立倫理部門(比如倫理委員會),提出人工智能倫理和技術(shù)相關(guān)的原則、準(zhǔn)則、指南、最佳實(shí)踐等,加強(qiáng)人工智能倫理與社會研究,等等。
就我國而言,當(dāng)前需要加強(qiáng)科技倫理的制度化建設(shè),發(fā)揮科技倫理的行業(yè)自律作用,通過倫理審查、自律組織、行業(yè)標(biāo)準(zhǔn)、最佳實(shí)踐、技術(shù)指南等方式來支持、促進(jìn)行業(yè)自律,以確??萍及l(fā)展應(yīng)用的正確方向。而立法與執(zhí)法應(yīng)當(dāng)堅持審慎、包容的指導(dǎo)思想,
前沿技術(shù)領(lǐng)域的社會治理離不開跨學(xué)科研究
44年前的阿西洛馬重組DNA會議彰顯了科學(xué)共同體在應(yīng)對新技術(shù)發(fā)展的不確定性決策中的重要作用?,F(xiàn)代科學(xué)技術(shù)與經(jīng)濟(jì)社會以異乎尋常的速度整合和相互建構(gòu),但其高度的專業(yè)化、知識化和技術(shù)化使圈外人很難對其中的風(fēng)險和不確定性有準(zhǔn)確的認(rèn)知和判斷,沒有來自科學(xué)共同體內(nèi)部的風(fēng)險預(yù)警和自我反思,任何一種社會治理模式都很難奏效。而這需要科研人員具有良好的科技倫理意識。但當(dāng)前我國各級各類教育中普遍欠缺科技倫理教育,這在某種程度上導(dǎo)致我國個別不良科研人員和企業(yè)倫理意識淡薄,在技術(shù)研發(fā)與應(yīng)用的各個環(huán)節(jié)沒有很好地把握倫理邊界,才會導(dǎo)致發(fā)生基因編輯嬰兒、數(shù)據(jù)和算法濫用、惡意競爭等倫理事件。
因此需要通過完善的科技倫理教育機(jī)制來使科研人員進(jìn)行科技倫理的熏陶、探索與反思,從“他律”走向“自律”,秉持向上向善之心,追求至善,不僅僅局限于把技術(shù)和產(chǎn)品搞出來,而是更多地思考他們開發(fā)的技術(shù)和產(chǎn)品的廣泛社會影響,肩負(fù)起科技進(jìn)步和社會發(fā)展的責(zé)任,確保未來方向。
在另一個層面,只有通過科技倫理教育宣傳增進(jìn)科研人員和社會公眾在倫理上的自覺,使其不僅僅考慮狹隘的經(jīng)濟(jì)利益,而且對技術(shù)發(fā)展應(yīng)用的潛在影響及其防范進(jìn)行反思和進(jìn)行預(yù)警性思考(precautionary thinking),才有可能通過廣泛社會參與和跨學(xué)科研究的方式來實(shí)現(xiàn)對前沿技術(shù)的良好治理。
科技倫理推動互聯(lián)網(wǎng)發(fā)展從獲取用戶注意力向促進(jìn)用戶數(shù)字福祉轉(zhuǎn)變
如今,中國以8億網(wǎng)民成為全球最大互聯(lián)網(wǎng)市場,互聯(lián)網(wǎng)對個人生活影響越來越大,但卻可能給個人帶來諸如網(wǎng)絡(luò)過度使用、信息繭房等負(fù)面影響。
相關(guān)研究已經(jīng)開始思考數(shù)字技術(shù)可能會對我們的健康、思維、自主性等產(chǎn)生什么樣的負(fù)面影響,尤其是數(shù)字技術(shù)對未成年人的潛在影響。此外,隨著個性化推薦算法在互聯(lián)網(wǎng)領(lǐng)域的廣泛應(yīng)用,人們也開始擔(dān)心推薦算法可能給用戶帶來網(wǎng)絡(luò)過度使用、信息繭房、算法偏見等負(fù)面影響。
比如,限制用戶對信息的自由選擇,將用戶置于算法建立起來的泡沫之中,只接觸到自己喜歡或認(rèn)同的內(nèi)容,從而可能給用戶造成信息繭房、自我封閉和偏見,進(jìn)而影響用戶的思維模式并可能扭曲用戶的認(rèn)知,并不利于用戶的長遠(yuǎn)發(fā)展。
互聯(lián)網(wǎng)創(chuàng)新的發(fā)展模式需要從獲取用戶注意力向促進(jìn)用戶數(shù)字福祉轉(zhuǎn)變。
數(shù)字福祉(digital wellbeing)有兩大內(nèi)涵,一方面是人人都可享受到數(shù)字技術(shù)帶來的便利和紅利,最大化地實(shí)現(xiàn)普惠和賦能;另一方面是促進(jìn)個人對數(shù)字技術(shù)和網(wǎng)絡(luò)服務(wù)的高質(zhì)量使用,減小、防止數(shù)字技術(shù)對個人的負(fù)面影響。我們看到,互聯(lián)網(wǎng)科技公司已在積極踐行數(shù)字福祉理念。
比如,Android P版推出的Dashboard功能,通過統(tǒng)計用戶的屏幕時間,幫助用戶控制手機(jī)和網(wǎng)絡(luò)使用,防止過度沉迷,實(shí)現(xiàn)數(shù)字福祉(digital wellbeing)。iOS12推出了“屏幕使用時間”功能,同樣意在幫助用戶將手機(jī)和網(wǎng)絡(luò)使用控制在合理的限度,防止過度使用。Facebook則發(fā)布了“數(shù)字福祉”工具,允許用戶監(jiān)測自己花在社交網(wǎng)絡(luò)上的時間并設(shè)定時長限制,同時更容易地關(guān)閉推送通知。
總之,科技倫理要求科技公司不僅關(guān)注互聯(lián)網(wǎng)創(chuàng)新,更要關(guān)注如何在創(chuàng)新過程中通過創(chuàng)新來促進(jìn)用戶的數(shù)字福祉,并依循“經(jīng)由設(shè)計的數(shù)字福祉”(digital wellbeing by design)理念,將對用戶數(shù)字福祉的保障和促進(jìn)融入到產(chǎn)品和服務(wù)的設(shè)計中去。
科技倫理最終是要實(shí)現(xiàn)數(shù)字信任(digital trust),踐行科技向善
信任是一切社會的基礎(chǔ),數(shù)字信任是數(shù)字社會的基礎(chǔ),需要依靠社會習(xí)俗、倫理道德、法律規(guī)范等一起來協(xié)同構(gòu)建,以保障數(shù)字經(jīng)濟(jì)社會的健康發(fā)展。數(shù)字信任體現(xiàn)在四個維度:一是安全的維度,產(chǎn)品服務(wù)安全可靠,包括網(wǎng)絡(luò)安全、個人隱私安全等;二是透明的維度,保障用戶的參與和知情;三是責(zé)任的維度,確保相關(guān)主體負(fù)責(zé)任地提供產(chǎn)品服務(wù),并為其行為承擔(dān)責(zé)任;四是倫理的維度,秉持正確的價值觀,不作惡。在數(shù)字文明下,科技倫理旨在維護(hù)、促進(jìn)數(shù)字信任,呼吁踐行科技向善,讓大數(shù)據(jù)、人工智能等數(shù)字技術(shù)最大程度地造福于人類和人類社會。
在人工智能研發(fā)應(yīng)用方面,騰訊提出并倡導(dǎo)人工智能“四可”理念,即可用、可靠、可知、可控(英文簡寫為ARCC,寓意“方舟”)。正如傳說中拯救人類文明的諾亞方舟一樣,人工智能領(lǐng)域的ARCC也將在未來的人工智能時代尤其是可能到來的AGI和ASI時代,確保人類與機(jī)器之間友好、和諧的關(guān)系,最大化地促進(jìn)人類的發(fā)展,并避免潛在負(fù)面影響。
最后,作為總結(jié),需要再次重申,科技創(chuàng)新是手段,科技倫理是保障,科技向善是目的,三者配合才能確保向善向上的發(fā)展方向,最大化促進(jìn)人類福祉。在數(shù)字技術(shù)廣泛滲透和創(chuàng)新技術(shù)加速涌現(xiàn)的今天,我們需要更多的倫理關(guān)切和預(yù)警性思考,來實(shí)現(xiàn)技術(shù)、人、社會之間的良性互動和可持續(xù)發(fā)展。