孫世龍
摘 要: 人工智能是人類社會發(fā)展到一定階段的產(chǎn)物,于人類發(fā)展而言,其產(chǎn)生、應用及發(fā)展意義重大。隨著大數(shù)據(jù)、5G通信、物聯(lián)網(wǎng)等基礎科技的發(fā)展,人工智能已經(jīng)在深刻地改變著人們的生產(chǎn)生活。然而,人工智能在給人們帶來福利的同時也增加了風險,我們應該持續(xù)關注人工智能發(fā)展給社會帶來的變化,并做好應對變化的準備。法律風險的防控更是重中之重。本文就人工智能技術的風險問題及應對措施展開探討。
關鍵詞: 人工智能技術;風險;應對措施
【中圖分類號】 TU745.1? ? ? 【文獻標識碼】A? ? ?【文章編號】1674-3733(2020)14-0251-01
引言
雖然人工智能的產(chǎn)生對人類社會發(fā)展具有巨大的促進作用,但我們?nèi)砸砸环N謹慎的態(tài)度來看待人工智能的地位和作用,要正確認識其存在的風險問題,有效降低風險、控制風險、應對風險,這樣才能充分發(fā)揮人工智能技術的優(yōu)勢和作用。
1 人工智能概念
從人工智能的概念來看,這種技術以了解智能本質,生產(chǎn)能夠與人類智能相似的職能及其為重要目標。人工智能也可以分為“人工”與“智能”兩個部分,其中,“人工”指的是人工智能是人類研發(fā)和制造的產(chǎn)物,也是科學工程的產(chǎn)物,當然,由于基因工程所具有的科學基礎和人工智能存在明顯差異,因此,人工智能中的“人工”與生物工程中的“人工”并不相同;“智能”則指的是人類的或者與人類相似的認知能力、記憶能力、思考能力乃至想象能力等,也表現(xiàn)為環(huán)境適應能力、學習能力以及反應能力等。綜上,人工智能是一種以計算機技術形態(tài)為存在形式、能夠對人類思維進行模擬的技術。
2 人工智能技術的風險問題
2.1 管理風險
人工智能的深度發(fā)展,極大地改變了傳統(tǒng)生產(chǎn)方式和生活方式,社會秩序也出現(xiàn)了變化,程序和算法成為新的規(guī)制方法,網(wǎng)絡世界的權力正在向外界擴張,從而引發(fā)了政府管理的風險。程序員在設計智能系統(tǒng)都是不公開的,用戶無法知曉其中的規(guī)則,有不同意見也無法向相關部門反映提出,卻不得不接受不盡如意的結果?;诖?,一旦設計者在程序中隱藏了不公平的算法,侵害社會大眾的利益,將會加大政府管理的成本,加劇管理的難度。例如,攜程網(wǎng)基于用戶的消費水平不同,給不同消費者的同樣產(chǎn)品推薦卻存在價格差;滴滴打車根據(jù)不同用戶的消費數(shù)據(jù)也規(guī)劃了不同的路線,或者提高了收費標準,這無疑侵害了消費者利益。而法律法規(guī)缺少對大數(shù)據(jù)殺熟的管理規(guī)定,使政府監(jiān)管部門面臨監(jiān)管失控的風險。
2.2 人工智能倫理評估標準模糊
目前,人工智能倫理評估標準還很模糊,若沒有倫理規(guī)范的約束,后期將產(chǎn)生更多的風險。當前,人工智能道德倫理標準的嵌入主要有兩種不同的進路,即自上而下和自下而上。“自上而下”是指對已經(jīng)確定了的倫理原則進行復雜編碼,隨后在人工智能系統(tǒng)內(nèi)植入編碼的過程。而“自下而上”是指無須將任何道德規(guī)則或哲學嵌入智能機器,僅需要通過觀察及分析實際情景中大量的人類行為數(shù)據(jù),便可做出道德決策。但從現(xiàn)實來講,目前,每種道德規(guī)則在人工智能中的嵌入均存在不足,這種不足主要源于人類自身道德哲學內(nèi)在的矛盾與沖突,而這種不足,必將進一步加劇人工智能倫理評估的模糊性,從而引發(fā)更大的風險。
2.3 人工智能應用帶來的安全風險
人工智能作為新技術,在應用過程中會給不同的領域造成影響和沖擊,產(chǎn)生安全風險,包括政治安全、軍事安全、經(jīng)濟與就業(yè)安全、隱私與數(shù)據(jù)安全、倫理與道德安全等方面的風險。這一方面是在其特點決定其在使用過程中對不同的應用領域產(chǎn)生的改變,一方面是其技術擴散和濫用的風險。
3 應對人工智能技術風險的措施
3.1 增強技術源頭的風險防控
第一,從開發(fā)設計源頭加大控制力度,如元程序設計。設計是按照一定價值取向從不完美實現(xiàn)完美的一個過程。在人工智能程序設計過程中,首先要解決的問題是如何選定價值標準,要求在實現(xiàn)技術完美的同時,做到不以破壞和犧牲人類既有權益為代價,就如同我國的可持續(xù)發(fā)展戰(zhàn)略,要嚴格遵循人類的道德法律,不得凌駕于法律之上。第二,做好傳統(tǒng)計算機監(jiān)管程序的升級,即通過人工智能進行人工智能監(jiān)管。人工智能是一個極為復雜的巨系統(tǒng),具備自身學習能力。在傳統(tǒng)計算機管理系統(tǒng)內(nèi),即便是最優(yōu)秀的管理程序,也不能對其進行完全掌控?;诖耍谌斯ぶ悄茱L險防控中,可通過升級傳統(tǒng)計算機管理程序,讓其變得更加智能化,從而實現(xiàn)監(jiān)管人工智能。例如:IBM公司對人工智能技術風險防控的嘗試。
3.2 建立多元調(diào)控的風險防范框架
第一是完善法律制度。人工智能會給我們帶來巨大的好處,也有可能帶來巨大破壞,如果我們可以接受這些技術所帶來的福利,并且做好應對風險的準備,這需要政府和社會仔細地考慮并建立完善的法律體系框架。目前,西方各個國家已經(jīng)開始從政策鼓勵逐漸轉變成制度應對,如美國《人工智能管控法案》、德國《個人信息保護法》、英國《大數(shù)據(jù)保護法案》。我國也頒布了《新一代人工智能發(fā)展規(guī)劃》,但是該文件的法律效力不夠,利用法律法規(guī)對未來風險進行管控是重中之重。第二是倫理制約??茖W技術的發(fā)展要遵守人類倫理,也要遵守科技發(fā)展的倫理,二者如果存在交集,那就是人工智能發(fā)展不能危害人類安全。
3.3 增加技術全過程倫理嵌入
本文提出增強技術全過程的倫理道德嵌入,即將倫理道德嵌入技術設計、發(fā)展和應用的各個環(huán)節(jié)。從可操作性來講,人工智能全過程倫理道德嵌入是可以實現(xiàn)的,即便是在弱人工智能階段也是具有可行性的。從本質上看,人工智能屬于一種求解能力的計算機算法,可按照特定的倫理依據(jù),以一種約束求解能力的計算法則將人類道德完全嵌入,并將其作為人工智能的行為準則,這樣人工智能機器所作出的價值判斷便能與人類道德相符。此外,作為一種計算法則的道德指令輸入,在具體問題分析與判斷中,人工智能機器往往更具客觀性和理性,能夠主動過濾掉人類主觀思想上存在的干擾因素,進而提高人工智能的安全性。
結語
總之,人工智能將成為繼工業(yè)革命之后人類社會的再一次巨大科技革命,技術的發(fā)展為法學研究帶來了新問題,有機遇更有風險,需要我們能夠更加理性地面對這些機遇和挑戰(zhàn)。在重新定義人類與機器的亦敵亦友的關系中用好法律工具,使智慧社會法治化,為人工智能發(fā)展提供更好的法治秩序。
參考文獻
[1] 李子青.計算機人工智能技術的應用與未來發(fā)展分析[J].科技經(jīng)濟市場,2019(10):9-11.
[2] 王嫄.論人工智能技術應用研究現(xiàn)狀和發(fā)展前景[J].科技與創(chuàng)新,2019(20):18-21.
[3] 胡永祥.人工智能技術發(fā)展現(xiàn)狀及未來[J].中外企業(yè)家,2018(28):147-148.