国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能產業(yè)發(fā)展的法治路徑

2024-05-09 10:42:19趙大陸高伯陽
文化學刊 2024年2期
關鍵詞:數據安全法治人工智能

趙大陸 高伯陽

一、問題的提出

近年來,我國高度重視人工智能產業(yè),國家大力出臺方針政策,激勵人工智能的創(chuàng)造性發(fā)展,以推動中國經濟的持續(xù)增長和社會進步,《關于支持建設新一代人工智能示范應用場景的通知》《關于加快場景創(chuàng)新以人工智能高水平應用促進經濟高質量發(fā)展的指導意見》《新型數據中心發(fā)展三年行動計劃(2021—2023年)》等產業(yè)政策的實施,確保我國人工智能產業(yè)的長期發(fā)展。人工智能成為國家戰(zhàn)略核心,是全球競爭和經濟創(chuàng)新的關鍵。數字經濟和社會數字化水平提高,人工智能深度融合各產業(yè),推動傳統(tǒng)產業(yè)轉型。自動駕駛技術、智能機器人和人臉識別技術的應用為人們帶來高效便利的同時也伴隨著風險。首先,隱私保護問題凸顯。隨著數據成為財富源泉,個人隱私內容可能被他人獲取,引發(fā)“所有數據由我們產生,但所有權不歸屬于我們”的擔憂[1]。每天生活在人工智能時代,個人興趣、消費喜好、健康情況等都可能被他人知曉,“計算機科學正在將你的生活轉化為他人的商機”[2]。其次,數據安全問題亟待解決。人工智能的飛速發(fā)展涉及數據濫用、非法交易和泄露個人信息等事件。一些人工智能應用可能過度使用用戶數據,侵犯用戶隱私和權益。非法交易或泄露用戶數據會導致經濟損失等嚴重后果。再次,倫理風險成為重要問題。智能機器人缺乏道德觀和倫理觀,需要深入思考伴侶機器人的陪伴職能如何規(guī)范、處理技術約束導致的算法偏見和算法歧視等問題。商業(yè)利益與算法“善惡”之間的平衡也值得關注。最后,責任風險需要明確解決。隨著自動駕駛汽車、醫(yī)療機器人等應用的出現,人工智能導致事故的責任界定成為問題。機器人的身份地位、行為責任等問題亟需建立法律框架明確規(guī)范。解決這些風險,確保智能服務為人類創(chuàng)造美好生活,是人工智能產業(yè)未來不斷追求的目標和發(fā)展路徑。

二、人工智能產業(yè)的特點及法治的必要性

(一)人工智能產業(yè)的特點

1.活力新穎性

人工智能是數字經濟的關鍵支撐技術,呈現廣泛應用、經濟帶動力強的特點。大多數人工智能企業(yè)處于創(chuàng)新初期,以中小規(guī)模居多,展現了產業(yè)的活力和潛力。數字經濟建設推動人工智能產業(yè)迅猛發(fā)展,不斷涌現的新應用推動了各行業(yè)的創(chuàng)新升級,成為產業(yè)升級的主要動力。

2.交叉融合性

人工智能技術具有賦能百業(yè)的特性,可與各行業(yè)深度融合,是提升生活質量和經濟效率的關鍵工具。該產業(yè)的交叉融合性在多學科交叉上體現明顯,包括計算機科學、數學、生物學等。同時,人工智能技術能助力醫(yī)療、金融、制造等各行業(yè)提升效率,推動產業(yè)升級。人工智能與不同行業(yè)的結合,如“人工智能+金融”“人工智能+醫(yī)療”,進一步促進了創(chuàng)新。

3.應用廣泛性

人工智能產業(yè)應用廣泛,能解決各行業(yè)和領域問題。在醫(yī)療領域,可輔助醫(yī)生進行疾病診斷和治療計劃,提升醫(yī)療水平。在金融領域,通過數據分析提供準確的信用評估和風險預測,降低金融風險。自然語言處理技術賦予機器理解和處理人類語言的能力,支持自動駕駛、安防監(jiān)控等領域。機器視覺技術助力圖像和視頻處理,推動智慧城市和智能制造等領域發(fā)展。智能制造通過實現工業(yè)互聯(lián)網,優(yōu)化工藝流程,提高效率,推動經濟發(fā)展和產業(yè)升級。

4.數據驅動性

人工智能發(fā)展依賴大量結構化和非結構化數據,作為算法和模型訓練的基礎。數據規(guī)模、質量和多樣性對系統(tǒng)性能至關重要,迭代和驗證提高準確性。人工智能推動新的數據處理方式,促進數據科學和機器學習發(fā)展。數據驅動實現智能、自動化和高效化決策,為各行業(yè)提供支持。數據是人工智能發(fā)展的關鍵資源,不斷推動產業(yè)創(chuàng)新。

(二)人工智能產業(yè)發(fā)展法治的必要性

人工智能產業(yè)迅速崛起,帶來創(chuàng)新和便利,但也引發(fā)個人隱私、數據安全、倫理道德和責任追究等法律和倫理問題。因此,實施法治規(guī)制迫切必要,以確保人工智能產業(yè)健康發(fā)展和保護公民權益。

首先,有助于平衡科技創(chuàng)新與隱私保護之間的關系。人工智能技術的不斷進步帶來了對個人隱私信息更加深入的挖掘和利用,需要法律明確規(guī)定個人數據的收集、處理和使用原則,以避免濫用和侵犯。其次,能夠建立公平競爭和市場秩序。規(guī)范人工智能產業(yè)的行為,防止不正當競爭和數據濫用有助于促進市場的公平競爭,推動技術創(chuàng)新的同時保障企業(yè)和消費者的權益。第三,有助于應對潛在的風險和安全問題。對于人工智能在決策、安全和生活各個領域的廣泛應用,建立明確的法規(guī)框架有助于防范可能的安全漏洞和風險,確保人工智能技術的可持續(xù)和安全發(fā)展。最后,能夠提升社會對人工智能的信任度。通過建立透明、可執(zhí)行的法規(guī),公眾能夠更加信任人工智能技術的發(fā)展和應用,增強社會對新技術的接受度。因此,為了維護公共利益、促進科技創(chuàng)新與社會穩(wěn)定的良性互動,建立健全的法治體系對于引導和規(guī)范人工智能產業(yè)發(fā)展至關重要。

三、人工智能產業(yè)發(fā)展面臨的法治問題

人工智能是當前最熱門的技術之一,正快速改變我們的生活和社會。然而,隨著其技術廣泛應用和高度發(fā)展,涉及的法治問題也日益凸顯,包括隱私保護、數據安全、倫理道德、責任追究等方面。

(一)隱私保護的法治問題

隱私權不僅是基本私權,更是人權的重要組成部分。隨著時間推移,對隱私權的保護逐漸從住宅擴展到公共場所,關注焦點也從場所向個人轉變[3]。隨著互聯(lián)網、大數據、云計算和人工智能等技術不斷進步,各領域正在加速數字化,人們的日常生活也實現了數字化呈現[4]。人工智能廣泛應用引發(fā)了個人隱私信息收集問題。盡管帶來便利,但我們的個人資料在數字信息鏈中被大數據企業(yè)掌握。智能設備過度采集個人隱私,如智能穿戴、智能門鎖等,未經同意即用于產品智能化。用戶授權不一致問題的存在,從互聯(lián)網和企業(yè)采購等渠道獲取訓練數據難以確保合法性。人工智能利用生物特征信息,如人臉、基因、指紋,一旦泄露將威脅個人安全和利益。合規(guī)采集和使用個人敏感信息,尤其是生物特征信息,需高度重視信息安全問題。在追求安全、長壽和可預測性時,代價是喪失隱私和個人生活[5]。在人工智能產業(yè)快速發(fā)展時,即使人們認識到保護個人隱私的重要性,但由于缺乏足夠能力和方法去保護隱私而感到無奈。隨著人工智能應用普及,每天使用的技術廣泛收集隱私信息,侵權問題不容忽視。因此,在我國大力發(fā)展人工智能產業(yè)的同時,有必要實施相應的控制措施來保護人類的基本人權。

(二)數據安全的法治問題

如今,我們每天接觸大量信息和數據,個人言行成為獨特的社會資源。在大數據時代,數據安全問題凸顯,涉及原始數據的復雜生產、加工和使用過程。然而,作為數據的產生者和使用者,我們無法掌握使用的信息技術基礎設施,導致數據由我們產生,但所有權不屬于我們。人工智能濫用引發(fā)了數據安全問題,包括過度采集、歧視、濫用和壟斷。數據濫用風險涉及社會消費領域的差異化定價和信息傳播領域的“信息繭房”效應,侵害用戶權益,可能導致社會認知鴻溝和影響個人意志選擇。此外,人工智能收集和分析操作記錄可以得出個人數據信息,隨著所有權或使用權的流轉而不斷流轉[6],個人在網絡中處于無防護狀態(tài),智能系統(tǒng)利用這些信息進行產品推送,可能將用戶置于被操控的境地。個人數據不斷被收集、分析、流轉,存在被不法分子利用的風險,侵犯個人隱私、人身權和財產權。人工智能深度學習通過模擬人腦神經元建立神經網絡[7],但機器學習的“算法黑箱”和不可解釋性可能導致系統(tǒng)帶來更大傷害,決策偏差難以消除。人工智能在選擇和分析數據時具有特定價值傾向,可能是程序員或輸入數據偏差導致的,導致帶有歧視性的決策結果[8]。數據安全是人工智能技術安全的關鍵因素,因為人工智能的核心在于數據安全,“數據為體,智能為用”——數據為提供學習樣本,人工智能的工作原理是基于大數據集和統(tǒng)計數據驅動的模式匹配過程[9],因此,數據安全問題亟待解決。

(三)倫理道德的法治問題

在人工智能中,融入人類知識、建模和算法,逐漸發(fā)展成為強人工智能,具備自主學習、模擬人類智慧、行為和感情的能力。人工智能能夠執(zhí)行人類的任務,形成了人機共存的工作與生活場景。盡管人工智能為人類帶來了便利和高效,但也不斷沖擊著我們現有的法律、倫理與秩序[10]。隨著人工智能技術不斷進步,其自主性和復雜性日益提高,可能引發(fā)一些倫理道德問題。人工智能的迅速發(fā)展塑造了人機共處的新時代,機器人的復雜性常常與千百年來人類創(chuàng)造的傳統(tǒng)世界產生沖突。隨著機器人的復雜化,它們既非人類的奴隸,也非主人,而是伙伴。隨著智能機器人是否應被視為“人”問題的日益突顯,人工智能系統(tǒng)在自動駕駛汽車危急時刻的決策中面臨著一系列倫理困擾:是優(yōu)先保護婦女兒童還是老人、車內乘客還是路人、少數人還是多數人呢?人與陪伴機器人之間是否存在倫理關系?將人類倫理道德轉化為智能系統(tǒng)的決策程序和算法牽涉到傳統(tǒng)理論難以解決的權利義務關系。在當前人工智能迅速發(fā)展的時代,亟需進行人工智能倫理道德和理論制度的創(chuàng)新。

(四)責任追究的法治問題

人工智能飛速發(fā)展,導致多數勞動力被替代。如自動駕駛和醫(yī)療機器人中,人類與機器需要協(xié)同工作,相互配合,共同完成任務。人工智能機器執(zhí)行的任務所發(fā)生的結果可能會影響著我們的利益[11]。因此,智能機器人應被授予什么樣的身份呢?或者機器人的行為應由哪些人來負責呢[12]?人工智能處理的任務日益增多,人們傾向于將失敗歸咎于機器的現象逐漸普遍?,F代社會通常追求通過技術手段減小個體或集體的責任,而非強調如何提高技術效率或加強個體或集體的責任感。在追究設計者和使用者責任時需謹慎,不可過度。盡管設計師與人工智能密切相關,但兩者職責并非完全相同。僅將人類設計師視為道德主體可能忽略科技和計算機系統(tǒng)對人類行為的影響。在智能機器人醫(yī)療事故、自動駕駛汽車交通事故、無人機誤判導致平民傷亡等問題上,原則上責任可歸于設計者。然而,程序可能由多人共同研發(fā),難以追責到具體個人或組織,與產品零部件的明確歸屬不同[13]。由此,就會產生責任困境和風險。

四、人工智能產業(yè)發(fā)展的法治建議

(一)隱私保護的法治建議

完善法律法規(guī)是保護隱私權的首要任務。應確立隱私權法律地位,并將其納入民事法律體系,并頒布相關法規(guī)。同時,強調對互聯(lián)網平臺的監(jiān)管,限制其對公眾用戶數據的過度收集、存儲、使用和共享,以杜絕信息濫用和泄露的可能性。為了強化監(jiān)管力度,需要建立健全監(jiān)管機制,特別關注隱私保護監(jiān)管。政府部門應對企業(yè)和互聯(lián)網平臺進行監(jiān)管,并設立專門機構負責隱私保護監(jiān)管,同時提高對違法行為的處罰力度。用戶的授權同意是個人信息采集和使用的基本原則。要求用戶經過清晰的同意和授權,未經授權的信息不得用于商業(yè)目的。建立透明的信息公開和說明機制,以提高用戶對信息使用和保護的了解。為了及時發(fā)現和應對隱私泄露事件,應建立隱私泄露報告制度。企業(yè)和互聯(lián)網平臺需在發(fā)現隱私泄露事件后迅速報告、展開調查和處理。同時,應強化對泄露事件的責任追究和處罰力度,以提高企業(yè)和個人的隱私保護意識。在技術層面,推動隱私保護技術的研發(fā)和應用是至關重要的。采用新技術手段,如加密、匿名化等來確保用戶數據的安全性。與此同時,應加強對新技術應用的監(jiān)管,確保其符合法律法規(guī)和標準的要求。

(二)數據安全的法治建議

首先,加快數據安全法律立法?,F行法規(guī)未能全面覆蓋解決人工智能數據安全問題,特別是在數據市場交易平穩(wěn)性和匿名化處理方面的法律存在空缺。為確保數據安全,迫切需要構建完善的數據安全法律體系。其次,進行數據確權。重視數據私法確權,解決數據權屬問題至關重要。我國已在數據安全、網絡安全和個人信息保護領域出臺相關法律法規(guī),但數據權屬尚不明確,應分類確立個人、企業(yè)和公共數據權。在確權過程中,以保護人格權、價值貢獻和平衡個人權利與產業(yè)利益為原則,構建新型數據財產權。該權利基于多種子權利,如數據來源者權、數據持有者權、數據生產者權,對數據進行場景化分類,形成數據權利基礎框架。最后,建立數據安全“監(jiān)管沙箱”。過緊的監(jiān)管可能阻礙人工智能產業(yè)發(fā)展,產生“寒蟬效應”;過松的監(jiān)管則導致數據安全風險泛濫,侵害公共利益。監(jiān)管沙箱為新型人工智能產品和技術提供法外的測試環(huán)境,促進技術試錯和完善。將數據安全風險控制在沙箱內,檢測解決人工智能產品的數據安全問題,并在測試中提供保護性措施,鼓勵社會利益保護和產業(yè)創(chuàng)新。

(三)倫理道德的法治建議

首先,制定相關倫理道德的制度。政府及相關機構應制定隱私和數據安全法律,明確人工智能系統(tǒng)的責任與義務,包括遵循倫理和道德準則,并規(guī)定對違反者的相應法律與懲罰措施。其次,建立人工智能透明度和負責任的評估體系。在實施人工智能技術之前,公司和組織需要對其可能帶來的倫理和道德問題進行透明度和負責任的評估。這種評估應該包括預測和解決可能出現的問題,以及對人工智能系統(tǒng)的性能和安全性的全面考量。最后,加強社會監(jiān)督和完善倫理審查機制。社會監(jiān)督是指社會公眾對人工智能技術的監(jiān)督和管理。公眾應該能夠了解人工智能系統(tǒng)的運作原理、數據來源和使用目的等信息,并能夠對其提出質疑和意見。同時,還需要完善倫理審查機制,對人工智能技術的開發(fā)和應用進行嚴格的倫理審查,確保其符合社會公德和人類價值觀。

(四)責任追究的法治建議

人工智能責任方面要完善相關的人工智能侵權的法律法規(guī)制度。一是制定侵權主體認定的相關制度,可以將人工智能分為兩類,一類是工具型人工智能,即弱人工智能,比如現在的掃地機器人、智能手表等;另一類是認知人工智能,即強人工智能,其不再是一個簡單的機器,而是具有“自主認知性”。而人工智能侵權又可以分為一般侵權和特殊侵權。一般侵權包括質量問題導致的侵權和操作不當導致的侵權。特殊侵權是強人工智能在自主學習的過程中自己引發(fā)的侵權,屬于設計者不能預測的侵權。在一般侵權的情形都為工具型人工智能,其本質上屬于一種高科技產品[14],所以,可以將此種類型的責任追究直接歸入侵權責任法中的產品責任的類別。對于操作不當實際上是有自然人介入,其實侵權人也就是使用者。而特殊侵權就復雜得多,究其根本是要不要承認人工智能具有主體地位。筆者認為在當下日新月異的時代,若人工智能已經有自己獨立的思維能力,承認人工智能的主體地位是有必要的,這有助于更好地規(guī)范和指導人工智能的發(fā)展和應用,但此類主體地位可以區(qū)別于自然人,以“法律人格擬制”的方法使人工智能享有主體資格,以此來應對我們時代的變革。

五、結語

人工智能產業(yè)的法治路徑需完善隱私保護、數據安全、倫理道德、責任追究等方面。在技術迅速發(fā)展的背景下,有效的法治規(guī)范可促進人工智能發(fā)展,保護相關方權益,提高技術社會認可度,推動產業(yè)可持續(xù)發(fā)展。需要加強研究和實踐,不斷完善法規(guī)政策,適應技術發(fā)展和應用場景拓展。希望人工智能未來在法治框架下為人類提供更多便利。

猜你喜歡
數據安全法治人工智能
送法進企“典”亮法治之路
云計算中基于用戶隱私的數據安全保護方法
電子制作(2019年14期)2019-08-20 05:43:42
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
IT經理世界(2018年20期)2018-10-24 02:38:24
建立激勵相容機制保護數據安全
當代貴州(2018年21期)2018-08-29 00:47:20
反家庭暴力必須厲行法治
人大建設(2018年3期)2018-06-06 03:11:01
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
大數據云計算環(huán)境下的數據安全
電子制作(2017年20期)2017-04-26 06:57:48
以德促法 以法治國
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
郎溪县| 陈巴尔虎旗| 庐江县| 龙川县| 吉安市| 富锦市| 辽中县| 娄烦县| 麦盖提县| 莫力| 抚远县| 万盛区| 通河县| 邵东县| 晋中市| 兴国县| 巴中市| 会宁县| 五原县| 依兰县| 克山县| 且末县| 漠河县| 富锦市| 维西| 甘德县| 斗六市| 贺兰县| 黄梅县| 连云港市| 达拉特旗| 昌吉市| 商城县| 崇明县| 寻甸| 民权县| 凉山| 巴彦县| 工布江达县| 巴林右旗| 甘南县|