劉源源
(535000 欽州學院 廣西 欽州)
自進入二十一世紀以來,信息化使得信息迅速的膨脹,信息資源結(jié)構(gòu)變得復雜和龐大,導致人類自然科技在這一發(fā)展前變得有心無力,隨著社會科技的發(fā)展,面對這一局面的變化,人工智能應運而生[1]。從目前人工智能發(fā)展和應用前景分析,可對社會各行業(yè)造成顛覆性的影響,可作為推動未來信息化技術的核心因素,從而對未來的勞動、財富分配及社會功能職能劃分等方式造成深遠的影響。但隨著人工智能的發(fā)展,相應的問題也伴隨而來,尤其是在法律方面的問題十分嚴峻,且對人工智能的發(fā)展造成一定的影響。基于此,筆者在下文對人工智能發(fā)展中的較為突出幾個法律問題進行分析,探究其解決策略。
人工智能可為人類物質(zhì)生活提供優(yōu)質(zhì)的服務,同時也豐富了人類的精神世界,使得人類的生活變得便捷、豐富精彩,因此人工智能方面的創(chuàng)作在研發(fā)設計階段的成本高,而在投用使用時,其創(chuàng)作數(shù)量增大,創(chuàng)作周期縮短,加上人工智能在藝術創(chuàng)作領域中的發(fā)展活躍,導致人工智能創(chuàng)作版權(quán)保護這一法律問題在藝術創(chuàng)作領域出現(xiàn)不少爭議[2]。給予人工智能創(chuàng)作品相應的版權(quán)保護,會使得擁有版權(quán)的人工智能創(chuàng)作品數(shù)量迅速增長,且還會對部分領域中的人類自然作品造成一定的沖擊,并會對作為創(chuàng)作主體的人工智能的資格產(chǎn)生質(zhì)疑。但若不給予人工智能創(chuàng)作品相應的版權(quán)保護,會導致大量的無版權(quán)保護的人工智能創(chuàng)作品流入市場,對市場造成一定的沖擊,并會導致抄襲、搭便車等不良事件頻發(fā),不利于人工智能的良性發(fā)展。
隨著信息數(shù)據(jù)的發(fā)展,現(xiàn)在社會已進入了大數(shù)據(jù)時代,智能問題也逐漸轉(zhuǎn)化為了數(shù)據(jù)問題,從而使得人工智能技術發(fā)展發(fā)生的量變到質(zhì)變的變化,也引發(fā)的智能革命的展開[3]。與傳統(tǒng)的技術相比,人工智能在對人們進行服務時,會與使用者的個人信息隱私進行緊密的聯(lián)系。個人信息是指個人相關的、反應個人體征及可對個人機進行識別的符號系統(tǒng),如姓名、身份證號碼、銀行卡卡號及手機號碼等,個人隱私是指個人生活中不愿意進行公開的私密信息及空間,如聊天記錄、婚姻狀況及生活行蹤等[4]。從目前的人工智能產(chǎn)品儲存方面分析,使用者的個人相關數(shù)據(jù)的儲存量大且范圍廣泛,且具有高私密度,若人工智能產(chǎn)品使用者的個人信息及隱私出現(xiàn)泄露、竊取、不當利用等情況,會對使用者的個人信息隱私的安全造成危害,并還會對其的財產(chǎn)及人身安全造成嚴重的危害,使得人工智能的發(fā)展受到嚴重的影響,并對社會秩序的穩(wěn)定造成嚴重的危害。
人工智能是信息科學技術分支中的一個,因此,人工智能產(chǎn)品也被視為一般意義上的科技產(chǎn)品,但與一般的科技產(chǎn)品不同的是,人工智能產(chǎn)品的自主性更強,在使用人工智能產(chǎn)品的過程中,產(chǎn)品對人類的意志和控制進行違背的脫離的風險性更高,這也導致人工智能產(chǎn)品在風險責任承擔方面具有特殊性[5]。在現(xiàn)行的法律中,對于人工智能產(chǎn)品導致的損傷和損害的風險問題,可通過民法中對相關產(chǎn)品侵權(quán)責任的相關規(guī)定進行維權(quán),主張向產(chǎn)品的銷售者和生產(chǎn)者索取賠償。但從目前的人工智能產(chǎn)品導致的損傷和損害的風險問題分析,上述主張的維權(quán)方式并不適完全適用,只適用部分的人工智能產(chǎn)品,適用范圍為具有決策和自主處理等能力的產(chǎn)品,在其風險責任承擔的主體和賠償機制尚未完善,這使得使用者在使用人工智能產(chǎn)品時,受到損傷和損害時,難以對自身受到的傷害進行維權(quán)。
因為人工智能創(chuàng)作與一般的科技產(chǎn)品創(chuàng)作之間存在特殊性,這也導致其創(chuàng)作品具有特殊的作品屬性,從而使得其在進行創(chuàng)作版權(quán)保護方面也存在一定的特殊性[6]。筆者通過對人工智能特殊屬性進行研究分析,在給予人工智能產(chǎn)品創(chuàng)作相應的版權(quán)時,需符合以下條件:
(1)具備明確思想表達形式的人工智能產(chǎn)品,大部分的人們會認為人工智能產(chǎn)品沒有思想,其實并不是,只是人工智能產(chǎn)品的思想與人類普通作品中的思想不同,人工智能產(chǎn)品的思想是指編程者設定的程序和算法的產(chǎn)物,且具備特殊表達形式。
(2)具備創(chuàng)造性和獨立性的人工智能產(chǎn)品,從目前的人工智能發(fā)展觀察發(fā)現(xiàn)其以可進行獨立創(chuàng)作,具有獨立性,因此探討的是人工智能產(chǎn)品創(chuàng)造性這一屬性,對于人工智能創(chuàng)造性判定標準可參照“最低限度創(chuàng)作性”的標準,即當人工智能產(chǎn)品符合規(guī)定程度的創(chuàng)新,則可判定其具備創(chuàng)造性,但結(jié)合人工智能創(chuàng)作過程,其具備創(chuàng)造性還需符合可獨立完成藝術作品和脫離既定算法生成新的原創(chuàng)產(chǎn)物這兩個條件。
(3)人工智能產(chǎn)品展示時擁有有形形式復制和智力活動的成果。
與一般科技產(chǎn)品相比,人工智能與其在外觀無顯著差異,較難分辨,尤其是在藝術方面,因此,在給予人工智能產(chǎn)品相關版權(quán)時,應先對其進行判斷是否符合滿足上述條件,從而選擇性的給予人工智能產(chǎn)品相應版權(quán),且還可對其擁有版權(quán)的數(shù)量進行控制,減少對人類自然成品的沖擊,同時避免過多無版權(quán)的人工智能產(chǎn)品流入市場對其造成沖擊,減少抄襲等不良事件的發(fā)生,促進人工智能良性發(fā)展[7]。在法律規(guī)章制度方面,可參照職務作品中作者享有署名權(quán)的相關規(guī)定來制定人工智能產(chǎn)品享有版權(quán)的規(guī)定,人工智能產(chǎn)品的創(chuàng)作者需在作品中將所使用到的人工智能技術進行標注說明,從為更好的對人工智能技術的編程者的版權(quán)進行保護,對創(chuàng)作市場進行規(guī)范,避免出現(xiàn)不公平競爭和不正當使用的情況出現(xiàn)[8]。
筆者通過對人工智能使用者的個人信息隱私泄露和竊取的因素進行分析發(fā)現(xiàn),主要是由于使用者缺乏維權(quán)行為、人工智能服務中數(shù)據(jù)不對稱及缺乏對使用者和數(shù)據(jù)處理者的監(jiān)管和制約這三個因素,針對這三個因素筆者提出以下解決策略:
(1)使用者在使用人工智能服務前,需要將個人部分信息及相關數(shù)據(jù)進行提供換取相應的服務,但這并不是提供服務的人工智能端向用戶任意收集信息的借口,用戶也不可隨意的為了換取服務而將自己的信息隨意的進行提供。對此,應對人工智能服務所收集的使用者信息數(shù)據(jù)范圍進行界定,在不對人工智能服務質(zhì)量造成影響的情況下,對使用者的個人信息隱私進行最大限度的保護。除此之外,在對采集范圍進行界定前,人工智能服務應對所采集的信息數(shù)據(jù)是否為系統(tǒng)運行的必需信息,并考慮到采集是否符合“人格尊嚴不可侵犯”的憲法精神,從而更好的對采集范圍進行界定。
(2)人工智能服務中數(shù)據(jù)不對稱是大數(shù)據(jù)時代下的產(chǎn)物,這一產(chǎn)物具有較強的客觀性,且較難進行扭轉(zhuǎn),而為了減少對使用者權(quán)益的危害,緩和數(shù)據(jù)不對稱這一局面,必須對處于弱勢地位的個人使用者給予相應的保護策略。而對于掌控龐大數(shù)據(jù)庫的人工智能系統(tǒng),保護使用者個人信息隱私和對不平衡局面進行穩(wěn)定的較為可行的策略為充實對使用者所掌握的信息,并在對使用者采集信息前,將信息采集的范圍、處理方式及利用情況告知使用者,并在獲取使用者同意情況下進行采集。
(3)對于缺乏對使用者和數(shù)據(jù)處理者的監(jiān)管和制約這一情況,筆者認為在對使用者進行監(jiān)管時,應對監(jiān)管的主體及職責進行明確,并對使用者的信息數(shù)據(jù)的使用、處理及銷毀等過程進行全面的監(jiān)管,保證按照服務條款對個人無關的信息數(shù)據(jù)進行及時的銷毀,并履行與使用者簽訂的相關服務條例。在對數(shù)據(jù)處理者制約方面,除了對使用者收集信息前獲取其同意這一措施,為了避免出現(xiàn)第三方對使用者的信息進行不法利用的情況,提供人工智能服務的相關企業(yè)應根據(jù)原始數(shù)據(jù)掌握情況給予相應的安全保護措施。
人工智能產(chǎn)品在研發(fā)設計、生產(chǎn)和銷售的過程中,涉及到研發(fā)設計者、生產(chǎn)者、銷售者及使用者,從目前現(xiàn)有執(zhí)行的產(chǎn)品缺陷致?lián)p歸責任承擔規(guī)定方面,承擔主體為生產(chǎn)者、銷售者和造成過錯的第三方,并沒有將人工智能產(chǎn)品的產(chǎn)出全過程所涉及的責任人包括在內(nèi),導致使用者在使用人工智能產(chǎn)品時受到損害時維權(quán)較為困難,使得使用者的消費積極性下降,不利于人工智能產(chǎn)品的市場開拓和良性發(fā)展[9]-[10]。對于這一情況,筆者認為可采取如下措施:
(1)在現(xiàn)有制度的基礎上,構(gòu)建一個符合人工智能產(chǎn)業(yè)特點的責任承擔機制,參照責任分擔這一原則,對人工智能產(chǎn)品的研發(fā)設計者、生產(chǎn)者、銷售者及使用者的義務及責任在法律上進行明確,減少和避免責任空白情況的出現(xiàn)。但由于目前大部分的人工智能產(chǎn)品具有自主決策的能力,若其對使用者造成的損害在不可預見和不可控制的范圍,可參照《侵權(quán)責任法》有關公平分擔損失的規(guī)定,對責任承擔者的責任進行合理減輕,保障提供人工智能服務的有關企業(yè)的相應權(quán)益,從而實現(xiàn)雙方合理權(quán)益有效維護。
(2)人工智能產(chǎn)品的使用者在消費的全過程中處于弱勢的地位,發(fā)生意外時受到的損傷較重,責任企業(yè)是在維權(quán)結(jié)束后給予相應的賠償,而在維權(quán)的過程中,使用者也需要大量的資金進行支持,對于此情況可參照2017年1月歐盟頒布的《機器人民事法律規(guī)則的立法建議報告》中的強制保險機制和賠償基金的設立這兩個規(guī)定,不僅可給予使用者一定的救濟,同時還可減輕人工智能產(chǎn)品開發(fā)者和生產(chǎn)者所承擔的責任。
人工智能技術給人們的生活帶來很多的方便,但同時也暴露出一系列的法律問題,值得人們探究和深思,筆者認為應盡早的建立其對人工智能相關法律問題的認知,從而更好的采取法律措施進行應對,使得人工智能的研究開發(fā)過程變得規(guī)范合法,并創(chuàng)設良好的人工智能產(chǎn)品市場環(huán)境和社會環(huán)境,保障人工智能技術的良性發(fā)展。