国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論算法對人格權(quán)侵權(quán)之類型化

2019-09-17 09:50:00劉健劉蓓李賢武
法制與社會 2019年25期
關(guān)鍵詞:個人信息權(quán)隱私權(quán)算法

劉健 劉蓓 李賢武

摘 要 人工智能被認為是科技創(chuàng)新的下一個“超級風(fēng)口”。在以數(shù)據(jù)和算法為核心驅(qū)動力的信息社會,每個人都趨向透明化,人格權(quán)受到了前所未有的挑戰(zhàn)。算法不僅對具體人格權(quán)中的個人信息權(quán)、隱私權(quán)等造成了侵犯,也對一般人格權(quán)中的人格尊嚴(yán)、人格自由造成了傷害。對算法侵犯人格權(quán)進行類型化后,可以方便我們從總體上清晰鳥瞰算法對人格權(quán)侵蝕的現(xiàn)狀,以便按照一定的權(quán)利脈絡(luò)對算法法律規(guī)制進行初步探索。

關(guān)鍵詞 算法 個人信息權(quán) 隱私權(quán) 人格尊嚴(yán) 人格自由

作者簡介:劉健,長春工業(yè)大學(xué)公共管理學(xué)院民商法研究生;劉蓓,長春工業(yè)大學(xué)計算法學(xué)研究所所長,副教授,法學(xué)博士,研究方向:計算法學(xué)、民法學(xué);李賢武,長春工業(yè)大學(xué)公共管理學(xué)院副教授,研究方向:民法學(xué)。

中圖分類號:D923.7? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標(biāo)識碼:A? ? ? ? ? ? ?? ? ? ? ? ? DOI:10.19387/j.cnki.1009-0592.2019.09.118

作為最先進的科學(xué)技術(shù),人工智能在金融、科技、醫(yī)療、消防等方面經(jīng)常能夠做到比人類更加精準(zhǔn),更加完善。人類開始將部分抉擇權(quán),如將商業(yè)自動化決策權(quán)、司法權(quán)、行政權(quán)交給人工智能推算技術(shù),即算法。通過算法對大數(shù)據(jù)加以利用,用以適用決策場景事宜。然而決策結(jié)果可能是片面的、非透明性的,所以決策流程中時常出現(xiàn)“算法綁架”“算法黑箱”“算法歧視”等負面風(fēng)險。

一、算法侵犯具體人格權(quán)之類型化

(一)算法對個人信息權(quán)的侵犯

個人信息權(quán)在國外也被稱為信息使用權(quán), 作為一項新興的民事權(quán)利,對他的定性仍然存在爭議。

1. 財產(chǎn)權(quán)說與人格權(quán)說之爭

我國《民法總則》第 111 條與《人格權(quán)編(草案)》第 813 條規(guī)定“個人信息應(yīng)受到法律保護?!焙芏嗳藘A向于定義為財產(chǎn)權(quán),但是個人信息權(quán)不僅僅體現(xiàn)為財產(chǎn)屬性,更主要的特征是人格權(quán)屬性。 個人信息具有人身專屬性,這種屬性體現(xiàn)了人格屬性,例如,一個人的身份信息,年齡,民族等等,這都是人身專屬性的體現(xiàn),另一種信息雖然不能直接的表明身份,但是結(jié)合其他相關(guān)身份證明也可以查明本人,例如自己的電話號碼等等,這都是人格屬性的表現(xiàn)。

另外,個人信息權(quán)的本意就是為了通過人對于自己的個人信息的掌握來保障自己的人格尊嚴(yán),通過對自己的個人信息披露與否來保障人與人之間的平等。在國外,個人信息權(quán)被稱為信息自決權(quán),在德國法的判例里可以發(fā)現(xiàn)這是一種以人格權(quán)為基礎(chǔ)的權(quán)利。

2. 個人信息權(quán)與隱私權(quán)存在的競合與區(qū)別

個人信息具有很多的私密性,在侵犯私密的個人信息時,定會侵犯一些隱私。對個人信息的侵犯方式包括披露形式,這和侵犯隱私權(quán)的方式有相通之處。但是隱私權(quán)和個人信息權(quán)也是有明顯的區(qū)別。 在隱私權(quán)與個人信息權(quán)并存的立法語境下,宜將隱私權(quán)定位為消極型、防御型的精神性權(quán)利,將個人信息權(quán)定位為積極的支配權(quán)。 我們觀察到《人格權(quán)編(草案)》關(guān)于隱私權(quán)與個人信息權(quán)的界限問題未能明晰。這必然導(dǎo)致未來在司法實踐中將面臨二者的辨識問題。那么隱私權(quán)與個人信息權(quán)的區(qū)分有以下幾點:

(1)權(quán)利客體不同。隱私權(quán)的權(quán)利客體主要是私密的信息,比如個人的健康狀況、個人的心理問題等等,而個人信息的范圍不僅包括私密性質(zhì)的信息,還包括一些公開的個人信息,例如,個人的微信號碼,個人的郵箱等等,都要主動披露在或大或小的生活圈子中。因此,個人信息權(quán)和隱私權(quán)是有區(qū)別的。

(2)權(quán)利內(nèi)容不同。隱私權(quán)的權(quán)利內(nèi)容主要包括維護個人的私生活安寧、個人私密不被公開、個人私生活自主決定等等;個人信息權(quán)主要是指對個人信息的支配和自主決定。 隱私權(quán)主要是為了防止自己的個人信息被他人披露,而個人信息權(quán)則包括主動的積極維護。

3.個人信息權(quán)與數(shù)據(jù)權(quán)的競合與區(qū)別

信息和數(shù)據(jù)貌似就是不可分割的兩個部分,在相當(dāng)大的程度上存在競合問題。在目前的《民法總則》與《人格權(quán)編(草案)》中論及的是個人信息權(quán)。但目前很多學(xué)者將之稱為數(shù)據(jù)權(quán)利。 但個人信息權(quán)與數(shù)據(jù)權(quán)存在著很大的區(qū)別。

首先,權(quán)利屬性不同。個人信息權(quán)在我國應(yīng)當(dāng)被定義為兼具財產(chǎn)屬性的人格權(quán),而數(shù)據(jù)使用權(quán)則是一個包括范圍非常廣泛的權(quán)利,它不僅同個人信息權(quán)一樣具有人格屬性,財產(chǎn)屬性,它還具有著公權(quán)力屬性,如數(shù)據(jù)權(quán)在憲法、國際法層面意味著數(shù)據(jù)主權(quán)問題,在行政法層面意味著數(shù)據(jù)管理權(quán)問題。因此,數(shù)據(jù)權(quán)被侵犯時不再限制在侵權(quán)法領(lǐng)域來進行保護。

其次,權(quán)利內(nèi)容不同。個人信息權(quán)的權(quán)利內(nèi)容主要是自己對個人信息的決定權(quán)。而數(shù)據(jù)使用權(quán)的主要內(nèi)容是將某一特定事物進行客觀上的羅列,利用這些羅列數(shù)據(jù)得出特定信息,在大腦中通過邏輯以及已有信息推導(dǎo)出所需數(shù)據(jù)表達出的結(jié)果。

4.算法對個人信息權(quán)的侵權(quán)

目前我國法律未對企業(yè)采集和利用數(shù)據(jù)信息的權(quán)限邊界做出明確界定,不能完全保障用戶個人信息權(quán)中的知情權(quán)、自決權(quán)。例如信息繭房就是對個人信息權(quán)侵犯后產(chǎn)生的不良后果,人工智能會直接監(jiān)測到我們的瀏覽信息,分析我們的喜好,利用推薦算法不斷的向我們推薦這類物品、新聞等,久而久之,我們將會被限制在它所給我們推薦的信息中,忽略我們的其他生活。

(二)算法對隱私權(quán)的侵犯

隱私權(quán)是我們?nèi)烁駲?quán)中一項基本的具體人格權(quán),可以毫不夸張地說,算法時代中的個人隱私在裸奔。如《淘寶隱私權(quán)政策》(2018年11月8日生效)2.1 規(guī)定收集個人信息的目的是“為改善我們的產(chǎn)品或服務(wù),以便向您提供更符合您個性化需求的信息展示、搜索及交易服務(wù)?!笨上攵趥€人信息收集與算法分析時,經(jīng)常會涉及個人隱私領(lǐng)域,從購物商品種類上通過算法可以分析個人性傾向、姓名、電話、家庭住址、單位等個人不愿公開的隱私。私人信息是隨著計算機技術(shù)發(fā)展而產(chǎn)生的新的隱私領(lǐng)域。

算法對我們的隱私權(quán)提出了新的挑戰(zhàn),可維權(quán)性差,例如,如何對算法侵犯隱私權(quán)的行為進行舉證。 這個問題要進行解決這就涉及算法黑箱,算法黑箱就是在算法輸入的數(shù)據(jù)和其輸出的答案之間存在著我們無法洞悉的隱層,算法可以在我們無法知悉的情況下獲取我們的所有信息,因此,在算法黑箱的操控下,對隱私權(quán)的侵犯問題中,舉證就成為了巨大難題。

二、算法對一般人格權(quán)侵犯之類型化

我國人格權(quán)學(xué)理中除具體人格權(quán)外,還有一般人格權(quán)。而人工智能的發(fā)展對于一般人格權(quán)顯然也造成了一些侵犯。

(一)對人格自由的侵犯

由于算法在運行決策中具有非透明性問題,所以在解釋或證明算法結(jié)論的因果關(guān)系時一直無法克服較大的技術(shù)層面障礙。對我們的人格自由侵犯的典型表現(xiàn)為“算法黑箱”或“算法獨裁”行為。由于算法信息不公開,公眾無法享有飽滿的知情權(quán),結(jié)果便是算法可以輕易“綁架”人類的思維,“操縱”人類的意志。 比如算法可以成為強大的競選工具,其可以在大選中盡可能分析出中間選民,并生產(chǎn)出有力的“共鳴信息”去實施煽動和說服。 導(dǎo)致選民在自己被操控的情況下做出了不符合自己意志的行為。

(二)對人格尊嚴(yán)的侵犯

人格尊嚴(yán)是一般人格權(quán)中十分關(guān)鍵的一項權(quán)利,人格尊嚴(yán)貫穿在日常生活中。 而隨著人工智能的快速發(fā)展,它可能會侵犯我們的人格尊嚴(yán),其相關(guān)研究也可能觸及人格尊嚴(yán)保護問題。

三、在算法時代對于人格權(quán)的保護

(一)對于個人信息權(quán)的保護

依上文所述,雖然在現(xiàn)行的民法總則中對公民的個人信息權(quán)做出了規(guī)定,但是并沒有專門規(guī)范利用算法收集、使用個人信息的行為,在以后的立法中應(yīng)當(dāng)有必要專門設(shè)置相關(guān)的法律規(guī)范,防止算法應(yīng)用過程中的數(shù)據(jù)非法收集、泄露、販賣等問題,以有效保證個人信息安全。

此外,在刑法中也對個人信息權(quán)進行了保護,《刑法修正案(七)》中將公民個人信息納入保護范圍之中,增設(shè)了出售非法提供公民個人信息罪和非法獲取公民個人信息罪。 在觸犯刑法時也可以運用刑法來保護自己的個人信息權(quán)。

(二)對于隱私權(quán)的保護

2019年6月17日,我國新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》,要求人工智能發(fā)展應(yīng)尊重和保護個人隱私,充分保障個人的知情權(quán)和選擇權(quán)。在法律層面,應(yīng)加快制定加強隱私保護的法規(guī)制度。當(dāng)前,我國隱私保護法律體系還不能完全適應(yīng)人工智能發(fā)展需求,應(yīng)在相關(guān)法律法規(guī)中進一步強化隱私權(quán)保護,并在條件成熟時制定針對人工智能應(yīng)用中保護公民隱私的法律條文細則,充分保障公民在人工智能應(yīng)用中的知情權(quán)和選擇權(quán),嚴(yán)格規(guī)范人工智能應(yīng)用中個人信息的收集、存儲、處理、使用等程序,反對竊取、篡改、泄露和其他非法收集利用個人信息的行為。

目前,算法侵犯隱私權(quán)案件中舉證問題是比較大的瓶頸,被侵權(quán)人沒有辦法舉證證明自己被人工智能侵犯了隱私權(quán)。在舉證責(zé)任方面,因為被侵權(quán)人的隱私是被人工智能侵犯的,傳統(tǒng)的誰主張誰舉證的原則,在算法時代背景下不能得到很好的實施,因此,我們可以減輕這類侵權(quán)問題的被侵權(quán)人的舉證責(zé)任,加強保護。

(三)對于一般人格權(quán)的救濟

事實上,算法技術(shù)不僅在侵犯著具體人格權(quán),也同時侵犯著一般人格權(quán)。 二者往往同時發(fā)生,所以在上文論述中經(jīng)常會發(fā)生一種算法技術(shù)侵犯的人格權(quán)類型往往是復(fù)合型的,基本模型是“一般人格權(quán)+具體人格權(quán)”的復(fù)合,其中一般人格權(quán)與具體人格權(quán)的種類均不限于一種。

在立法層面,我們應(yīng)該首先強調(diào)一般人格權(quán)的實在地位,而不僅是學(xué)理權(quán)利。其次,對于一般人格權(quán)的保護主要要通過個人信息權(quán)、隱私權(quán)等具體人格權(quán)的保護來實現(xiàn),而諸此具體人格權(quán)的保護一般是通過知情權(quán) 、自決權(quán) 、解釋權(quán) 、被救濟權(quán) 等組成的權(quán)利群的完善來實現(xiàn)。

注釋:

王利明.論個人信息權(quán)的法律保護[J].現(xiàn)代法學(xué),2013(7).

王利明.論個人信息權(quán)在人格法中的地位[J].中國法學(xué),2012(6).

王利明.論個人信息權(quán)的法律保護——以個人信息權(quán)和隱私權(quán)的界分為中心[J].現(xiàn)代法學(xué),2013(7).

張紅.《人格權(quán)編(草案)》中的問題及其修正建議[J].社會科學(xué)家,2019(1).

王利明.人工智能時代對民法學(xué)的新挑戰(zhàn)[J].東方法學(xué),2018(3).

李愛軍.數(shù)據(jù)權(quán)利屬性與法律特征[J].東方法學(xué),2018(3).

梅夏英.數(shù)據(jù)的法律屬性及其民法定位[J].中國社會科學(xué),2016(9).

徐琳.人工智能推算技術(shù)中的平等權(quán)問題之探討[J].法學(xué)評論,2019(3).

http://mp.weixin.qq.com/s/8xJTg9JxJrLpuvGcAfxTNA,2018-03-20.

張建文.作為新興司法保護方法的一般人格權(quán)[J].法學(xué)雜志,2018(6).

姜金良.論刑法中的“公民個人信息”[J].刑事法判解,2018(1).

楊立新.制定我國人格權(quán)法應(yīng)當(dāng)著重解決的三個問題[J].國家檢察官學(xué)院學(xué)報,2008(6).

王錫梓.知情權(quán)的邏輯與展開.法學(xué)研究[J].法學(xué)研究,2017(11).

歐盟的《一般數(shù)據(jù)保護條例》(GDPR)第22條明確規(guī)定數(shù)據(jù)所有者有權(quán)利不接受完全由自動化處理的、沒有人類干涉的條件下做出的重大決定。

黃卉.解釋權(quán)及其理論探討[J].中國法學(xué),2014(3).

楊學(xué)科.論智能互聯(lián)網(wǎng)時代的算法公正和算法歧視治理[J].山東科技大學(xué)學(xué)報,2019(7).

參考文獻:

[1]朱體正.人工智能時代的法律因應(yīng)[J].大連理工大學(xué)學(xué)報(社會科學(xué)版),2018(2).

[2]魏屹東.人工智能的適應(yīng)性表征[J].上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(1).

[3]李晟.略論人工智能語境下的法律轉(zhuǎn)型[J].法學(xué)評論,2018(1).

[4]高奇琦,張鵬.論人工智能對未來法律的多方位挑戰(zhàn)[J].華中科技大學(xué)學(xué)報(社會科學(xué)版),2018(1).

[5]張憲麗,高奇琦.人工智能時代公民的數(shù)據(jù)意識及其意義[J].西南民族大學(xué)學(xué)報(人文社科版),2017(12).

[6]許志華.網(wǎng)絡(luò)空間的全球治理:信息主權(quán)的模式建構(gòu)[J].學(xué)術(shù)交流,2017(12).

猜你喜歡
個人信息權(quán)隱私權(quán)算法
納稅人隱私權(quán)的確立、限制與保護
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
媽媽,請把隱私權(quán)還給我
進位加法的兩種算法
谷歌尊重雕像“隱私權(quán)”的啟示
華人時刊(2018年17期)2018-11-19 00:41:21
從個人信息權(quán)切入談精準(zhǔn)性電信詐騙
法制與社會(2017年5期)2017-03-14 19:05:03
互聯(lián)網(wǎng)金融監(jiān)管的“扶助之手”
一種改進的整周模糊度去相關(guān)算法
論個人信息權(quán)
商情(2016年11期)2016-04-15 07:59:05
丹棱县| 花莲市| 南丰县| 白山市| 安泽县| 霍州市| 囊谦县| 贵阳市| 德兴市| 拜城县| 徐闻县| 沛县| 札达县| 长海县| 建湖县| 信丰县| 安义县| 永平县| 安宁市| 老河口市| 普兰县| 波密县| 临桂县| 卢氏县| 昌邑市| 抚松县| 精河县| 格尔木市| 彭州市| 靖安县| 巴林右旗| 高雄市| 获嘉县| 玛多县| 桐柏县| 新民市| 光泽县| 边坝县| 贵州省| 漯河市| 常德市|