李 偉
(江西師范大學政法學院,南昌330022)
“藝術(shù)+科技”最早可追溯至從15 世紀早期延續(xù)至16 世紀末的意大利文藝復(fù)興運動,佛羅倫薩天才建筑家菲利波·布魯內(nèi)萊斯基(Filippo Brunelleschi)發(fā)明全新的“線性透視技術(shù)”為教堂建造了巨型穹頂。詩人但丁曾對這種“藝術(shù)高科技”予以評論:“依靠名為透視法的方法,人們自然而然地以理性的方式觀察藝術(shù)”[1],賦予科技化的藝術(shù)以理性審美①拉斐爾的老師佩魯吉諾所繪制的《圣塞巴斯蒂安殉難》一圖也采用這一“高科技”。在基督教早期受迫害年代,身為羅馬皇帝近衛(wèi)隊長的圣塞巴斯蒂安寧可被綁在樹上亂箭射死,也義無反顧地成為基督教的信徒。人們?yōu)榱思o念他,每年1月20日設(shè)立了圣塞巴斯蒂安節(jié)。于是,在瘟疫暴發(fā)時,人們常去求助其神像。畫面中可以看到他站在古羅馬式樣的臺座上,畫家佩魯吉諾利用線性透視,在畫中構(gòu)建了精準的空間。中心前景中的臺座與地面上呈現(xiàn)長方形圖案的石面形成視覺中心區(qū)域,隨著地面長方形石面逐漸后退,尺寸也成比例縮小。。而在全球藝術(shù)品市場蓬勃發(fā)展的今日,藝術(shù)卻不斷面臨來自負面科技的挑戰(zhàn),贗品制造技術(shù)的不斷升級使得傳統(tǒng)藝術(shù)品鑒定面臨危機,人工智能打破了自17 世紀以來藝術(shù)領(lǐng)域所形成的“經(jīng)驗-偽科學”博弈并逐漸取傳統(tǒng)鑒定而代之,且受到國際藝術(shù)界以及藝術(shù)品鑒定行業(yè)的廣泛認同,推動“藝術(shù)+科技”朝智能化方向發(fā)展。但人工智能本身在法律界系備受爭議的新生物,尤其對于現(xiàn)有法律中的“人”以及責任承擔規(guī)則產(chǎn)生了前所未有的挑戰(zhàn),藝術(shù)法領(lǐng)域自然也不例外。眾所周知,文藝復(fù)興本身強調(diào)并凸顯人的獨立價值,現(xiàn)代藝術(shù)革命也在不斷解放人的天性,藝術(shù)對人的探索從未停止過,那么“藝術(shù)+科技”視野下的人工智能無法規(guī)避的首要問題,即如何從法律角度來界定人工智能在藝術(shù)品鑒定中的主體地位,而非在“鑒定輔助手段”傳統(tǒng)定位下偏安一隅,這也與當下藝術(shù)領(lǐng)域的人工智能化發(fā)展趨向相符合。只有解決好這一法律前提,才能充分發(fā)揮人工智能在藝術(shù)品鑒定乃至整個數(shù)字藝術(shù)市場中的作用,并為相關(guān)藝術(shù)爭議的解決奠定法律基礎(chǔ)。
藝術(shù)品人工智能鑒定的產(chǎn)生并非時代偶然,而是多方面社會因素綜合和相互作用的結(jié)果。受巨大市場利益的驅(qū)動,藝術(shù)品造假的新技術(shù)層出不窮,傳統(tǒng)“專家經(jīng)驗鑒定+技術(shù)輔助鑒定+科學規(guī)范流程”鑒定架構(gòu)已然不適應(yīng)“藝術(shù)+科技”下藝術(shù)品鑒定行業(yè)發(fā)展方向,鑒定本身也無法排除各種利益的滲透,全球藝術(shù)品市場的蓬勃盛興與鑒定科技的誠信淪喪之間所形成的反差不斷擴大,這一切均為人工智能在藝術(shù)品鑒定行業(yè)的運用和推廣奠定了社會基礎(chǔ)。人工智能鑒定作為當前“藝術(shù)+科技”發(fā)展的前瞻模式,其目前在法律規(guī)制上的空白地位以及不受主觀因素制約的優(yōu)越性使得人工智能廣為藝術(shù)品投資市場所接受,也為我們在鑒定藝術(shù)品真?zhèn)蔚耐瑫r提出極具挑戰(zhàn)性的新法律命題。
隨著現(xiàn)代鑒定高科技的不斷發(fā)展,西方學者普遍認為,原來被藝術(shù)鑒賞師主導(dǎo)的藝術(shù)品鑒定工作,逐漸變成科學家與藝術(shù)鑒定師同時完成的工作[2]。僅僅依靠藝術(shù)鑒定師的自身的藝術(shù)修養(yǎng)與鑒定經(jīng)驗,難以達到科學精準的程度,必須借助當代科學儀器與物理實驗方法才能更好地完成藝術(shù)鑒定,才能準確判定藝術(shù)品的真?zhèn)闻c價值。但由于藝術(shù)通常被認人們認為具有某種神圣性、非物質(zhì)化與獨立,因而以藝術(shù)為載體的藝術(shù)品的市場價值很容易水漲船高[3],加之藝術(shù)品市場作為投資回報率較高的行業(yè)區(qū)域,利潤往往與風險同在。贗品制造者運用越來越先進的科技和手段,從藝術(shù)品造假到市場銷售甚至藝術(shù)館相關(guān)檔案資料的篡改,均游刃有余,以欺騙藝術(shù)品投資者甚至鑒定專家和藝術(shù)史家?,F(xiàn)今3D打印技術(shù)可以造出具有立體效果的吳冠中油畫,人工智能臨摹和克隆的名家書畫幾可亂真,藝術(shù)品科技作偽已經(jīng)到了肉眼無法辨識的地步[4]。概而言之,在藝術(shù)品鑒定和“反鑒定”上,鑒定專家和贗品制造者之間的無聲無息的較量始終圍繞著高科技進行,一旦可鑒別全部偽作的鑒定系統(tǒng)被開發(fā)出來,那么有關(guān)該系統(tǒng)的知識就可以反過來幫助造假者制作更逼真的偽藝術(shù)品,鑒定技術(shù)永遠無法跟上贗品制造者的“反鑒定”技術(shù)。
直接促使當前藝術(shù)品鑒定市場誠信缺失的根源之一,即藝術(shù)品的鑒定結(jié)論與其鑒定收費額度之間高度關(guān)聯(lián),受藝術(shù)品投資巨大利益的驅(qū)動(按照藝術(shù)市場慣例,鑒定費用可高達標的物估值的8%),在無具體法律引導(dǎo)和嚴密市場監(jiān)管的條件下,鑒定專家為獲取高額鑒定費用而作出與藝術(shù)品真實價值有出入的虛假鑒定結(jié)論就不足為奇。因為藝術(shù)品不同于一般的勞動價值消耗,是一種獨特且復(fù)雜的智力勞動成果,而其市場價值評估作為資產(chǎn)評估的一種,本身具有動態(tài)性、主觀性以及不確定性等特征,所以其價值評估不同于一般商品評估,很難通過法律或行業(yè)規(guī)定設(shè)定具體的量度標準,這也就給藝術(shù)鑒定師在鑒定藝術(shù)品及評估其市場價值上極大的主觀發(fā)揮空間?,F(xiàn)實中,藝術(shù)品鑒定難以權(quán)衡商業(yè)化利益與藝術(shù)價值最大化之間的平衡,假藝術(shù)品被鑒定為真、真藝術(shù)品被鑒定為假、“給錢就出證書”的荒誕實例屢有發(fā)生②較具代表性的2012年河南“乾隆《嵩陽漢柏圖》鑒定案”揭開了文物藝術(shù)品鑒定亂象叢生之冰山一角:事件的起因是鄭州朱氏兄弟家傳的乾隆御筆《嵩陽漢柏圖》確系真品,但被某檔鑒寶節(jié)目的劉姓鑒定專家鑒定成贗品,先是撮合以17萬元價格賣出,之后又以8 736萬元天價拍賣,后來朱氏兄弟一紙訴狀把劉姓鑒定專家告上法庭。。由于目前國內(nèi)最權(quán)威的藝術(shù)品鑒定機構(gòu)——國家文物鑒定委員會,僅從事博物館的藏品鑒定和司法鑒定,因此良莠不齊的民間(機構(gòu))鑒定成為藝術(shù)品鑒定的利益追逐之地。加上目前許多國家在法律制度上尚未實現(xiàn)藝術(shù)品鑒定收費與鑒定結(jié)論的分離,客觀上推動藝術(shù)品這一非標商品在鑒定行業(yè)中的不誠信空間的擴展。
“人工智能+藝術(shù)品”時代的到來,使得藝術(shù)品市場的傳統(tǒng)鑒定模式被徹底顛覆,人工智能能夠克服目前鑒定科技跟不上藝術(shù)品作偽新技術(shù)的短板,打破了單純依靠人類鑒定專家學識、眼光和經(jīng)驗等傳統(tǒng)的主觀非規(guī)范方式,克服了不同鑒定機構(gòu)、委托鑒定人及市場交易機構(gòu)之間暗箱操作與利益輸送的短板。美國新澤西Rutgers 大學與荷蘭Atelier 繪畫修復(fù)與研究工作室合作利用人工智能神經(jīng)網(wǎng)絡(luò),自動學習畢加索、馬蒂斯與席勒等著名藝術(shù)家的數(shù)萬條筆觸特征(形狀、色調(diào)、起點、中間點以及終點),通過循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network)的非線性活動功能以及封閉循環(huán)單元(Gated Recurrent Unit)數(shù)據(jù)模型,識別繪畫線寬之間的差異與藝術(shù)家的風格特征、繪畫線條發(fā)力程度是否一一對應(yīng)以鑒定偽造的藝術(shù)品,鑒定準確率高達80%[5]③在這項新的研究中,研究者們?yōu)樵撊斯ぶ悄芴峁┝税ó吋铀?、馬蒂斯與席勒等著名藝術(shù)家在內(nèi)所創(chuàng)作的300幅線條素描作品。通過研究這些作品,該人工智能識別了8萬條個人筆觸,并通過神經(jīng)網(wǎng)絡(luò)學習了這些筆觸的哪些特征與哪些藝術(shù)家的特點相對應(yīng)。另外,還有一項機器的學習算法負責搜尋這類特征,諸如以線寬之間的差異來反映藝術(shù)家的發(fā)力程度。通過結(jié)合神經(jīng)網(wǎng)絡(luò)與機器的學習算法,這項研究發(fā)現(xiàn),該人工智能可正確識別80%作品的作者。更令人嘆服的是,該人工智具有僅通過單一筆觸便可甄別每幅呈現(xiàn)于它面前的作品是否為偽作的能力。。目前我國古陶瓷智能服務(wù)系統(tǒng)、和田玉籽料皮色智能識別系統(tǒng)、書畫和金屬器等人工智能服務(wù)系統(tǒng)陸續(xù)上線,用戶只需使用智能便攜識別儀,拍照上傳至智能平臺,即可實時獲得科學、權(quán)威、公正的鑒定結(jié)果[6]。由此看來,人工智能相較于昂貴的鑒定專家服務(wù)將是一個成本高效利用的選擇,一位造假者有時可能會選擇正確的材料仿造一幅歷史性的作品以欺瞞鑒定專家,但復(fù)制一位藝術(shù)家的手法技藝并逃過人工智能的甄別卻并非易事,因而人工智能在藝術(shù)品鑒定領(lǐng)域的前景無可限量。
艾倫·麥席森·圖靈曾提出,如果人類在與機器對話時,從其所得到的回答中誤以為是跟另一個人類在對話,那么該機器便被認為具有“智能”。盡管存在諸多爭議,但作為人工智能的評判方式,圖靈測試(Turning Test)所推崇的“人的程式化”仍然得到了最為廣泛的共識與認可,并被視為智能設(shè)計的標準與目標[7]。這在藝術(shù)品鑒定領(lǐng)域同樣適用,人工智能在藝術(shù)領(lǐng)域的神經(jīng)網(wǎng)絡(luò)算法與人的思維日趨接近,已從純粹的“技術(shù)”向自主思考和理解的“鑒定專家”進化,打破了傳統(tǒng)以自然人為主體的鑒定專家認證模式,也突破了其在鑒別藝術(shù)品真?zhèn)螘r的輔助科技范疇限制,因而從法律視角來看,人工智能在“藝術(shù)+科技”浪潮的沖擊下,在藝術(shù)品鑒定中的法律人格、鑒定證書的法律效力以及鑒定錯誤的法律責任三方面必然對傳統(tǒng)的藝術(shù)鑒定家的身份認同和人格認知產(chǎn)生挑戰(zhàn)。
依據(jù)羅馬法理論,身份系法律人格的先決條件,而法律人格是享有權(quán)利和承擔義務(wù)的先決條件,由是之,羅馬法的“人”實則“身份-法律人格-權(quán)利義務(wù)”三者之統(tǒng)一體,不可拘泥分割[8]。但就人工智能的法律人格判斷而言,人工智能的身份本身就是一個存在爭議且晦澀不明的問題。在藝術(shù)品鑒定領(lǐng)域,人工智能的身份存在形式包括兩種:第一種是以符號主義(Symbolism)為設(shè)計理念,將藝術(shù)品鑒定過程視為在符號表示上的一種數(shù)理邏輯運算,通過相應(yīng)藝術(shù)特征或風格的篩選和排列以建立新的機械化符號鏈條,而最終鑒定結(jié)果就隱藏在這些新的符號鏈條之中。如我國目前“中華古籍數(shù)字化整理”和“敦煌遺書專用檢索軟件”兩套用于鑒定敦煌遺書的人工智能,僅通過對經(jīng)書上的結(jié)字、書風和用筆特征進行智能比對來鑒定真?zhèn)?,并無自主意識。事實上,當前藝術(shù)品人工智能鑒定系統(tǒng)設(shè)計大多源自符號主義,這類型人工智能僅能在特定藝術(shù)品范疇對其進行識別并尋求最優(yōu)解,不僅沒有人的主觀能動性,也無法跳出運算方式的局限性,因此其在身份上沒有賦予法律人格的必要;第二種是以連接主義(Connectionism)為設(shè)計理念的人工智能,與前者相比,其更具仿生學特色,即將藝術(shù)品鑒定結(jié)論視為大腦中神經(jīng)元的連接和信息傳導(dǎo)的結(jié)果,并在一定程度上能夠表達“自由意志”,盡管這種“自由意志”的表達過程和方式是人類設(shè)計的[9]。因而從身份上來看,這種連接主義的人工智能在鑒定藝術(shù)品的過程中更容易獲得法學界的“鑒定專家”身份認同。
2017 年,歐洲議會法律事務(wù)委員會提交并通過的《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告》(Draft Report with Recommendations to the Commission on Civil Law Rules on Roberts),則為人工智能在藝術(shù)品鑒定中的法律人格確定提供了重要參考。該報告保證“復(fù)雜的自動化機器人”能夠作為“電子人”(Electronic Person)的法律主體而存在,能在其自主作出行為決策時享有“電子人格”(Electronic Personality),并提出“電子人格”的四大特征:(1)通過傳感器或借助環(huán)境以交換和分析數(shù)據(jù)(關(guān)聯(lián)性)來獲得自主性能力;(2)從經(jīng)歷和交往中學習的能力;(3)機器人的物質(zhì)表現(xiàn)形式;(4)根據(jù)環(huán)境調(diào)整其行為和行動的能力[10]。而Rutgers 大學所開發(fā)的藝術(shù)品人工智能鑒定系統(tǒng)則完全符合以上各項特征:第一,該人工智能能夠自動分解和記憶包括畢加索、馬蒂斯與席勒等著名藝術(shù)家在內(nèi)所創(chuàng)作的300 幅線條素描作品的數(shù)萬條個人筆觸;第二,該人工智能利用自身循環(huán)神經(jīng)網(wǎng)絡(luò)自動學習這些筆觸的特征;第三,以計算機來裝載人工智能系統(tǒng);第四,對藝術(shù)家畫作的人工智能鑒定也同樣適用于其他類別藝術(shù)品(如印象派作品和其他19 世紀的藝術(shù)筆畫清晰的畫作)。因此,該藝術(shù)品鑒定人工智能應(yīng)被賦予法律意義上的“電子人格”,即承認其法律主體地位,承認的意義在于,將人工智能納入“人”的范疇,從而通過法律創(chuàng)造新規(guī)則[11]。綜上所述,人工智能在藝術(shù)法領(lǐng)域隨著其社會應(yīng)用的廣泛推廣,法律人格的賦予具有很大的理論可能性,法人制度已是先例。一旦人工智能的法律人格被法律認可,所作出的藝術(shù)品鑒定結(jié)論自然同人類鑒定專家有著同等的法律效力。
一般人在進行藝術(shù)品市場交易時,會聘請專業(yè)的鑒定專家或權(quán)威第三方機構(gòu)對藝術(shù)品真?zhèn)芜M行鑒定,并要求出具包括藝術(shù)品真?zhèn)蔚蔫b定、市場價值評估等內(nèi)容的鑒定證書(Certification of Authenticity)。鑒定證書具有持續(xù)性,一次鑒定之后,附隨藝術(shù)品而流轉(zhuǎn)。但當前藝術(shù)品鑒定證書自身的法律效力就備受質(zhì)疑,原因有二:第一,市場利益驅(qū)動下的商定或認定的“鑒定”證書缺乏法律認可的國家機構(gòu)的權(quán)威認定;第二,簽署鑒定證書的鑒定專家本人是否公開鑒定程序和鑒定依據(jù)并無法律強制性要求。推本溯源,鑒定專家出具的鑒定證書主觀因素較大,無法以此作為法律意義上的鑒定結(jié)論而存在。而人工智能對藝術(shù)品鑒定證書的參與,則打破這一僵局,其不以市場利益為導(dǎo)向以及鑒定過程的客觀性、全面性和公正性的優(yōu)點,較之于傳統(tǒng)的專家鑒定在法律效力認定上更勝一籌[12]。如日本NEC 公司已推出應(yīng)用人工智能的贗品檢測技術(shù),防止真?zhèn)舞b定書的盜用[13]。但值得注意的是,包括我國在內(nèi)的大部分國家鮮少要求書面的藝術(shù)品鑒定證書,更不用提及人工智能鑒定證書的法律效力認定,除非涉及藝術(shù)品真?zhèn)闻袛嗟耐?,人工智能鑒定證書是作為鑒定結(jié)論被呈堂上供并接受質(zhì)證。但即使在人工智能最為發(fā)達的美國,其《聯(lián)邦證據(jù)規(guī)則》(Federal Rules of Evidence)第602 條限制“非專家證人”(non-expert witnesses)僅就親身知曉(firsthand knowledge)的事實作證[14],意指人工智能作為非專家證人出具的鑒定證書是沒有法律效力的。
盡管在科技發(fā)達的國家,專家證據(jù)已成為現(xiàn)代訴訟證明活動的主角,但在法官看來,藝術(shù)品的專家鑒定結(jié)論是相對次要的,做出鑒定的“主體”才是主要[15]。在人工智能作出的藝術(shù)品鑒定結(jié)論被提出時,法官很自然會考慮鑒定主體的權(quán)威性以及鑒定主體的推理和證明過程,以及其他證據(jù)材料等的印證。因此,鑒定證書作為證據(jù)的作用是與鑒定主體本身密切相關(guān)。傳統(tǒng)的藝術(shù)品鑒定專家是具有專業(yè)鑒定知識或技能的一種評估專家,主要包括藝術(shù)史家、科學鑒定家以及風格鑒定家,無論哪種鑒定專家均具有長時間學習藝術(shù)的科學背景、長時間累計的豐富鑒定經(jīng)驗以及為同領(lǐng)域其他鑒定專家所認定的藝術(shù)品鑒定水平[16]。而從“鑒定專家”這一人工智能定位來說,現(xiàn)實中有很多強有力的證據(jù)表明人工智能能夠始終如一地執(zhí)行某一類別藝術(shù)品鑒定工作,這些工作是與人類的專業(yè)技能相關(guān),其鑒定正確率甚至超過依靠經(jīng)驗和眼力鑒別的專家,具備“鑒定專家”的資格。但如前文所述,現(xiàn)行藝術(shù)品人工智能大多源自符號主義運行程序,當其直接被冠以“鑒定專家”的法律身份時,這樣勢必會破壞傳統(tǒng)的法律范疇[17]。畢竟符號主義人工智能在今天無法承擔鑒定失誤帶來的法律后果,而具備自我意識和情感的連接主義人工智能尚游離在“鑒定工具”和鑒定專家的邊緣,其在藝術(shù)品鑒定爭議中的法律角色也只能作為輔助性證據(jù)而存在。
依據(jù)阿西莫夫機器人技術(shù)“三大法則”④阿西莫夫機器人學三法則為:第一法則:機器人不得傷害人類個體,也不得以其不作為致使人類個體受到傷害;第二法則:機器人應(yīng)當服從人類個體給予的所有命令,除非該命令違反第一法則;第三法則:機器人應(yīng)當在不違背第一法則或第二法則的范圍內(nèi)關(guān)注自己的安全。,機器人必須在不傷害人類個體利益的前提下嚴格遵循人類命令,但在藝術(shù)品鑒定應(yīng)用上,人工智能是否遵守三大法則尚值得商榷。目前歐洲議會不僅將這三大法則視為規(guī)范機器人與人類之間關(guān)系倫理規(guī)范,還將其擴大適用于智能設(shè)計、制造、商業(yè)化應(yīng)用,以及內(nèi)置自主權(quán)和自我學習的智能機器人等諸多方面的倫理守則[18]。換言之,當人工智能被商業(yè)化運用到藝術(shù)品市場鑒定中時,依據(jù)三大法則的第一法則,人工智能應(yīng)當為自身的鑒定結(jié)論對所其服務(wù)的人類負責,這也類似于藝術(shù)品鑒定服務(wù)提供者與服務(wù)購買者之間的合同法律關(guān)系。當基于人工智能設(shè)計者、制造者的過失或人工智能自身過失而導(dǎo)致藝術(shù)品鑒定結(jié)果出現(xiàn)了錯誤,使得真藝術(shù)品被鑒定為贗品或贗品被鑒定為真藝術(shù)品,實際市場價值和評估價值的過度不對稱,會給藝術(shù)品所有人、購買者以及拍賣行等造成巨大損失。因此,須基于人工智能的不同身份形式來界定人工智能在藝術(shù)品鑒定錯誤中的責任,主要體現(xiàn)在以下兩個方面:
第一,從符號主義人工智能的設(shè)計和制造瑕疵討論責任來看,目前人工智能用于藝術(shù)品鑒定技術(shù)尚未發(fā)展到可以獨當一面的階段,其只能輔助一兩個獨立要點,但無法直接給出藝術(shù)品真?zhèn)蔚慕^對性判斷,仍是人控制下的、人的能力的延伸物,因為其本身并沒有內(nèi)源性行為能力和權(quán)利能力,因而其實作為藝術(shù)鑒定關(guān)系的客體而非主體存在。歐洲議會2019 年1 月通過的《歐洲人工智能和機器人綜合產(chǎn)業(yè)政策報告》(Report on a comprehensive European industrial policy on artificial intelligence and robotics)對人工智能的責任作出明確界定,強調(diào)“人工智能工程師以及雇傭他們的公司應(yīng)對人工智能系統(tǒng)對現(xiàn)在和未來人類社會、環(huán)境以及健康所產(chǎn)生的影響繼續(xù)負責”[19]。所以說,考慮到人工智能設(shè)計者和制造者在設(shè)計或制造時對未來風險的可預(yù)見性,其應(yīng)對人工智能的鑒定錯誤行為承擔法律責任,即使鑒定協(xié)議中包含免責條款(nonliability clauses)。
第二,從連接主義人工智能在鑒定藝術(shù)品錯誤來看,其風險是不可預(yù)見的,主要原因在于真正具有自主性的人工智能循環(huán)神經(jīng)網(wǎng)絡(luò)不是運用人類設(shè)計的算法,而是產(chǎn)生其自己的新型算法(Novel Algorithm),即沒有人類實時控制而是按照預(yù)先編程或自動化的方式運行的智能行為[20]。但值得注意的是,設(shè)計者和制造者沒有預(yù)先設(shè)計人工智能的行為,也沒有在其進化過程中進行干預(yù),人工智能在藝術(shù)品鑒定過程中形成的自主學習能力,加上“信息黑箱”的存在(設(shè)計者本人可能都無法完全了解人工智能如何做出鑒定結(jié)論),因此很難人為控制和預(yù)測人工智能的行為,更加劇了鑒定結(jié)果的不可預(yù)見性⑤近日Facebook 人工智能實驗室的一項新研究就表明,科技巨頭銷售的物體識別算法在鑒別來自低收入國家的物品時表現(xiàn)得更差。研究人員測試了五種流行的現(xiàn)成對象識別算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜Rekognition和IBM Watson。而測試的圖像包括來自全球不同階級的家庭的家中用品的攝影圖像。這些圖像可能來自非洲布隆迪的一個月收入27美元的家庭,也可能來自烏克蘭一個月收入1 090美元的家庭。研究人員發(fā)現(xiàn),與月收入超過3 500美元的家庭相比,當被要求識別月收入50 美元的家庭的物品圖像時,物體識別算法的出錯率要高出10%左右。而且在識別來自美國的圖像時,算法的準確性也比識別來自索馬里或布基納法索的照片要高出15%至20%。,這為之后在認定人工智能在藝術(shù)品鑒定時的“意識形態(tài)”存在困難。與此同時,在責任主體的確定上,無過錯的設(shè)計者、制造者以及銷售者等主體如何歸責,則成為現(xiàn)行法律在確認藝術(shù)品鑒定錯誤責任分配上的阿克琉斯之踵。
基于循環(huán)神經(jīng)網(wǎng)絡(luò)的人工智能“鑒定專家”雖然被眾多學者鼓吹其“法律人格”的合理性以換取更為公正的藝術(shù)品鑒定市場,但從目前來看其并不足以達到連接主義高度,因而無法通過“一攬子立法”直接賦予其法律主體地位,在相應(yīng)責任界定上仍停留在產(chǎn)品責任階段。但科學的日新月異一直在凸顯法律配套機制的相對滯后性,另外,“藝術(shù)+科技”模式下的人工智能是高滲透性的,人工智能與其所處的物理環(huán)境(藝術(shù)市場)高度融合并與之協(xié)調(diào)一致僅僅是早晚問題,并隨著藝術(shù)市場和藝術(shù)法規(guī)的變化,其神經(jīng)網(wǎng)絡(luò)活動和物質(zhì)形態(tài)也在悄然發(fā)生變化,人類也不應(yīng)畏懼人工智能的反噬而利用法律加以極端約束[21]。因此,我們不能僅限于現(xiàn)行民事主體三元結(jié)構(gòu)或生物學來全盤否認人工智能在藝術(shù)品鑒定中的法律主體地位,也不能將鑒定錯誤責任全盤推給設(shè)計者或開發(fā)者承擔,應(yīng)當用發(fā)展和辯論的思維來分析藝術(shù)品人工智能鑒定的法律可行性。
法學界關(guān)于人工智能的法律主體定位爭議從未停止,勞倫斯·索倫很早就為協(xié)調(diào)這類爭議而提出兩種解決途徑:一是在特定情形下賦予人工智能“受托人”地位,二是賦予其憲法人格權(quán)[22]。但這種假設(shè)僅限于那些尚不具備自我意識與情感的人工智能。當人工智能發(fā)展為基于循環(huán)神經(jīng)網(wǎng)絡(luò)或人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network)的“專家系統(tǒng)”時,其主要特征即自學習性、自組織性以及自適應(yīng)性[23],可以根據(jù)藝術(shù)品種類的不同,任意確定神經(jīng)網(wǎng)絡(luò)規(guī)模和拓撲結(jié)構(gòu),較之封閉式人工智能,在藝術(shù)品鑒定領(lǐng)域已然顯示出超越人類鑒定專家的水平以及對大量藝術(shù)品和藝術(shù)家信息的超強記憶構(gòu)建,遠遠超過了目前作為“輔助科技”的鑒定工具范疇。因此,人工智能自主作出的藝術(shù)品鑒定結(jié)論,極有可能不在其設(shè)計者或制造者的主觀控制范疇內(nèi),即法律意義上的事實行為,也可以像現(xiàn)實中的公司法人一樣為自己的行為承擔相應(yīng)的法律后果,那么傳統(tǒng)的民事主體法律規(guī)則很難加以適用,因而存在專門針對這類人工智能的法律主體認定的必要。
另外,從法律主體理論來看,我們制定成文法的重要任務(wù)之一,即把現(xiàn)實中的人轉(zhuǎn)化為法律上的人,這種由法律抽象而形成的人,就是法學上所稱的“法律主體”[24]。法律主體的關(guān)鍵組成部分之一即“法律人格”,人格是法律從人中抽象出來的,有人格不代表一定是人,而人不一定有人格。所以說,具有藝術(shù)品自主鑒定思維的人工智能也可由法律將其抽象化,由相關(guān)機構(gòu)進行實質(zhì)性審查后以較高的認定標準來賦予其法律人格也未嘗不可,因為其上游設(shè)計者和制造者難以干預(yù)其在鑒定手段和結(jié)論上的獨立人格。但這并不是說所有的“專家系統(tǒng)”人工智能在藝術(shù)品鑒定中都會被賦予法律主體地位,畢竟藝術(shù)品鑒定本身是鑒定知識和經(jīng)驗的累計過程,無法通過具體人工智能語言(如lisp/prolog/smalltalk 等)或產(chǎn)生式規(guī)則來描述,盡管對人工智能法律主體地位的賦予并不會對人類本身產(chǎn)生高度危險,但對于任何新生事物的法律人格建立,我們?nèi)詰?yīng)秉持謹慎態(tài)度。
目前并沒有法律直接賦予鑒定藝術(shù)品鑒定證書以法定證據(jù)效力,然而,較之于擁有獨立“法律人格”的人工智能作出的藝術(shù)品鑒定證書,被定位為“輔助科技”的人工智能更容易被法庭視為安全可靠的科學鑒定手段,這類鑒定證書法律效力更易被法庭所認可(在日本,鑒定證書的證據(jù)作用就是由法官自由裁量的)。所以,法庭要著重審查的是,當有強有力的證據(jù)表明,擁有法律人格的人工智能在藝術(shù)品鑒定中的表現(xiàn)比一般的人類鑒定專家更好,其作出的鑒定證書是否被視為決策權(quán)威的來源?
杰森·米勒認為,“證據(jù)的規(guī)范性表明,專家型人工智能的出現(xiàn),就應(yīng)被視為決策權(quán)威的來源,而不僅僅是人類專家所考慮的支持知識的來源,對于那些他們最擅長的任務(wù),人工智能將提供最理想的結(jié)果”[25]。事實上,大多數(shù)不承認人工智能在藝術(shù)品鑒定證書上的法律效力而非對其法律人格的否定,而是對人工智能“專家系統(tǒng)”的專業(yè)性存在爭議。傳統(tǒng)的藝術(shù)品鑒定專家需具備長時間評估實踐和通過資格認證考試⑥我國對于藝術(shù)品鑒定師資格的考核賦予國家人力資源和社會保障部,由其鑒定中心指定機構(gòu)組織統(tǒng)一考試,合格者即可獲得由該鑒定中心頒發(fā)的藝術(shù)品鑒定師職業(yè)資格證書,這也是藝術(shù)品行業(yè)唯一國家職業(yè)資格證書,具有法律效力并可作為行業(yè)準入憑證。美國鑒定家協(xié)會認為,作為藝術(shù)鑒定家,應(yīng)滿足(1)對藝術(shù)品已有2到5年的評估實踐;(2)通過一定的考試測試;再如國際評估協(xié)會的標準:(1)藝術(shù)鑒定家已寫作一定的專著或是發(fā)表一定的重要論文;(2)已有3 年的從業(yè)經(jīng)驗;(3)通過一定的權(quán)威考試。,但基于神經(jīng)網(wǎng)絡(luò)的專家系統(tǒng)在藝術(shù)鑒定水平上不僅達到且超越人類專家的水平,行業(yè)標準難以作為法律效力形成的要件。在民事主體三元結(jié)構(gòu)下的人工智能若具備法律人格要件,其在特定藝術(shù)領(lǐng)域也可行使權(quán)利和履行義務(wù),包括獨立作出藝術(shù)品鑒定證書這種事實行為。但單獨的人工智能鑒定證書在藝術(shù)品買賣和司法過程中并不具有絕對的證明效力,只能在法庭上經(jīng)過嚴密質(zhì)證,或結(jié)合“專家系統(tǒng)”外在的綜合證據(jù)來間接證明其法律效力。
另值得注意的是,人工智能所作出藝術(shù)品鑒定證書并不當然具有絕對性法律效力,尤其當人工智能鑒定結(jié)論與人類專家存在分歧時,哪一方提供的藝術(shù)品鑒定證書更具有說服力?盡管國外學者更偏向于將分歧解決對策權(quán)力委托給人工智能[26],但就中國藝術(shù)表現(xiàn)形式來看未必適用。比如蘇東坡一生書法作品無數(shù),藝術(shù)水平亦有高低差異,反映的藝術(shù)情趣和境界方面亦各有不同,這和撰寫作品時的年齡、所處環(huán)境以及心緒都有微妙關(guān)聯(lián)。這種涉及對作者經(jīng)歷的復(fù)雜性和對其情感因素影響下的技術(shù)性與內(nèi)在規(guī)律的判斷,是當前人工智能無法做到的,當前和未來都還只能人類鑒定專家的研究與認知,因此在藝術(shù)領(lǐng)域斷定人工智能鑒定證書的法律效力還有很長的路要走。
現(xiàn)代嚴格責任制度的興起,目的在于回應(yīng)合同法——合同法本身也是一種較為晚近的制度創(chuàng)造——無法為通過多層銷售鏈銷售擴散的危險產(chǎn)品提供救濟[27]。當然人工智能鑒定并非“危險產(chǎn)品”,在相關(guān)責任確定上更多是基于藝術(shù)品鑒定合同而產(chǎn)生。當消費者向藝術(shù)品人工智能鑒定服務(wù)提供商購買針對某一藝術(shù)品的鑒定服務(wù)時,極有可能存在人工智能多層銷售鏈中設(shè)計者、制造者、銷售者以及操作者的過失而導(dǎo)致鑒定結(jié)論錯誤,也有可能是人工智能本身鑒定錯誤。毫無疑問,無辜的消費者不應(yīng)就此承擔瑕疵產(chǎn)品的成本,因此不論過失存在與否的嚴格責任原則被強行施加于以上主體。但鑒于人工智能在藝術(shù)品鑒定中的開放式發(fā)展趨勢,這就為上下游各方分配了不同的責任。
就鑒定風險可預(yù)見性而言,主要包括兩種情形:第一,從銷售鏈上游來看,無論未來人工智能發(fā)展到何種地步,都無法擺脫其為人類創(chuàng)造物的事實。當鑒定結(jié)論錯誤歸咎于設(shè)計瑕疵和制造缺陷,那么對設(shè)計者和創(chuàng)造者而言是可預(yù)見的風險,因而應(yīng)由其承擔因人工智能鑒定錯誤而產(chǎn)生的產(chǎn)品瑕疵責任;第二,從銷售鏈下游來看,銷售者的責任源于對人工智能的保管義務(wù)和公平交易義務(wù),而操作者的責任須強調(diào)其存在過失,如果因為其不當管理或操作者違反技術(shù)規(guī)范義務(wù)或其他注意義務(wù)而導(dǎo)致人工智能鑒定結(jié)果出現(xiàn)錯誤,就不能由設(shè)計者和開發(fā)者一同承擔,當責任成本大于創(chuàng)新成本時,嚴格責任原則反而成為人工智能鑒定技術(shù)創(chuàng)新步伐的絆腳石。
而從不可預(yù)見性來看,不同于傳統(tǒng)的產(chǎn)品侵權(quán),人工智能在藝術(shù)品鑒定過程中的自主思維沒有人類介入,人類無法預(yù)知鑒定風險,但“具有獨立人格的人工智能產(chǎn)生的責任無法苛責新技術(shù)的創(chuàng)造者”[28],我們不能一味苛求銷售鏈所有相關(guān)責任者承擔責任,這樣明顯對其不公。瑞恩·卡洛提出以保險作為輔助干預(yù)措施以彌補制造商責任豁免而人工智能擔責的局面[29],即設(shè)立人工智能鑒定錯誤保險制度。第一,保險水平取決于人工智能的性質(zhì)。針對藝術(shù)品鑒定的人工智能風險低、產(chǎn)品技術(shù)含量高且安全標準高,則較之于其他高度人身危險的人工智能設(shè)置低額度的投保和鑒定保險賠償;第二,尚需考慮鑒定結(jié)論對于藝術(shù)品交易所產(chǎn)生的市場價值波動,最低投保額度應(yīng)當不低于藝術(shù)品實際市場價值和人工智能評估價值之間的差額。這種保險的目的在于保持人工智能倫理底線的同時,也能在最大程度上彌補因藝術(shù)品鑒定錯誤帶給藝術(shù)品交易雙方的損失。
人工智能與法律,二者存在著諸多共同點,它們都需仔細評估系統(tǒng)邊界以對其成本與收益進行比較并甄別因果關(guān)系,最終都關(guān)心其所創(chuàng)造或管理的產(chǎn)品的實際使用情況,并且都意識到其應(yīng)用情況在很大程度上取決于人類。因此,當這兩者在藝術(shù)領(lǐng)域?qū)崿F(xiàn)交叉時,帶來的不僅是顛覆性科技革命,更多地是對傳統(tǒng)的藝術(shù)品鑒定法律機制形成前所未有的挑戰(zhàn)。藝術(shù)法與人工智能不再是光譜的兩端,人工智能鑒定正以其無可抵擋之勢攻占藝術(shù)這塊傳統(tǒng)上被認為是人類智慧金字塔頂尖的領(lǐng)域,由此衍生的法律人格賦予、法律主體地位以及責任區(qū)分等法律問題成為法學家和藝術(shù)家們亟需攻克的重大命題。盡管目前大數(shù)據(jù)時代下的人工智能鑒定正呈現(xiàn)出有利于藝術(shù)市場蓬勃發(fā)展的一面,但藝術(shù)本身的評價和表達是主觀的,且目前人工智能鑒定尚未突破藝術(shù)主觀表達的情感和經(jīng)驗瓶頸,我們須從法律層面跟進“藝術(shù)+科技”的創(chuàng)新并為其保駕護航,使得藝術(shù)品人工智能鑒定趨于理性化、規(guī)范化發(fā)展。