胡 光, 楊珍珠
(河南師范大學(xué) 知識產(chǎn)權(quán)學(xué)院, 河南 新鄉(xiāng) 453007)
1. 基于人工智能技術(shù)的發(fā)明分析
“人工智能”技術(shù)按照“智能”形成度和功能實現(xiàn)度可進行以下分級:初級也就是最基礎(chǔ)的“人工智能”(artifitial intelligence)。由知識庫(可稱為專家系統(tǒng))形成,本質(zhì)上是利用設(shè)定的規(guī)則對存儲數(shù)據(jù)進行整理,并從這些數(shù)據(jù)中得出邏輯結(jié)論,其中數(shù)據(jù)和規(guī)則都必須由人工智能的操作者提供。第二級為“機器學(xué)習(xí)”。在機器學(xué)習(xí)過程中,利用程序工程師提供的輸入和輸出數(shù)據(jù),算法分析程序可以找到其中存在的規(guī)律,將輸入數(shù)據(jù)映射到輸出結(jié)果(邏輯回歸)中,從而在不依賴輸出數(shù)據(jù)的情況下對新的輸入數(shù)據(jù)進行預(yù)測。機器學(xué)習(xí)的貢獻在于能夠自我設(shè)計規(guī)則,其尋找規(guī)則的過程通常稱為“訓(xùn)練”,使用的數(shù)據(jù)稱為“訓(xùn)練數(shù)據(jù)”(training data)。第三級為“表征學(xué)習(xí)”(representation learning)。這一級別主要針對非結(jié)構(gòu)化的數(shù)據(jù)。人工智能程序可將輸入數(shù)據(jù)轉(zhuǎn)換成更能夠解決特定問題的現(xiàn)實形式。與機器學(xué)習(xí)相比,具備表征學(xué)習(xí)能力的人工智能技術(shù)可以提供更具針對性的結(jié)果,但其學(xué)習(xí)以及表征生成的過程不易描述,這會給現(xiàn)有“充分披露”原則的實現(xiàn)帶來實質(zhì)性挑戰(zhàn)。第四級為“深度學(xué)習(xí)”(deep learning)。深度學(xué)習(xí)是表征學(xué)習(xí)的子集,是具有多個層級(稱為“depth”)的模型——通用術(shù)語為“多層感知器”(multi-layer perceptron)。
就功能而言,前兩個級別——知識庫整理和邏輯回歸分析——通常用于處理“對人類來說很難但對計算機來說很容易”的事務(wù),例如將預(yù)先確定的規(guī)則應(yīng)用于大數(shù)據(jù)集;而表征學(xué)習(xí)尤其是深度學(xué)習(xí),多用于處理“對人類容易但對計算機卻難的事情”,例如模式識別、圖像處理或自然語言處理[1]。對于具備初級和部分第二級別功能的人工智能,現(xiàn)有的專利理論中用于判斷計算機軟件發(fā)明的方法可以適用,這意味著沒有直接耦合到特定應(yīng)用程序的人工智能算法,如果僅僅涉及相對簡單或單一的數(shù)學(xué)方法(例如邏輯回歸)則不具備可專利性(1)在美國的Mayo標(biāo)準(zhǔn)框架下,判斷方法基于以下假設(shè):第一步,作為數(shù)學(xué)概念的基本人工智能算法是一個抽象的概念,因此沒有資格申請專利。但是第二步則提出,司法上的例外可以納入實際應(yīng)用,為人工智能算法專利留下空間。參見:2019 Revised Patent Subject Matter Eligibility Guidance,www.govinfo.gov/content/pkg/FR-2019-01-07/pdf/2018-28282.pdf.。第三和第四級是需要關(guān)注的重點,特別是“深度學(xué)習(xí)”層級,這類系統(tǒng)可能具有大量的隱藏層,其權(quán)重在學(xué)習(xí)/培訓(xùn)過程中、在沒有人工干預(yù)的情況下允許自主完善。
基于此,人工智能發(fā)明可以分類如下:(1)體現(xiàn)人工智能領(lǐng)域進步的發(fā)明(例如,改進的機器學(xué)習(xí)(ML)模型或新算法下的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu));(2)將人工智能應(yīng)用于人工智能以外領(lǐng)域的發(fā)明;(3)人工智能自主生成的發(fā)明。
2. 人工智能生成發(fā)明的運行原理
建立一個神經(jīng)網(wǎng)絡(luò)算法的基本過程包括:第一步“問題輸入”,即將問題轉(zhuǎn)變?yōu)榭奢斎肷窠?jīng)元的數(shù)據(jù)信息(二位數(shù)字所代表的聲音、圖像等信息)。第二步“設(shè)定拓?fù)浣Y(jié)構(gòu)”,即設(shè)立多層神經(jīng)元進行識別實驗。第三步“訓(xùn)練神經(jīng)元”,即選取問題實例,反復(fù)運行識別實驗。其中,確定拓?fù)浣Y(jié)構(gòu)的多種不同方法、確定最終輸出存在的方法以及訓(xùn)練期間調(diào)解突觸強度所用的不同方法等所形成的變體,在設(shè)計中都必須具有可行性[2]。
對于具有自主學(xué)習(xí)能力的深層神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)推理的過程被嵌入數(shù)千個模擬神經(jīng)元的活動,這些神經(jīng)元排列在數(shù)十個甚至數(shù)百個錯綜復(fù)雜的互聯(lián)層中。第一層中的神經(jīng)元接收一個輸入信息,比如圖像中像素的強度等,然后在輸出新信號之前進行計算,產(chǎn)生的結(jié)果被輸送到下一層的神經(jīng)元,依此類推,直至達到設(shè)定之目標(biāo)。此外,還有一個被稱為反向傳播的過程,它會調(diào)整單個神經(jīng)元的計算,讓網(wǎng)絡(luò)學(xué)會產(chǎn)生所需的輸出,這一過程與人腦的運行機理極其相似。“對于機器學(xué)習(xí)最好的理解就是,他們發(fā)展出自己的直覺力,然后用直覺來行動,這和以前的謠言——它們只按照編好的程序工作——大不相同”[3]。也就是說,要求人工智能具有意識和情感,在現(xiàn)階段以及今后的很長時間也許無法實現(xiàn),但是按照有關(guān)學(xué)者的預(yù)測,對人腦仿真的創(chuàng)造性思維卻可以完成:“大腦極大的可塑性使我們能夠進行學(xué)習(xí)。但計算機的可塑性更大,通過改變軟件完全可以重建它的工作”“因為數(shù)字化計算可以實現(xiàn)任意精度的對模擬值的仿真”[1]。正因如此,世界著名人工智能研發(fā)機構(gòu)——麻省理工學(xué)院的學(xué)者這樣描述人工智能深度學(xué)習(xí)系統(tǒng):“這個系統(tǒng)太復(fù)雜了,即使是設(shè)計它的工程師也很難找出其產(chǎn)生任何單一行動的本質(zhì)原因。”[4]以至于,麻省理工學(xué)院的研究人員在使用人工智能深度學(xué)習(xí)算法發(fā)現(xiàn)一種新的抗生素之后,描述這一系統(tǒng)為“從事某種智能活動(doing something intelligent)”[5]。可見,人工智能的創(chuàng)造性功能的發(fā)展在一定程度已經(jīng)得到證實和認(rèn)同。
在解決人工智能生成發(fā)明所涉公開問題之前,首先要對專利“公開”制度設(shè)計的初衷予以回歸性解釋。專利法上“充分公開”原則設(shè)立的基本目的在于通過“專利說明書”“權(quán)利要求書”等專利申請文獻,清楚且充分地描述發(fā)明客體,以使本領(lǐng)域普通技術(shù)人員能夠?qū)υ摪l(fā)明予以復(fù)制并以最佳的方式實施。以美國為例,其專利法中規(guī)定了三項獨立而明確的披露要求:書面描述、適用性和最佳模式[6]。根據(jù)美國專利商標(biāo)局所制定的審查指南,專利說明書應(yīng)當(dāng)能夠指導(dǎo)本領(lǐng)域的普通技術(shù)人員如何在不需要通過非適當(dāng)性試驗的情況下制造和使用所要求保護的發(fā)明,在確定專利說明書是否滿足申請要求以及是否存在必要的不適當(dāng)性試驗時,審查員可以利用“WANDS”要素予以判斷,具體包括:權(quán)利要求的廣度、發(fā)明的性質(zhì)、現(xiàn)有技術(shù)的狀況、普通技術(shù)人員的水平、本領(lǐng)域的可預(yù)測性水平、發(fā)明人提供的指導(dǎo)案例、是否存在工作實例,以及根據(jù)本發(fā)明公開內(nèi)容制作或使用本發(fā)明所需的實驗量等[7]。這些要求適用于在美國所有的專利申請,包括那些針對人工智能生成發(fā)明的申請。我國最新修訂的《專利審查指南》中所要求的審查員能夠“理解發(fā)明的一般路徑,……在理解發(fā)明時應(yīng)當(dāng)充分了解背景技術(shù)整體狀況、理解發(fā)明的技術(shù)方案所能帶來的技術(shù)效果、明確發(fā)明相對于背景技術(shù)所作出的改進”[8],實質(zhì)上是對“充分公開”所應(yīng)達到之目的的一般性限定?!俺浞止_”制度的設(shè)計雖然具有鼓勵技術(shù)傳播、促進技術(shù)的價值溢出,減少重復(fù)的研究成本等多層價值面向和功能指向,但其核心功能在于可以根據(jù)所提供的書面材料(專利說明書等),確保發(fā)明人實際上已經(jīng)創(chuàng)造并擁有要求保護的發(fā)明,并且所屬領(lǐng)域的普通技術(shù)人員無需通過過度試驗即可理解、應(yīng)用該技術(shù),進而能夠適用于生產(chǎn),產(chǎn)生價值,推動進步,即滿足“可實施性條件”和“合理支持條件(書面描述)”。因此,人工智能生成發(fā)明如果希望獲得專利,則所面臨的專利充分公開問題主要是通過何種方式實現(xiàn)申請專利發(fā)明信息的透明,以期在最大限度內(nèi),在滿足權(quán)利人利益要求、確保專利功能的實現(xiàn)以及促進社會科學(xué)進步三者之間找到最佳平衡點。因而,該制度是關(guān)乎整個專利制度價值得以實現(xiàn)的核心問題之一。IEEE在為美國政府有關(guān)人工智能生成發(fā)明制度所作的咨詢報告中就曾強調(diào),“解決目前人工智能生成/輔助專利范圍的不確定性將有利于人工智能技術(shù)的發(fā)展”“人工智能生成/輔助專利的專利申請人將受益于該技術(shù)所能披露的信息所帶來的更多的確定性”[9],人工智能生成發(fā)明公開制度也必須圍繞這一核心目的進行設(shè)置。
1. 充分公開內(nèi)容確定
人工智能算法的輸出結(jié)果雖然是由數(shù)據(jù)和代碼決定的,其過程并不會比自然現(xiàn)象更難以分析和解釋,但深度學(xué)習(xí)并不完全遵循“數(shù)據(jù)輸入—特征提取—特征選擇—邏輯推理—預(yù)測”這一規(guī)律,而是由計算機直接從事物原始特征出發(fā),自動學(xué)習(xí)和生成高級的認(rèn)知結(jié)果。在人工智能輸入的數(shù)據(jù)和其輸出的結(jié)果之間,存在著無法洞悉的、被稱為“黑箱”(black box)的“隱層”。這里的“黑箱”不但意味著不能觀察,還意味著即使人工智能試圖向設(shè)計者予以解釋,設(shè)計者可能也無法理解。那么,如果人類對人工智能生成發(fā)明的過程處于不能完全知悉的狀態(tài),就不能實現(xiàn)人類自身發(fā)明創(chuàng)造之技術(shù)場景的“重現(xiàn)”或“再現(xiàn)”,普通技術(shù)人員要想重復(fù)該發(fā)明,則必須最大限度地明確獲知人類培訓(xùn)人工智能所使用之?dāng)?shù)據(jù)、模型等,以實現(xiàn)技術(shù)場景“預(yù)現(xiàn)”。在這種情況下,充分公開所涉內(nèi)容如果僅僅局限于說明算法,而不能闡釋算法運行之模式,那么對于“深度學(xué)習(xí)”而言,即使對基本模型進行充分的描述,技術(shù)人員仍然沒有足夠的信息來重現(xiàn)該模型,若想達到充分公開之目的,目前仍然需要至少公開以下兩項內(nèi)容:一是對培訓(xùn)數(shù)據(jù)的使用,包括模型的每個學(xué)習(xí)系數(shù)或權(quán)重;二是對模型培訓(xùn)方式的描述。
2. 經(jīng)濟效益要素考量
對于高科技產(chǎn)業(yè)而言,在需要考慮的外部性要素中,經(jīng)濟效益平衡問題是重點之一,因為“從專利制度鼓勵技術(shù)知識傳播的社會目標(biāo)角度看,技術(shù)溢出使既有專利較早進入公共領(lǐng)域,客觀上有利于整個社會技術(shù)知識的共享和傳播。但是,從專利制度鼓勵研發(fā)投資的社會目標(biāo)角度看,技術(shù)外溢降低了既有專利的私人價值,可能降低創(chuàng)新者研發(fā)投資和申請專利的積極性”[10]。
現(xiàn)階段,人工智能技術(shù)的開發(fā)和應(yīng)用涉及大量初創(chuàng)公司和一些小型經(jīng)濟實體,如果對人工智能生成發(fā)明在“充分公開”的要求方面采用過于嚴(yán)苛的標(biāo)準(zhǔn),而要求披露傳統(tǒng)計算機硬件/軟件的特性和操作以及訓(xùn)練模型、數(shù)據(jù)和模塊等,則會給他們帶來沉重的經(jīng)濟、法律和技術(shù)負(fù)擔(dān)。以美國為例,2020年8月3日,美國初創(chuàng)企業(yè)與發(fā)明人促進就業(yè)聯(lián)盟(USIJ)發(fā)布了題為《有效可靠的專利制度對關(guān)鍵技術(shù)投資的重要性》的報告,指出專利制度的變化正導(dǎo)致風(fēng)險投資在開發(fā)專利密集型高科技企業(yè)資金中所占份額大幅下降。2004年,風(fēng)險投資大部分流向?qū)@芗椭圃鞓I(yè)。及至2017年,這些專利密集型行業(yè)獲得的資金份額從2004年的50%以上下降至2017年的28%(2016年達到24.5%的低點)[11]。這一數(shù)據(jù)表明,過于嚴(yán)苛的專利審查制度會影響資本投入,從而降低以變革性技術(shù)為特征的專利密集型企業(yè)的創(chuàng)新能力。而訓(xùn)練數(shù)據(jù)又具有重要的獨立價值(3)有理論認(rèn)為,雖然目前沒有專門針對人工智能算法數(shù)據(jù)的知識產(chǎn)權(quán)保護法規(guī),但培訓(xùn)數(shù)據(jù)可以作為商業(yè)秘密保護,如果培訓(xùn)數(shù)據(jù)提供了一些新的和有用的結(jié)果,則可以作為專利保護。,將其公之于眾可能會阻礙初創(chuàng)企業(yè)替代性收入來源,或者輔助競爭對手更快地啟動周邊設(shè)計的方案研發(fā),加速競爭。因此,在制定涉及人工智能生成發(fā)明的披露標(biāo)準(zhǔn)時,有必要對公開的程度設(shè)定可供操作的邊界,以達到技術(shù)創(chuàng)新擴散所產(chǎn)生的經(jīng)濟效應(yīng)與初創(chuàng)高科技型企業(yè)成本優(yōu)化之間的平衡。
1. 數(shù)據(jù)的公有留存與安全供給
學(xué)者們在討論解決黑箱問題時提出“追蹤數(shù)據(jù)來源的方式有助于人們更正錯誤”“如果不良數(shù)據(jù)的后續(xù)使用者不知道該數(shù)據(jù)的來源,他們可能就不會相信數(shù)據(jù)當(dāng)事人。如果他們能夠跟蹤數(shù)據(jù)的出處,更正過程就會容易得多”[12]。設(shè)計一套對人工智能訓(xùn)練數(shù)據(jù)持續(xù)性供給的監(jiān)管技術(shù),以確保對在發(fā)明使用過程中所出現(xiàn)的問題能夠依據(jù)數(shù)據(jù)之出處予以適度修正,對于人工智能生成發(fā)明的披露具有重要意義。
數(shù)據(jù)保存最為重要的目的是在記錄、確保數(shù)據(jù)安全并持續(xù)更新的基礎(chǔ)上,在滿足人工智能學(xué)習(xí)需要的同時保證發(fā)明的適用性。鑒于人工智能系統(tǒng)的復(fù)雜性、內(nèi)部運行的不透明以及難以快速驗證等特征,更應(yīng)當(dāng)確保與算法、編程有關(guān)的測試記錄,以及有關(guān)建立、測試和驗證人工智能系統(tǒng)的訓(xùn)練方法、使用流程和相關(guān)技術(shù)的資料文件,包括預(yù)先制定的安全措施和避免歧視偏見的應(yīng)對方案等得到有效留存,并準(zhǔn)確記錄特定情形下高風(fēng)險人工智能應(yīng)用測試的數(shù)據(jù)集,詳細描述數(shù)據(jù)集的主要特征和選擇方式。事實上,信息的留存問題并不是人工智能技術(shù)所獨有的,其已經(jīng)在一個完全不同的專利領(lǐng)域得到解決,即涉及微生物的發(fā)明。為了從基本材料中產(chǎn)生有用的物質(zhì),生物技術(shù)的發(fā)明可能會使用微生物,對于涉及的生物材料很難僅僅通過書面形式予以充分描述。如果說明書對如何制造要求保護的發(fā)明作出了充分指引,那么多大程度上允許公眾訪問、獲得這些微生物材料就決定了該項發(fā)明的實現(xiàn)程度。為解決這一問題,需要建立一整套在嚴(yán)格條件下保存、獲得生物材料的存儲系統(tǒng)。根據(jù)1977年《布達佩斯條約》(Budapest Treaty 1977)規(guī)定,如果相關(guān)的書面說明被認(rèn)為不足以描述樣品的特征或者不夠充分,則專利申請人可提取存放在指定國際保存機構(gòu)(international depositary authority,簡稱IDA)的微生物樣本,以滿足專利描述的要求(4)1977年《布達佩斯條約》即The Budapest Treaty on the International Recognition of the Deposit of Microorganisms for the Purposes of Patent Procedure,是一項國際專利法條約,最初于1977年4月28日簽署,第一次于1980年8月9日生效。世界知識產(chǎn)權(quán)組織負(fù)責(zé)條約的管理。截至2019年8月,“布達佩斯條約”共有82個締約國。該條約規(guī)定了關(guān)于存放和儲存生物材料的具體條款。條約要求所有簽署人按照規(guī)定的條件將生物材料予以儲存并提供使用權(quán)限,有權(quán)接受儲存樣本的締約方包括儲戶、任何持有存放人書面授權(quán)的人以及任何宣布正在處理與儲存材料有關(guān)專利申請的知識產(chǎn)權(quán)局。。由于神經(jīng)網(wǎng)絡(luò)具有模仿生物網(wǎng)絡(luò)特性,因此,獲得人工智能發(fā)明專利的數(shù)據(jù)留存可以參考建立類似于生物材料存儲的人工智能培訓(xùn)數(shù)據(jù)公有保理系統(tǒng),用于保存培訓(xùn)數(shù)據(jù),并通過明確制定獲取數(shù)據(jù)的法定條件,一方面促進公眾合法獲得專有數(shù)據(jù)進行研究,另一方面保護提供上述數(shù)據(jù)的專利申請人利益,推動類似于人工智能系統(tǒng)等在內(nèi)的需要大規(guī)模數(shù)據(jù)披露和使用的技術(shù)專利公開(5)還有一種被稱為“數(shù)據(jù)大使館”的跨境數(shù)據(jù)共管模式,即外國政府對存儲在他國數(shù)據(jù)中心的數(shù)據(jù)保持管轄權(quán),允許將數(shù)據(jù)儲存在特定國家數(shù)據(jù)中心的外國主體在面臨與數(shù)據(jù)相關(guān)的任何爭議時,只受自己國家法律的專屬管轄,不適用于數(shù)據(jù)存儲國的法律——相當(dāng)于這些數(shù)據(jù)獲得了“外交豁免”,以推動數(shù)據(jù)信息安全流動。。
2. 數(shù)據(jù)的合法與安全使用
數(shù)據(jù)是人工智能的基礎(chǔ)要素,獲得初步開發(fā)和持續(xù)培訓(xùn)的數(shù)據(jù)對于人工智能功能的實現(xiàn)非常重要,因此,數(shù)據(jù)和數(shù)據(jù)集都極其具有價值,特別是“大數(shù)據(jù)”(如可以通過計算分析以揭示模式、趨勢和關(guān)聯(lián)的超大數(shù)據(jù)集等)。專利公開原則要求權(quán)利要求書中的信息應(yīng)該受到保護,而說明書中的信息則可以自由使用,那么,除專利“公開”之技術(shù)性要求外,人工智能生成發(fā)明如果需要公開數(shù)據(jù),會面臨一個規(guī)范性問題——數(shù)據(jù)的合法使用。雖然在不涉及敏感數(shù)據(jù)使用的情況下(比如人工智能在天氣預(yù)報或天文學(xué)中的應(yīng)用等)不涉及數(shù)據(jù)的保護,但絕大多數(shù)情況下人工智能確實需要使用或收集個人數(shù)據(jù),并且在一定程度上存在大量的個人數(shù)據(jù)被用來訓(xùn)練和測試人工智能的情況。例如,歐洲專利局曾以披露不足為由駁回一項涉及人工智能的發(fā)明(6)該發(fā)明為使用人工神經(jīng)網(wǎng)絡(luò)程序?qū)⑼庵軠y得的血壓曲線轉(zhuǎn)化為等效主動脈瓣壓。,在駁回決定中專利局指出,根據(jù)歐洲專利法第83條之規(guī)定,歐洲專利申請應(yīng)當(dāng)以一種足夠清晰和完整的方式披露該項發(fā)明,披露程度必須達到使該領(lǐng)域的技術(shù)人員能夠根據(jù)他/她的一般常識,并依據(jù)該技術(shù)再現(xiàn)所聲稱的發(fā)明。專利審核委員會同時認(rèn)為,這項基于人工智能技術(shù)的發(fā)明應(yīng)用:“無論是要求還是描述都沒有包含人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練的細節(jié),而僅僅表明權(quán)值是由機器學(xué)習(xí)決定的”[13],特別是缺少不同年齡、性別、體質(zhì)類型、健康狀況等患者的信息,所披露的內(nèi)容沒有揭示哪些輸入數(shù)據(jù)適合于訓(xùn)練所發(fā)明的人工神經(jīng)網(wǎng)絡(luò),或者至少有一個適合于解決當(dāng)前技術(shù)問題的數(shù)據(jù)集。因此,該項基于人工智能神經(jīng)網(wǎng)絡(luò)的專利沒有滿足充分披露的條件,造成該人工智能神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法無法由技術(shù)人員再現(xiàn),進而不能重復(fù)發(fā)明過程。依據(jù)該案例,涉及人工智能系統(tǒng)的發(fā)明,其公開范圍除去系統(tǒng)本身運行之基本技術(shù)特征外,還應(yīng)當(dāng)涵蓋人工智能數(shù)據(jù)選擇與處理的方法。在這種情況下,要想滿足充分公開的要求,就會涉及大量的個人信息。根據(jù)歐盟《通用數(shù)據(jù)保護條例》(TheGeneralDataProtectionRegulation,簡稱GDPR),使用個人數(shù)據(jù)信息要遵守“透明性原則”,即在考慮個人數(shù)據(jù)具體情況和背景的前提下,盡最大之可能確保信息使用的透明度,即清晰、公開和誠實地向公眾提供如何以及為何使用個人數(shù)據(jù),包括:原理說明,發(fā)明的原因可以以可訪問的非技術(shù)方式予以解釋;責(zé)任說明,誰參與人工智能系統(tǒng)的開發(fā)、管理和實施,以及如何對最終的發(fā)明進行人工審查;數(shù)據(jù)說明,在特定決策中使用了哪些數(shù)據(jù)以及如何使用。具體到人工智能發(fā)明專利則意味著,如果不向公眾公開關(guān)于人工智能生成發(fā)明是如何以及為什么做出、所使用的個人數(shù)據(jù)如何被用來訓(xùn)練和測試人工智能系統(tǒng),就會違反透明性原則。除此之外,基于數(shù)據(jù)的高流動性,建議由國際社會牽頭設(shè)計一套國際化數(shù)據(jù)流轉(zhuǎn)安全機制[14],例如:通過設(shè)立標(biāo)準(zhǔn)(包括關(guān)于數(shù)據(jù)格式、定義、結(jié)構(gòu)、標(biāo)記、傳輸、操作、使用和管理的相關(guān)協(xié)議)確保數(shù)據(jù)能夠在不同系統(tǒng)中重復(fù)使用。鼓勵利用區(qū)塊鏈或者通用安全加密技術(shù)等記錄數(shù)據(jù)獲取和收集的歷史維護數(shù)據(jù)源,確保數(shù)據(jù)的真實性(7)例如WIPO開發(fā)的“WIPO PROOF”安全在線網(wǎng)站,允許申請人請求針對特定數(shù)字文件的WIPO PROOF令牌。該系統(tǒng)依托世界上最強大和最嚴(yán)格的標(biāo)準(zhǔn)之一——eIDAS標(biāo)準(zhǔn)設(shè)計和開發(fā),使用公鑰基礎(chǔ)結(jié)構(gòu)(PKI)技術(shù)生成WIPO PROOF令牌,系統(tǒng)不會讀取文件的內(nèi)容或存儲文件的副本,而是根據(jù)安全單向算法與請求者的瀏覽器進行本地交互,以創(chuàng)建文件的唯一數(shù)字指令,為信息提供最高級別的確定性,即令牌上的日期和時間是準(zhǔn)確且未被篡改的。任何人(甚至第三方)都可以通過遵循一些簡單的步驟在網(wǎng)站上驗證WIPO PROOF令牌。參見WIPO PROOF:WIPO Introduces New Business Service That Provides Evidence of An Intellectual Asset’s Existence,https://www.wipo.int/pressroom/en/articles/2020/article_0012.html.。
現(xiàn)階段以神經(jīng)元網(wǎng)絡(luò)技術(shù)為代表的人工智能系統(tǒng),已經(jīng)能夠通過大量可持續(xù)供給的數(shù)據(jù)學(xué)習(xí)找到事物之間關(guān)聯(lián),發(fā)現(xiàn)其中的規(guī)律,產(chǎn)生新的知識并自主創(chuàng)造出新的產(chǎn)品或工藝。并且,伴隨技術(shù)的不斷進步和數(shù)據(jù)信息量的疊加,人工智能在提供新知識、新技術(shù)和新發(fā)現(xiàn)上的能力必將隨之增長,其發(fā)展?jié)摿赡苓h遠超過人類在這幾百年工業(yè)革命中的規(guī)模和速度,而人類介入之影響亦必隨之減弱。做好人工智能作為產(chǎn)品和技術(shù)發(fā)明者的準(zhǔn)備且應(yīng)將其盡快提上日程。即使人工智能在知識產(chǎn)權(quán)權(quán)利主體性方面由于道德或倫理的限制無法在短期內(nèi)獲得突破,但其生成發(fā)明的專利認(rèn)定對于促進這一變革性技術(shù)的發(fā)展與新業(yè)態(tài)的繁榮具有重要意義。因此,在既有專利公開制度的基礎(chǔ)上,通過公開人工智能生成發(fā)明中的數(shù)據(jù)、訓(xùn)練模型并利用類似于微生物保藏的算法建立保藏體系和跨地域的數(shù)據(jù)安全模式,可以一定程度上解決人工智能生成發(fā)明專利公開的“黑箱”問題,滿足充分公開之要求。