吳育珊 杜 昕
2023年4月28日,中共中央政治局召開會議[1],明確指出要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風險。相較于具有領(lǐng)域局限性的專用人工智能(Artificial Narrow Intelligence,簡稱“ANI”),通用人工智能(Artificial General Intelligence,簡稱“AGI”)減少了對特定領(lǐng)域知識的依賴性、提高了處理任務的普適性,是人工智能未來的發(fā)展方向[2]。這意味著人工智能將廣泛應用于包括法律在內(nèi)的諸多領(lǐng)域,2023年1月30日世界首份應用ChatGPT輔助作出的判決[3]就是例證之一。在這一背景下,人類與人工智能之間的關(guān)系定位也引發(fā)全球熱議。
就我國立法而言,2022年12月8日,最高人民法院印發(fā)《關(guān)于規(guī)范和加強人工智能司法應用的意見》[4],明確要求堅持人工智能對審判工作的輔助性定位,并將之確立為人工智能司法應用的基本原則之一。這是人工智能之輔助性定位原則在司法應用方面的體現(xiàn),明確了人工智能司法應用中的人機關(guān)系。人工智能之輔助性定位原則是如何提出的?具有怎樣的功能?在此基礎上討論其規(guī)范構(gòu)造,是本文的問題意識所在。
當前,人工智能發(fā)展再一次邁入關(guān)鍵時期,以生成式人工智能(Generative AI或AI Generated Content,簡稱“AIGC”)[5]為代表的新技術(shù)、新應用不斷打破人們對于人工智能的固有認知,人工智能的應用正由機械延伸人類能力向生成創(chuàng)意內(nèi)容以啟發(fā)人類創(chuàng)造力的方向邁進。隨著自然語言處理和計算機視覺技術(shù)的進步,生成式人工智能研發(fā)不斷深入,其應用場景涵蓋教育、醫(yī)療、法律、文學、傳媒、影音創(chuàng)作、圖表制作、算法編程、軟件開發(fā)等諸多需要文本生成、圖像生成或其他有內(nèi)容生成任務的領(lǐng)域。在具體應用過程,最前沿的人工智能不僅可以進行自動、機械地勞動作業(yè),還可以生成具有啟發(fā)價值的結(jié)果,為人類進一步深度創(chuàng)造提供參考素材。這意味著,人類在未來各個場景的工作效率將大幅提升,工作內(nèi)容將朝著更具創(chuàng)造性的方向發(fā)展,工作形式也將更加自由。換言之,人工智能的發(fā)展不僅會改變?nèi)祟惖奈镔|(zhì)生產(chǎn)形態(tài),還將逐步改變?nèi)祟惖乃枷肷a(chǎn)形態(tài),實現(xiàn)由機械性賦能向創(chuàng)造性賦智轉(zhuǎn)變[6]。在這一背景下,討論人工智能與人類之間的關(guān)系定位變得至關(guān)重要。
人工智能與人類之間的關(guān)系定位所映射的法律問題為“是否應賦予人工智能以法律主體資格”。根據(jù)目前人工智能最前沿的GPT-4的技術(shù)報告[7]顯示,其在許多領(lǐng)域的專業(yè)基準上已表現(xiàn)出與人類相當甚至更為優(yōu)秀的水平,這意味著以自然語言處理和計算機視覺技術(shù)為基礎并且具備深度學習能力的人工智能已經(jīng)可以通過大數(shù)據(jù)訓練進行自主決策或?qū)Νh(huán)境作出自主回應。人工智能的這種內(nèi)生自主性特征引發(fā)了“是否應賦予人工智能以法律主體資格”的爭論。具體觀點主張如下:
不賦予人工智能以法律主體資格。這一觀點對應了安德魯·芬伯格[8]劃分的工具理論(Instrumental Theory),工具理論的主要代表人物是卡爾·雅斯貝斯,他認為“技術(shù)本身既無善也無惡,但它既可用于善也可用于惡。它本身不包含任何理念,既不包含完美的理念,也不包含邪惡的毀滅理念。善惡的理念都源自于人,是人賦予技術(shù)以意義”[9]。工具理論因其更符合常識而被學界廣泛接受,例如有學者認為“電子計算機沒有好惡、親疏等感情因素,在某種程度上可以避免法律工作者憑自己的情感,一時的沖動來處理問題”[10];有學者提出要“實現(xiàn)對人的行為而非對技術(shù)本身的規(guī)制”[11];還有學者指出“就技術(shù)實質(zhì)而言,算法本身是中立的”[12]等。然而,人工智能目前已經(jīng)呈現(xiàn)出內(nèi)生自主性特征,算法設計者無法預知算法經(jīng)過訓練自主迭代生成的新算法,亦即人類無法像過去掌控工具一樣完全絕對地控制人工智能,工具理論已不再契合實際情況。對此,有觀點提出應賦予人工智能以法律主體資格。
賦予人工智能以完全法律主體資格。與工具理論相對的是實體理論(Substantive Theory),主要代表人物是雅克·埃呂爾[13]和馬丁·海德格爾[14]。實體理論主張?zhí)鋈祟愔行闹髁x的局限,摒棄人類作為主體、技術(shù)作為客體的“主客二分”預設,認為現(xiàn)代科技是一個具備內(nèi)生自主性且有擴張傾向的價值實體。在實體理論的啟發(fā)下,有觀點結(jié)合人工智能的發(fā)展實際提出應賦予其以完全法律主體資格,勞倫斯·索勒姆[15]是這一觀點的代表人物,他認為當人工智能通過圖靈測試,擁有與人類等同的所有功能,亦即發(fā)展成所謂超級人工智能(Artificial Super Intelligence,簡稱“SuperAI”或“ASI”)[16]時,就可以成為憲法意義上的主體。然而,即使人工智能發(fā)展到通過圖靈測試的水平,在行為與功能方面表現(xiàn)出類人甚至超人的應對能力,這種應對能力也只是基于訓練數(shù)據(jù)做出的概率性優(yōu)化選擇,其自身既無法像人類一樣體會享有權(quán)利的激勵,也難以感知受到懲罰的悔過。換言之,人工智能并不能與其他法律主體享有同等的權(quán)利、履行同等的義務,也不能代替其他法律主體實施特定行為,這使得賦予人工智能以完全法律主體資格喪失應有的規(guī)范意義。
賦予人工智能以適當法律主體資格。如前所述,不賦予人工智能以法律主體資格或賦予完全法律主體資格都不契合目前的發(fā)展實際,所以需要平衡工具理論與實體理論的主張,在人類與工具之間擬制新的主體,亦即賦予人工智能以適當法律主體資格。蘇珊娜·貝克[17]是這一觀點的代表人物,其論證由類人性和制度性兩部分組成。就類人性而言,人工智能只能通過深度學習模仿人類的情感,但卻無法真切感知,不存在享有權(quán)利的激勵感或受到懲罰的悔過感,賦予其與自然人同等的完全法律主體資格是無意義的;就制度性而言,具有內(nèi)生自主性的人工智能可以看作一個復雜的算法系統(tǒng),包含各個獨立要素之間的多重相互作用,越是先進的人工智能,其系統(tǒng)越復雜,預測其行為就越困難,不確定性就越明顯,對其行為后果的原因追溯也就越不可能,為解決這一問題,可以類比公司的法律人格擬制一個制度性主體,賦予人工智能以適當法律主體資格。
然而,要賦予人工智能以適當法律主體資格還需解決一個前置性問題,即人工智能是否具有獨立且單一的意志,這是因為無論自然人還是擬制的法人格主體都因其具有獨立且單一的意志而成為法律主體[18],如果人工智能不滿足這一條件,那么也無法賦予其法律主體資格。結(jié)合前文論述不難發(fā)現(xiàn),具備內(nèi)生自主性特征的人工智能有學習迭代的擴張傾向,其系統(tǒng)的復雜性使人類難以完全絕對地控制這一傾向,所以人工智能具有獨立且單一的意志,且這種意志具有擴張性。這是人工智能由專用向通用發(fā)展的必然結(jié)果,應當正視其獨立意志,賦予其以適當法律主體資格,才能引導其良性發(fā)展,確保人類在人機關(guān)系中占據(jù)主導地位。因此,賦予人工智能以適當法律主體資格是較為現(xiàn)實的主張。從這一觀點出發(fā),人工智能在人機關(guān)系中應始終處于輔助性定位,不能與其他法律主體享有同等的權(quán)利履行同等的義務,不能代替其他法律主體實施特定行為,只能在輔助性定位范圍內(nèi)實施行為,享有權(quán)利,履行義務,亦即人工智能之輔助性定位原則。
目前,明確提出人工智能之輔助性定位原則的規(guī)范性文件是最高人民法院印發(fā)的《關(guān)于規(guī)范和加強人工智能司法應用的意見》,并命名為“輔助審判原則”。其內(nèi)容表述為“無論技術(shù)發(fā)展到何種水平,人工智能都不得代替法官裁判,人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,確保司法裁判始終由審判人員作出,裁判職權(quán)始終由審判組織行使,司法責任最終由裁判者承擔”。根據(jù)這一表述并結(jié)合前文論述,不難發(fā)現(xiàn)人工智能之輔助性定位原則的內(nèi)容應包含三個要素,一是人工智能僅具有適當法律主體資格,不能與其他法律主體享有同等的權(quán)利、履行同等的義務,對應“輔助審判”的要求;二是規(guī)范人工智能的研發(fā)和應用行為,亦即人工智能只能在輔助性定位范圍內(nèi)實施行為、享有權(quán)利、履行義務,對應“人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考”;三是調(diào)整人工智能與其他法律主體之間的關(guān)系,人工智能的適當法律主體資格是因現(xiàn)實需要而擬制的,這意味著人工智能實施行為、享有權(quán)利、履行義務以及承擔法律責任的方式都不同于其他法律主體,不能代替其他法律主體實施特定行為,對應“不得代替法官裁判”,“確保司法裁判始終由審判人員作出,裁判職權(quán)始終由審判組織行使,司法責任最終由裁判者承擔”。
“是否應賦予人工智能以法律主體資格”是人工智能與人類之間的關(guān)系定位所映射的法律問題,而人工智能與人類之間的關(guān)系定位則是科技倫理治理的重要內(nèi)容??萍紓惱硎侨斯ぶ悄苎邪l(fā)和應用需要遵循的價值理念和行為規(guī)范,是促進人工智能良性發(fā)展的重要保障。對此,中共中央辦公廳、國務院辦公廳印發(fā)的《關(guān)于加強科技倫理治理的意見》[19]明確提出“倫理先行”的治理要求,將科技倫理治理擺在事關(guān)全局的重要位置。結(jié)合前文論述,賦予人工智能以適當法律主體資格更加貼近現(xiàn)實,有利于在統(tǒng)籌發(fā)展和安全的同時確保人類在人機關(guān)系中占據(jù)主導地位,而人工智能之輔助性定位原則正是這一觀點的制度具現(xiàn)。所以人工智能之輔助性定位原則可以通過其科技倫理內(nèi)涵來指導人工智能的研發(fā)和應用方向。
人工智能已經(jīng)具備了內(nèi)生自主性特征,這意味著人類難以完全預知人工智能的輸出結(jié)果,亦即人工智能存在輸出結(jié)果失控從而危及安全的風險。安全風險具體表現(xiàn)為技術(shù)的無序擴張,究其誘因在于資本化的人工智能造成的倫理困境以及人工智能自身的技術(shù)局限。
即便最前沿的人工智能也需依靠其背后的技術(shù)資本才能進行研發(fā)并推廣應用,而技術(shù)資本本身就有擴張的傾向,這種傾向?qū)⒅苯佑绊懭斯ぶ悄艿陌l(fā)展。例如,研發(fā)ChatGPT的OpenAI成立的初衷旨在確保人工智能造福全人類,其核心目標并非盈利,所以開放是其最顯著的特征,全球研發(fā)者都可以通過其提供的開發(fā)與研究框架投入到人工智能的研究當中,然而隨著資本的注入,OpenAI開始逐步設置技術(shù)壁壘,逐漸將盈利確立為首要目標,背離了創(chuàng)立的初衷?!爱斮Y本迫使科學為自己服務時,它總是迫使勞動的反叛之手就范”[20],智能時代資本化的人工智能對人類的剝削手段將更加多樣化、隱性化、離散化,并將借助資本擴張的傾向?qū)崿F(xiàn)自身的無序擴張,極易導致人類喪失人機關(guān)系中的主導地位,從而造成倫理困境。而人工智能之輔助性定位原則將人工智能的研發(fā)和應用嚴格限制在輔助性定位范圍內(nèi),為防范技術(shù)資本無序擴張?zhí)峁┝酥贫缺U?,可以有效破解倫理困境。除了資本化的人工智能造成的倫理困境之外,人工智能自身的技術(shù)局限也會誘發(fā)安全風險。根據(jù)GPT-4的技術(shù)報告顯示,其預訓練數(shù)據(jù)是從互聯(lián)網(wǎng)上獲取的截至2021年9月的公開數(shù)據(jù),缺乏對2021年9月以后發(fā)生事件的知識,有一定的時效性局限。預訓練數(shù)據(jù)的時效性局限和人工智能持續(xù)學習能力的欠缺,會使其難以從經(jīng)驗中汲取教訓,以至于會犯一些簡單的推理錯誤,表現(xiàn)為過分容易接受用戶的明顯錯誤陳述,從而導致輸出結(jié)果失控。此外,輸出結(jié)果失控還可能與算法局限有關(guān),例如Transformer架構(gòu)下詞匯間兩兩計算的推理方式就可能導致GPT-4在推理過程中憑空捏造事實,特別是在模棱兩可的上下文推斷當中,最有可能發(fā)生這一情形。人工智能之輔助性定位原則要求人工智能僅具有適當法律主體資格,不能代替其他法律主體實施特定行為,其承擔法律責任的方式也不同于其他法律主體,所以在該原則指導下配合標準化定型規(guī)則可以為規(guī)制人工智能自身的技術(shù)局限提供現(xiàn)實路徑。
賦予人工智能以適當法律主體資格。因為人工智能的算法模型日趨復雜,難以實現(xiàn)可解釋性目標,這意味著人工智能已呈現(xiàn)出內(nèi)生自主性,可以實施人類難以完全控制的、自發(fā)自主的行為,且從生成式人工智能的技術(shù)原理出發(fā),有創(chuàng)意內(nèi)容生成同樣意味著人工智能必然可以實施人類難以預料的自發(fā)行為,所以即便從人類自身利益出發(fā),也應完善現(xiàn)行法律制度賦予其以法律主體資格。又因為無論技術(shù)發(fā)展到何種水平,人工智能都無法與人類等同,其法律地位也必須低于人類,所以僅可賦予其以適當法律主體資格。
人工智能之輔助性定位的內(nèi)涵必然不同于工具性定位,輔助性定位是人工智能介于其他法律主體與工具客體之間的擬制法律主體定位,而工具性定位的規(guī)范則早已被傳統(tǒng)法律體系所涵蓋。所以,只有在人工智能僅具有適當法律主體資格的情況下,才能討論人工智能之輔助性定位原則的規(guī)范構(gòu)造。換言之,人工智能具有且僅具有適當法律主體資格是適用人工智能之輔助性定位原則的前提條件。因此,完善相關(guān)立法,賦予人工智能以適當法律主體資格是人工智能之輔助性定位原則的實體構(gòu)造之一。
規(guī)范人工智能的研發(fā)和應用行為。人工智能的研發(fā)行為需要嚴格遵循科技倫理,且以人為本是科技倫理法律化的底線[21],所以研發(fā)者必須秉持造福人類的初衷研發(fā)人工智能,堅持人工智能服務人類的研發(fā)導向,促進人類社會和平發(fā)展和可持續(xù)發(fā)展,最大限度地避免對人類造成傷害或潛在威脅。而人工智能之輔助性定位原則可以通過其科技倫理內(nèi)涵來指導人工智能的研發(fā)方向,并可以配合標準化定型規(guī)則從源頭規(guī)制安全風險,加之輔助性定位對應著以人為本的科技倫理法律化底線,因此人工智能之輔助性定位原則規(guī)范人工智能的研發(fā)行為。人工智能之輔助性定位原則要求人工智能僅具有適當法律主體資格,所以人工智能不能與其他法律主體享有同等的權(quán)利、履行同等的義務,不能代替其他法律主體實施特定行為。這不僅意味著人工智能只能在輔助性定位范圍內(nèi)實施行為、享有權(quán)利、履行義務,還意味著其應用行為也只能局限在輔助性定位范圍內(nèi),確保人類在人工智能的應用過程占據(jù)主導地位。
調(diào)整人工智能與其他法律主體之間的關(guān)系。因為人工智能的適當法律主體資格是因現(xiàn)實需要而擬制的,介于其他法律主體與工具客體之間,始終處于輔助性定位,這不僅意味著人工智能實施行為、享有權(quán)利、履行義務以及承擔法律責任的方式都不同于其他法律主體,還意味著人工智能與其他法律主體的關(guān)系應當是輔助性關(guān)系,不能代替其他法律主體實施特定行為。換言之,人工智能之輔助性定位原則旨在調(diào)整人工智能與其他法律主體之間的關(guān)系,確保人工智能始終處于輔助性定位。
1.內(nèi)生自主性特征評估。因為人工智能之輔助性定位原則要求人工智能僅具有適當法律主體資格,而具有適當法律主體資格的前提是人工智能具備人類難以完全絕對地控制的內(nèi)生自主性特征,所以內(nèi)生自主性特征評估是適用該原則的首要程序。在具體實踐當中,內(nèi)生自主性特征評估應包括三個要素:深度學習能力評估、內(nèi)容生成能力評估和自適應能力評估。
人工智能研發(fā)的核心問題是使其可以從現(xiàn)象中發(fā)現(xiàn)規(guī)律,而深度學習能力就是旨在針對復雜特征的事物,通過多層次地學習相關(guān)數(shù)據(jù)來提煉一般規(guī)律。常用的深度學習模型是多層神經(jīng)網(wǎng)絡,多層神經(jīng)網(wǎng)絡的每一層都將輸入非線性映射,通過多層非線性映射的堆疊,可以在深層神經(jīng)網(wǎng)絡中計算出抽象的特征來幫助提煉一般規(guī)律[22]。不難發(fā)現(xiàn),深度學習能力極大提升了人工智能在復雜的現(xiàn)實環(huán)境中提煉一般規(guī)律的水平,是其具備內(nèi)生自主性特征的基礎。因此,深度學習能力評估是內(nèi)生自主性特征評估的基礎。內(nèi)容生成能力決定了人工智能是否能通過深度學習進行內(nèi)容創(chuàng)造,內(nèi)容生成能力越強的人工智能,智能化水平就越高,越容易產(chǎn)生內(nèi)生自主性特征。因此,內(nèi)容生成能力評估是內(nèi)生自主性特征評估的前提。自適應能力意味著人工智能可以通過持續(xù)學習自主迭代適應不斷變化的環(huán)境,自適應能力是人類難以像控制工具一樣完全、絕對地控制人工智能的原因,是人工智能具有獨立且單一意志的體現(xiàn)。因此,自適應能力評估也是內(nèi)生自主性特征評估要素之一。
2.標準化安全定型。標準化安全定型是我國許多法律規(guī)范科技研發(fā)和應用的立法思路。就科技研發(fā)而言,《中華人民共和國科學技術(shù)進步法》[23]第三十七條規(guī)定國家推動科學技術(shù)研究開發(fā)與產(chǎn)品、服務標準制定相結(jié)合。就科技應用而言,在國家治理層面,《中華人民共和國行政處罰法》[24]第四十一條第一款規(guī)定輔助執(zhí)法的技術(shù)應當經(jīng)過法制和技術(shù)審核,確保技術(shù)設備符合標準;在社會治理層面,《中華人民共和國個人信息保護法》[25]第六十二條規(guī)定國家網(wǎng)信部門統(tǒng)籌協(xié)調(diào)有關(guān)部門依據(jù)本法針對新技術(shù)、新應用制定專門的個人信息保護規(guī)則、標準,《中華人民共和國數(shù)據(jù)安全法》[26]第十七條規(guī)定國務院標準化行政主管部門和國務院有關(guān)部門根據(jù)各自的職責組織制定并適時修訂有關(guān)數(shù)據(jù)開發(fā)利用技術(shù)、產(chǎn)品和數(shù)據(jù)安全相關(guān)標準。
根據(jù)GPT-4的技術(shù)報告顯示,其在安全性方面的提升得益于OpenAI的對抗性測試計劃,這意味著針對人工智能研發(fā)和應用存在的安全風險,可以通過標準化安全定型進行規(guī)制。結(jié)合《生成式人工智能服務管理辦法(征求意見稿)》[27]第六條內(nèi)容可以發(fā)現(xiàn),實施標準化安全定型也是目前防范化解人工智能安全風險的立法思路。因此,標準化安全定型是防范化解安全風險的有效路徑,是人工智能之輔助性定位原則規(guī)制安全風險以規(guī)范人工智能的研發(fā)和應用行為的程序要求。
3.人工智能失控的救濟機制。由于安全是相對的而不是絕對的[28],即便進行了充分的標準化安全定型,人工智能仍然有超出設計者預設的安全方案而導致輸出失控以至于發(fā)生侵害的可能,所以人工智能之輔助性定位原則的程序構(gòu)造還應包括人工智能失控的救濟機制。又因為人工智能的適當法律主體資格是因現(xiàn)實需要而擬制的,其實施行為、享有權(quán)利、履行義務以及承擔法律責任的方式都不同于其他法律主體,所以人工智能輸出失控以至于發(fā)生侵害時,需要特殊的救濟機制。
首先,造福人類是人工智能研發(fā)和應用的初衷,所以人類自身的權(quán)利優(yōu)位于人工智能,當人工智能享有的權(quán)利與人類自身的權(quán)利發(fā)生沖突時,人工智能應讓位于人類,例如人工智能有獲取數(shù)據(jù)以進行深度學習的權(quán)利,但獲取數(shù)據(jù)的行為必須經(jīng)過人類授權(quán)許可,且人類有權(quán)收回授權(quán)。其次,人工智能對其創(chuàng)造生成的內(nèi)容享有知識產(chǎn)權(quán),可以獲得一定的收益,當人工智能造成侵害時,可由前期積累的收益予以賠付。此外,人工智能的研發(fā)者和應用者也應從其研發(fā)和應用活動獲得的收益中劃撥出一部分為其購買強制性保險,從而避免救濟不能的情況發(fā)生。最后,當人工智能經(jīng)過深度學習迭代生成的新算法的危險性已完全不可控時,應及時格式化處理,終止該人工智能的應用。
因為具備人類難以完全、絕對地控制的內(nèi)生自主性特征是賦予人工智能以法律主體資格的前提,所以無內(nèi)生自主性或內(nèi)生自主性完全可控的人工智能不具有法律主體資格,在人機關(guān)系中處于工具定位。無內(nèi)生自主性或內(nèi)生自主性完全可控的人工智能屬于弱人工智能(Weak AI)或?qū)S萌斯ぶ悄芊懂?,目前已被廣泛應用,例如2016年判決的“威斯康星州訴盧米斯”[29]案就應用了分析式人工智能(Analytical AI)對被告進行累犯風險評估,以便為量刑提供科學的參考依據(jù)。相較于通用人工智能,專用人工智能的深度學習能力較弱,且不具備內(nèi)容生成能力和自適應能力,即使可以在如大數(shù)據(jù)分析等特定應用方面表現(xiàn)出較強的優(yōu)勢,其活動的實施仍然完全依賴于操作者下達的指令,不會根據(jù)外部環(huán)境的變化修正原定方案,沒有獨立自主的意志,本質(zhì)上屬于人類用以提高自身能力的工具。而人工智能之輔助性定位不同于工具性定位,工具性定位意味著專用人工智能的法律屬性是客體,只需適用現(xiàn)有法律體系的一般規(guī)定即可,不適用人工智能之輔助性定位原則,是該原則的例外情形。
人工智能是建設現(xiàn)代化產(chǎn)業(yè)體系、推動高質(zhì)量發(fā)展、服務“以中國式現(xiàn)代化推進中華民族偉大復興”的新的增長引擎之一。明確人工智能之輔助性定位原則,有助于回應人工智能具備內(nèi)生自主性特征的現(xiàn)實情況,指導人工智能的研發(fā)和應用方向,規(guī)制人工智能的安全風險,把握人工智能應用場景由賦能向賦智轉(zhuǎn)變所帶來的機遇,引導人工智能的良性發(fā)展。通過剖析人工智能之輔助性定位原則的規(guī)范構(gòu)造,有助于完善人工智能相關(guān)法律制度的學理解釋,為相關(guān)領(lǐng)域進一步立法提供政策建議。