国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

近六年來國內關于人工智能法律規(guī)制的研究述評
——基于CSSCI來源期刊論文的分析

2021-07-19 11:06陶林
關鍵詞:規(guī)制人格人工智能

○ 陶林

(南京醫(yī)科大學 馬克思主義學院,江蘇 南京 211166)

人工智能被廣泛認為是第四次工業(yè)革命的代表技術之一,人工智能及其引起的巨大社會影響引起法學界學者們的關注。如何應對人工智能的法律風險?人工智能對于傳統(tǒng)的中國法律體系帶來哪些挑戰(zhàn)?如何完善人工智能的法律規(guī)制?這是近六年(2015—2020年)來國內法學界關注的熱點。本文嘗試對近六年來國內人工智能法律規(guī)制的研究進行評述,以促進這一熱點問題研究的深入。

一、人工智能法律規(guī)制研究的總體現(xiàn)狀

人工智能是“研究人類智能行為規(guī)律(比如學習、計算、推理、思考、規(guī)劃等),構造具有一定智慧能力的人工系統(tǒng)”[1]?,F(xiàn)階段,人工智能在專業(yè)領域應用成效顯著,比如無人駕駛、智能翻譯、智能診療、智慧判決等。根據(jù)筆者在知網(wǎng)的檢索,截止到2021年4月27日,篇名含有“人工智能和法律”的論文共有447篇,其中CSSCI來源期刊論文76篇。國內最早研究人工智能法律問題的論文是張保生在2001年發(fā)表于《法學評論》的《人工智能法律系統(tǒng)的法理學思考》。相關年度的論文發(fā)表篇數(shù)情況為:2021年11篇、2020年118篇、2019年159篇、2018年128篇、2017年27篇、2016年3篇、2015年0篇、2014年1篇。他引次數(shù)排前10的論文見表1。從總的研究趨勢來看,國內關于人工智能法律規(guī)制的研究處于增長階段。

表1 他引次數(shù)排名前10的人工智能法律規(guī)制研究論文

盡管目前發(fā)表的相關論文有400多篇,但其中有一些論文屬于重復發(fā)表,且論文質量參差不齊。因此本文以近六年來CSSCI來源期刊發(fā)表的論文作為重要依據(jù),對人工智能法律規(guī)制的研究進行述評。根據(jù)檢索到的CSSCI來源期刊論文可以看出,近六年來國內關于人工智能法律規(guī)制的研究主要圍繞七大問題。當然部分論文還涉及其他問題,如嘗試從法律和倫理結合視角探索人工智能的各種社會風險等,限于篇幅,此文中不再詳述①關于人工智能的社會風險的研究,參見陶林:《近年來國內關于人工智能社會風險的研究綜述》(《云夢學刊》,2021年第1期)。。

二、近六年來國內人工智能法律規(guī)制研究的七大問題

(一)人工智能的法理學審視

多數(shù)學者認為,“人工智能的發(fā)展將對法律及其行業(yè)生態(tài)產生巨大影響”[2]。因此面對人工智能的法律風險,法律規(guī)制應該如何應對,成為法理學界關注的重點問題。學者們主要從法理學的宏觀視角審視人工智能的法律風險。對于人工智能的法律規(guī)制可以分為兩種:一是對于人工智能的規(guī)制,二是對于使用人工智能的利益相關者,包括設計者、生產者、使用者、維修者的規(guī)制。規(guī)制原則包括目的正當原則、人類善良情感原則、公眾知情原則或者透明原則、政府管控原則、分類管控原則、全程管控原則、預防原則以及國際合作原則[3]。在規(guī)制原則的基礎上,推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和全面依法治國的深度融合,樹立數(shù)據(jù)思維,運用互聯(lián)網(wǎng)技術和信息化手段來推動人工智能的科學立法[4]。人工智能的廣泛運用以及人工智能立法的轉型,將會重構公眾認知法律的模式,重構法律規(guī)則本身的形態(tài),進而重構法律的價值導向[5]。人工智能時代對法律的根本性挑戰(zhàn),在于法律功能獨特性的喪失,法律不學習被機器學習取代,法律被代碼/算法取代[6]。也有學者對于目前法學界對于人工智能法學研究明顯違反人類智力常識的反智化現(xiàn)象進行了嚴肅的批判。主張法學研究應該避免盲目跟風,走出對人工智能體的崇拜,回歸學術研究的理性軌道。一些著名學者認為,人工智能對于傳統(tǒng)法治帶來重大變革和影響,推動了數(shù)字時代的法治范式轉型。

(二)人工智能是否需要專門立法

關于人工智能是否需要專門立法,學者們主要有兩種觀點。

一種是維持現(xiàn)有立法不變。認為現(xiàn)有民法完全可以應對人工智能的法律風險,不需要新法,不必改變民法的基本理念和基本規(guī)則[7]??蓪⑷斯ぶ悄苕i定于《民法總則》客體的前提下,對其合理限制,且在民法典各分編制定中,對客體意義上的人工智能亦無需作特殊規(guī)則改變[8]。

一種是另外設立新法。一方面,面對人工智能的高速發(fā)展及其帶來的諸多社會問題,需盡快建立以全流程監(jiān)管為主體的、多層次的人工智能監(jiān)管體系,圍繞人工智能對民事主體、侵權責任、著作權、刑法等帶來的挑戰(zhàn)展開研究[9],以應對人工智能與現(xiàn)有法律制度形成的沖突以及帶來的挑戰(zhàn)[10]。如由人工智能產品導致的侵權行為和刑事風險需根據(jù)相關法律明確責任,可以考慮增設相關罪名來予以應對[11];明確人工智能運行中個人信息數(shù)據(jù)安全立法的基本原則,明確人工智能運行中個人信息數(shù)據(jù)權,確保權利的法律化,參考相關國家做法適時制定《個人信息安全法》[12];對人工智能開發(fā)企業(yè)的社會責任進行規(guī)則[13]。另一方面,在立法層面,應在注重立法前瞻性的基礎上構建科學的人工智能犯罪規(guī)范體系[14]。采取軟法方式,而不是簡單地提高硬法的懲戒力度[15]。在塑造風險社會的法律理念,建立多元互動的風險規(guī)制體系,促進人工智能的健康發(fā)展[16]的同時,也要重視人工智能對現(xiàn)代法律制度體系的影響,這種影響可能至少包括法律主體制度、客體制度、權利體系等,要防止人工智能濫用給人類帶來的風險[17]。

(三)人工智能的著作權保護

人工智能的著作權是否應該得到承認和保護是學術界爭論的熱點問題之一。目前主要存在三種觀點:一是應該保護,二是不應該保護,三是有限保護。觀點分歧產生的根本原因在于人工智能創(chuàng)作的作品是否具有創(chuàng)造性。

第一,應該保護。由于人工智能具有超強的學習能力,“它所創(chuàng)作出來的智力成果與人的作品之間并沒有區(qū)別,因此仍然應當以著作權的方式來加以保護”[18]。學者們或從人工智能創(chuàng)作作品的獨創(chuàng)性角度,或從賦予人工智能創(chuàng)作作品屬性的優(yōu)勢出發(fā),或從著作權保護客體的沿革入手,論證人工智能創(chuàng)作的作品應當受法律獨立保護(代表性的學者有李宗輝、尹鵬、馬治國等)。人工智能在未來有可能生成富于思想性或形式更為靈活的報道,這類報道應當受到法律保護[19]。且人工智能生成內容本質上仍然是人類利用技術設備創(chuàng)作完成的作品,需要在著作權法體系下實現(xiàn)對其法律保護[20]。人工智能在知識創(chuàng)作領域的應用已不可逆轉,域外的人工智能創(chuàng)作作品法律保護路徑有利于解決我國理論界對人工智能創(chuàng)作作品能否獨立受法律保護存在爭議的現(xiàn)實[21]。有必要通過引入人工智能作為技術“發(fā)明人”的制度設計、創(chuàng)立人工智能生成技術方案的可專利性標準、構建人工智能生成專利技術的權責分配規(guī)則、設置風險防范機制等法律對策,實現(xiàn)專利法對人工智能生成技術方案的有效規(guī)制[22]。

第二,不應該保護。人工智能創(chuàng)作的作品由于無法體現(xiàn)創(chuàng)作者的個性,不能被視為真正的作品,無法以著作權的方式來加以保護[23]。確定人工智能作品權利歸屬的前提是明確該類作品的權利客體屬性,人工智能創(chuàng)作的作品應屬于著作權客體,而非鄰接權客體。人工智能不具有法律人格,因此其本身不能成為人工智能創(chuàng)作作品的權利主體。也就是說,人工智能創(chuàng)作的作品,本質上還是人操作人工智能完成的,人工智能不具備法律人格,因此人工智能創(chuàng)作作品的著作權可以歸屬于使用者或者創(chuàng)造者。

第三,有限保護。這一觀點主張對人工智能創(chuàng)作的作品區(qū)分對待,將人工智能創(chuàng)作作品是否具有獨創(chuàng)性與當下法律應否保護相區(qū)分。人工智能創(chuàng)作的作品雖然具有獨創(chuàng)性,但是為了維護當下法律的體系性,現(xiàn)不宜對其進行獨立保護[24]。而以未來將出現(xiàn)具有獨立思維能力的強人工智能為前提,研究強人工智能發(fā)明創(chuàng)造的專利性,似過于超前[25]。可以擬定人工智能生成內容為“作品”,并設置所有權,該所有權根據(jù)不同的階段可能屬于程序設計者、人工智能使用者或者投資者。人工智能“作品”不需要標注,閱讀使用者需遵循著作權法[26]。

(四)人工智能的法律人格爭論

人工智能是否具有法律人格,也是學術界爭論的焦點之一。因為這一問題的界定,不僅涉及人工智能使用者、生產者、設計者三者之間的權利、義務、責任的關系,還涉及人工智能可能導致的社會風險和傷害的責任追究。目前學術界主要有肯定說、否定說、折中說三種觀點。

第一,肯定說。人工智能概念是通過“位格加等”把機器人提升到自然人的法律位格,法律主體學說之現(xiàn)代性立場有其限度,從法律主體概念回歸法律位格概念,是人工智能時代法理思想變革的重要契機[27]。國外電子人格說的提出,“為機器人創(chuàng)設一個特殊的法律地位”①2017年2月16日,歐盟議會以396票贊成、123票反對、85票棄權,通過《歐盟機器人民事法律規(guī)則》,有關機器人電子人格的內容規(guī)定在第59條(F)款中。。從人工智能的現(xiàn)狀看,人工智能已開始具有獨立影響他人權利義務的能力,考慮認可人工智能的法律人格已具有一定的現(xiàn)實意義[28]。同時,賦予人工智能擬制法律人格是界定人工智能產物的財產權利歸屬和人工智能侵權責任的必要前提??蛇\用立法技術賦予人工智能獨立的法律人格,建立人工智能登記備案制,完善人工智能的法律責任制度[29]。人工智能時代的法律責任理論應當有所修正和更新,智能機器人應成為適格的法律責任主體[30]。

第二,否定說。在人工智能不是人,而是物,其“不具有法律人格”[31]認知前提下,將人工智能產品認定為會自動學習和主動工作的工具[32],因此,為了解釋人工智能的行為效力而主張賦予其法律主體資格是沒有必要的[33]。賦予人工智能法律主體地位既不可能也不可欲,它無法,也不應當承擔獨立責任[34]。也就是說,在弱人工智能階段,人工智能無法獨立承擔法律責任,應該是由制造者、使用者承擔相關法律責任。而鑒于人工智能的智能性和自主性,可以將高度智能化的人工智能作為客體中的特殊物,予以特殊的法律規(guī)制[35]。

第三,折中說。按照通常的標準,人工智能“在被給定目標的基礎上運用智力能力來追求這個目標的實現(xiàn),屬于弱人工智能;如果……人工智能還具備自己設定目標的能力,那么這就是強人工智能”[36]。在弱人工智能、強人工智能和超級人工智能分類的基礎上,“人工智能是不是人”的問題,存在著不同的答案??砂凑杖斯ぶ悄艿陌l(fā)展階段分類對其進行不同的界定,否認弱人工智能的法律主體地位,有限肯定強人工智能的法律主體地位,認同超級人工智能具有法律主體資格[37]。因此,基于法律規(guī)范的困境和人工智能的特殊性,以人工智能不同場域下的智能化或非智能化的狀態(tài)、以人或物的身份對人工智能進行分別的“特殊性”法律約束。即使人工智能具有法律人格,其也并不具有承擔完全責任的能力與地位,因此其所獲得的人格屬于有限法律人格[38]。人工智能主體性和自然人主體性存在差異,需要法律對應做出特殊安排[39]。適用于智能社會法律人格判定的標準體系應在算法化的基礎上獨立于任何物種的具體特質而存在,同時具有本土性、銜接性、可行性、包容性四特征[40]。目前來看,人工智能具備法律人格有其合理性,但“尚待時日?!盵41]

(五)人工智能的新聞風險及其法律規(guī)制

由于人工智能對數(shù)據(jù)的非法采集和過度分析,人工智能運用到新聞寫作中存在算法偏見、算法不透明、涉及隱私的數(shù)據(jù)保護缺位等風險,人工智能的新聞風險可以從法規(guī)建設、傳媒應具備的責任意識和完善技術規(guī)避風險等方面進行完善[42]。需加強人工智能環(huán)境下隱私權法律保護的研究,對一般信息和敏感信息進行區(qū)分性法律保護,加強對傳播權力的規(guī)制以及保障用戶隱私權利[43]。借助人工智能所具有的自動化生產和分發(fā)、受眾的數(shù)字化、點擊即獲利、監(jiān)測及算法、新聞生產鏈的延伸、即時傳播等技術優(yōu)勢,各種新聞生產主體和利益主體之間能夠實現(xiàn)有效的共謀,人工智能運用到新聞寫作會生產出極具誘惑性的假新聞[44]。加強人工智能的新聞倫理風險法律規(guī)制極其必要。

(六)人工智能的司法運用及其規(guī)制

人工智能的司法運用遇到兩個挑戰(zhàn):一是人工智能能否克服傳統(tǒng)司法裁判模式的缺陷,二是人工智能對傳統(tǒng)科技風險化解機制的挑戰(zhàn)[45]。人工智能司法應用的前提是法律知識圖譜的構建以及裁判規(guī)則的類型化與要素化[46]。人工智能法律系統(tǒng)的研發(fā)目標旨在制造機器人法官,但其應用的界限卻是不能獨立擔任法官,需要在立法限制的同時,實施“人-機系統(tǒng)”解決方案,以解決人工智能運用司法遇到的悖論[47]。同時,人工智能的數(shù)據(jù)挖掘技術、可視化技術和自動化分析具有巨大的優(yōu)勢,可促進司法輿情監(jiān)測常態(tài)化、預警決策的精準化[48]。但是司法大數(shù)據(jù)與人工智能的技術特征使得司法改革的成效具有不確定性,司法大數(shù)據(jù)和人工智能可能誘發(fā)司法固有屬性被消解、法官主體地位被削弱、司法改革目標被替代和司法改革結果失控等風險[49]。因此,應該堅持法官的主體地位,“擺脫對于人工智能的技術依賴”[50]。“……發(fā)揮人在司法裁判過程中的主觀能動性,防止過度依賴人工智能輔助系統(tǒng),從而保障司法裁判結果的公平公正”[51]。

(七)人工智能的醫(yī)藥法律問題

人工智能雖然還不成熟,但是已經(jīng)在社會各個領域開始使用。其中在醫(yī)藥行業(yè)的使用涉及人工智能臨床使用的社會風險以及法律責任問題。如社會風險如何規(guī)避?醫(yī)藥責任是人工智能獨立承擔,還是由使用的醫(yī)護人員承擔,是故意還是過失,抑或是技術操作失誤?人工智能使用中患者的相關數(shù)據(jù)隱私權如何保護?等等。學者們對上述問題進行了初步探討[52]。劉建利認為,“我國應當在明確醫(yī)療AI法律地位的基礎上,通過加強解釋和完善立法,建立醫(yī)療AI的技術準入標準,完善醫(yī)療損害的法律歸責制度,平衡好醫(yī)患關系中的利益相關者的利益與責任。在數(shù)據(jù)保護上,出臺專門的醫(yī)療信息保護法。”[53]。郭曉斐認為,“要從明確法律主體、劃分法律責任、保護數(shù)據(jù)與隱私權、建立社會規(guī)范和倫理準則等方面對醫(yī)療人工智能進行法律規(guī)制和倫理引導”[54]。目前看,醫(yī)藥行業(yè)對人工智能的使用將越來越普遍,需要高度重視,加強人工智能的醫(yī)藥法律規(guī)制,重視患者的隱私權保護,同時合理界定相關的醫(yī)藥臨床類人工智能的法律責任,造福公眾健康。

三、研究展望

綜上所述,我們可以看出近六年來國內法學界對于人工智能的法律規(guī)制研究成就主要包括:第一,研究領域不斷拓展。學者們對人工智能的法律風險和規(guī)制的探討基本涉及人工智能已經(jīng)運用的各個領域,研究具有鮮明的針對性。第二,研究方法的多學科運用初現(xiàn)端倪。學術界對于人工智能可能遇到的法律風險進行了分類研究,總體上呈現(xiàn)多學科關注和研究的趨勢。第三,涌現(xiàn)出一批代表性的成果,且呈現(xiàn)不斷增長的趨勢。

科學技術是一把雙刃劍,人工智能的迅猛發(fā)展給現(xiàn)有的法律體系帶來嚴峻挑戰(zhàn),引發(fā)諸多爭論,甚至有學者認為其導致“法律的死亡”[6]危機。未來人工智能的法律規(guī)制研究需要進一步深化??梢試L試從以下方面突破:

(一)跟蹤研究

現(xiàn)有研究成果跟蹤研究不足。主要表現(xiàn)在兩個方面:一是對國外相關的人工智能法律規(guī)制文獻和研究成果關注不夠。根據(jù)筆者檢索到的論文,專門探討國外人工智能法律規(guī)制的文章僅有1篇。實際上人工智能的法律規(guī)制問題不僅是國內學界關注的熱點,也是國際學術界關注的熱點。我們需要重視對于國外相關人工智能法律規(guī)制論文、著作的翻譯和引入,重視國際學術交流和對話。二是人工智能在各個領域運用中存在的法律風險研究相對不足。目前的研究,對人工智能在金融、醫(yī)療、自動駕駛、智能家居、新聞寫作、司法等領域運用的風險及法律規(guī)制問題關注較多,但是其他運用領域的風險及法律規(guī)制問題研究成果相對較少。人工智能的發(fā)展運用具有廣泛的前景,加強動態(tài)的跟蹤研究是十分必要的。

(二)個案研究

國內人工智能相關論文,大部分是跟蹤國外前沿的推介、綜述類論文,現(xiàn)有的成果宏觀分析多,個案研究和實證研究不足,而法律規(guī)制應該結合具體的案例開展。從法律社會學的視角看,人工智能法律規(guī)制不僅是法理學的問題,還涉及民法和刑法等。因此人工智能法律規(guī)制不僅僅是純法理學的研究,還涉及科技哲學、社會學的研究問題域。從未來發(fā)展趨勢看,需重視和加強人工智能的代表性應用領域的典型案例收集,從而充分了解人工智能運用在某一領域具體遇到的法律風險,以及對于這些法律風險現(xiàn)有法律規(guī)制存在的不足和缺陷,從而提出具體的改善措施。

(三)分級研究

按照人工智能發(fā)展的不同階段,進行分級研究,同時注重不同發(fā)展階段的法律聯(lián)系。從弱人工智能到強人工智能再到超級人工智能,應該經(jīng)過不同的歷史階段,相應的法律規(guī)制需根據(jù)人工智能的不同發(fā)展階段作出相應調整。從立法角度看,人工智能的發(fā)展是動態(tài)的、分級的,因此作為調整社會秩序規(guī)范的法律應該與時俱進,不斷完善。對于人工智能的發(fā)展,應該分級?!吨袊斯ぶ悄軜藴拾灼?018版)》指出,評價人工智能的智能等級是困難和具有挑戰(zhàn)性的工作,但可以通過標準化工作逐步解決該問題[55]?,F(xiàn)有的人工智能處于弱人工智能階段,因此現(xiàn)階段我們應以現(xiàn)有法律規(guī)制來定義人工智能的法律人格,將其理解為物更加適合。至于未來的強人工智能階段,甚至進化和發(fā)展成為超級人工智能階段,可以承認人工智能的法律人格。抽象的爭論人工智能是否具有法律人格是沒有意義的,法律人格的認定不是立法者隨意認定的一種主觀想象,而是立法者基于一定的社會價值觀、社會共識、社會生產力發(fā)展作為基礎的一種社會規(guī)范的反思、判斷。法律應該是動態(tài)的發(fā)展,不是僵化的教條?!胺蛇€必須服從進步所提出的正當要求,在運動與靜止、保守與創(chuàng)新、僵化與變化無常這些彼此矛盾的力量之間謀求某種和諧?!盵56]重視人工智能的動態(tài)研究和分類研究,從動態(tài)的發(fā)展的角度規(guī)制人工智能的法律風險是我們的理性選擇。

(四)比較研究

人工智能法律規(guī)制是一個全球化的問題,涉及不同國家的法律習慣、法律制度和法律文化。因此中國在研究制定相關的人工智能法律規(guī)制時,需要有全球視野和國際眼光。一方面借鑒國外先進的法律經(jīng)驗和做法,另一方面則是需要實事求是,從本國的國情和法律制度出發(fā),制定適合國情的人工智能法律制度,促進社會和諧穩(wěn)定,增進人類福祉。這其中要避免出現(xiàn)兩種錯誤傾向:一種是盲目跟風忽視中國的國情、歷史文化傳統(tǒng)以及法律制度,一味照搬照抄西方的立法模式和經(jīng)驗;另外一種是一味強調中國法律制度的特殊性和中國特色,排斥國外的立法經(jīng)驗和做法。

(五)基礎的法理學研究

目前從法理學意義上研究人工智能法律規(guī)制的論文主要涉及兩大問題:一是人工智能的法律人格問題,二是人工智能的各種法律風險和應對。人工智能法律規(guī)制的法理學研究有待加強。比如人工智能的法律人格問題。人工智能是否具備法律人格,是一個爭論較大的法理學問題:人工智能究竟是物,還是具備民事行為能力和自主意識的法人?從法律人格的主體看,法律人格的主體是具體的、歷史的、發(fā)展的,“經(jīng)歷了人可非人—人人可人—非人可人不斷擴展的歷史變遷”[57]。關于人工智能的法律人格的爭論是法理學的元問題,對這一問題的爭論和定性,決定了人工智能的法律風險規(guī)則和相關法律的重大變革,因此人工智能的法律人格問題解決了,其他的爭論也會得到相應的推進。人工智能的法律人格問題研究還將繼續(xù),就中國目前的研究來看,中國法學界基本傾向于否認人工智能的法律人格,但是這種情況在未來是否會發(fā)生改變,需要我們繼續(xù)長期關注研究。

(六)交叉研究

人工智能的法律問題屬于前沿的交叉學科問題,需要多個學科的關注。國外的人工智能法學研究分為人工智能問題的法學研究、法(律)學的人工智能研究。國內學界也有少部分學者具有“法學+計算機”雙學科背景,但國內學者總體對法(律)學的人工智能研究缺課太多,這需要學界有能力者更加注重此問題的相關研究或者跨學科合作研究??梢酝ㄟ^相關重大課題申報組織、相關重點高校的人工智能研究院等平臺,加強不同學科學者之間的相互合作和交流,尤其是跨省的學者交流,破除學科的門戶之見,以開放包容的心態(tài)重視交叉學科的深入研究。

四、結語

本文通過系統(tǒng)的文獻梳理,對于中國學界近六年來人工智能法律規(guī)制研究的七大主要問題進行了述評,并對未來研究進行了展望。人工智能研究將成為一門顯學,其關系到全人類的福祉,需要我們高度關注,并加強學科交叉研究,加強人工智能法律規(guī)制研究,以及時有效地防范人工智能的各種社會風險。

猜你喜歡
規(guī)制人格人工智能
共產黨人的人格力量
主動退市規(guī)制的德國經(jīng)驗與啟示
你是回避付出型人格嗎?
遠去的平凡背影,光輝的偉大人格
2019:人工智能
人工智能與就業(yè)
共享經(jīng)濟下網(wǎng)約車規(guī)制問題的思考
淺談虛假廣告的法律規(guī)制
數(shù)讀人工智能
下一幕,人工智能!
太湖县| 陆川县| 温宿县| 合水县| 眉山市| 柘城县| 玉龙| 大田县| 夏河县| 晋州市| 团风县| 扎兰屯市| 苍山县| 勐海县| 新民市| 宁明县| 恩施市| 邳州市| 旌德县| 大同县| 桓仁| 宜川县| 威信县| 天台县| 类乌齐县| 惠东县| 邢台市| 临夏县| 瑞昌市| 开江县| 景德镇市| 梅河口市| 酒泉市| 汤阴县| 广平县| 蒙城县| 嘉黎县| 罗源县| 洮南市| 武强县| 海淀区|