国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

失范與重塑:人工智能時(shí)代的新聞倫理探究

2021-06-04 05:00余雪
新媒體研究 2021年1期
關(guān)鍵詞:新聞倫理數(shù)據(jù)算法

余雪

摘 要 算法為傳統(tǒng)新聞業(yè)帶來深刻變革,但技術(shù)的發(fā)展是兩面性的,近年來由算法引發(fā)的新聞倫理問題成為傳媒業(yè)無法回避的理論課題。探究人工智能時(shí)代人類無法回避的算法偏見、信息繭房、隱私侵害、新聞專業(yè)主義消解等倫理問題,并從技術(shù)、政府、媒體、平臺四個(gè)角度尋求重塑新聞倫理的路徑。要解決技術(shù)所帶來的問題,就必須以人機(jī)共生理念為根本,讓技術(shù)的發(fā)展符合倫理常情。

關(guān)鍵詞 人工智能;新聞倫理;算法;數(shù)據(jù)

中圖分類號 G2 文獻(xiàn)標(biāo)識碼 A 文章編號 2096-0360(2021)01-0016-03

新聞傳播學(xué)科作為我國產(chǎn)業(yè)發(fā)展的重要支撐力量,一直都深受技術(shù)影響。在傳媒業(yè)與人工智能的互動中,算法推動媒體形態(tài)、新聞生產(chǎn)和分發(fā)的流程向著智能化的趨勢發(fā)展,AR、VR、機(jī)器人寫作、傳感器等越來越多地被應(yīng)用到現(xiàn)實(shí)新聞活動中。技術(shù)的發(fā)展具有雙重屬性,人工智能在促使新聞業(yè)發(fā)生巨變的同時(shí),也因算法缺陷造成了對新聞倫理的巨大沖擊。

1 變革——人工智能的革新與新聞倫理的顯現(xiàn)

1.1 人工智能時(shí)代新聞業(yè)的突出變革

人工智能簡單來說,是一種利用計(jì)算機(jī)模仿和發(fā)展人類智能行為的技術(shù),通過算法語言完成自主學(xué)習(xí)、判斷、決策等行為[1],幫助人們解決問題,提高效率。目前,通過算法而研制出的具體智能形態(tài)被越來越多地應(yīng)用到傳媒領(lǐng)域的各個(gè)方面,尤其突出地表現(xiàn)在對新聞生產(chǎn)、分發(fā)和場景的影響上。

1)自動化生產(chǎn)。傳統(tǒng)的新聞生產(chǎn)往往是靠記者親身在現(xiàn)場采集信息并整理加工,成品需經(jīng)編輯審核通過后才能發(fā)布。人工智能催生了一批新型智能媒體,從信息數(shù)據(jù)的采集到加工乃至寫作,都可以由機(jī)器完成,例如機(jī)器人寫作等,新聞工作的效率因此提升,傳統(tǒng)記者也得以擺脫套路化寫作的桎梏,向深度報(bào)道方向轉(zhuǎn)變。

2)個(gè)性化推薦。人工智能利用算法搜集用戶的行為數(shù)據(jù),分析其信息使用偏好,從而向用戶提供專屬的個(gè)性化新聞。個(gè)性化推薦打破了傳統(tǒng)媒體與受眾之間的溝通障礙,幫助用戶迅速獲得感興趣的信息,今日頭條便是算法推薦的典型。

3)虛擬化場景。VR新聞與AR新聞推動新聞報(bào)道的新形態(tài)。強(qiáng)大的數(shù)字技術(shù)能夠?qū)ΜF(xiàn)實(shí)語境進(jìn)行逼真的模仿,對新聞事件進(jìn)行多角度、全方位的敘述,受眾“沉浸”在虛擬和現(xiàn)實(shí)的交互場景中,通過自己的親身體驗(yàn)去解碼信息,還原新聞?wù)鎸?shí)面貌。

1.2 人工智能時(shí)代研究新聞倫理的必要性

新聞倫理是在長期的新聞傳播實(shí)踐中形成的發(fā)揮特殊作用的規(guī)范性調(diào)節(jié)體系,主要用于調(diào)整采訪、編輯、經(jīng)營、管理等之間的相互關(guān)系[2],是新聞職業(yè)道德的一種重要表現(xiàn)。人工智能為新聞產(chǎn)業(yè)帶來多維度的顛覆性變革,但也帶來許多顯性和隱形的問題,其中對新聞倫理的沖擊逐漸受到業(yè)界的重視。產(chǎn)業(yè)紅利無法掩蓋背后的技術(shù)缺陷,技術(shù)一旦發(fā)展過快觸碰倫理道德的高壓線,就容易引發(fā)倫理問題。機(jī)器采集和生產(chǎn)新聞雖然提高了時(shí)效性,但工具語言的機(jī)械性卻會讓新聞過于僵化,失去情懷和溫度;個(gè)性化服務(wù)使受眾不斷加固“興趣牢籠”,難以察覺興趣以外的信息;虛擬場景讓受眾過度沉浸其中,新聞?wù)鎸?shí)性被淡化。

2017年是“人工智能元年”,在中國知網(wǎng)庫中檢索2017—2020年間,以“人工智能”為主題詞的中文論文為72945篇;而以“人工智能”與“新聞倫理”為主題的論文僅有44篇,其中12篇為2020年的最新研究成果。由此可見,2017年后學(xué)界已經(jīng)開始關(guān)注人工智能對新聞倫理的影響,但由于技術(shù)不成熟和思想的限制,相關(guān)學(xué)術(shù)研究尚在初期,且進(jìn)展較為緩慢、成果較少。

人工智能作為一門學(xué)科,要解決的是“能不能”問題,而新聞倫理要解決的是“該不該”問題[3]。倫理使新聞的發(fā)展有了道德的邊界,使其更好地實(shí)現(xiàn)為社會服務(wù)的職責(zé)。而算法本身就帶有一套自成體系的語言傾向,影響到新聞的發(fā)展。倫理建設(shè)如果跟不上技術(shù)更迭的腳步,社會發(fā)展將會失控。因而,研究人工智能對新聞倫理的沖擊并為重塑新聞倫理提供切實(shí)的解決路徑,是所有倫理相關(guān)主體所必須重視的。

2 失范——人工智能對新聞倫理的解構(gòu)

2.1 算法背后存在偏見與歧視

人工智能依靠算法支撐,算法作為一種程序語言,本應(yīng)該是理性客觀、不帶任何傾向性的數(shù)學(xué)表達(dá),然而其背后隱藏的偏見與歧視往往被忽略。皮尤研究中心在2019年做了一項(xiàng)研究發(fā)現(xiàn),雖然現(xiàn)實(shí)生活中美國人口的男女比例大致均衡,但Facebook(“臉書”網(wǎng))的新聞圖片中,男性出現(xiàn)的頻率是女性的兩倍[4]。算法偏見和歧視主要來源于兩方面。一方面,算法由人設(shè)計(jì),算法工程師的學(xué)歷背景、教育經(jīng)歷、性格愛好等各有不同,即使主觀上沒有宗教、性別、職業(yè)、年齡等歧視,他們在篩選數(shù)據(jù)及編碼過程中也會有意無意地帶入強(qiáng)烈的主觀感情色彩,這種難以觀察的傾向性會影響算法設(shè)計(jì)的過程。另一方面,如果被輸入的原始數(shù)據(jù)一開始就存在偏見,例如搜索醫(yī)生圖像大部分是男性,搜索幼師圖像大部分是女性,那么數(shù)據(jù)在被處理的過程中,會不斷被這種偏見扭曲,機(jī)器屬性并不會質(zhì)疑這種偏向的存在,而是按照既定模式操作,最終輸出的結(jié)果也將帶有濃厚的偏見色彩,反映到傳媒業(yè)則會產(chǎn)生帶有導(dǎo)向性的新聞。

2.2 個(gè)性推送導(dǎo)致“信息繭房”

“信息繭房”指公眾為獲得滿足感,往往憑借興趣或需求來接收信息,卻忽略了其他多元信息,長此以往便會將自身禁錮在像“蠶繭”一樣的“繭房”中[5]?;ヂ?lián)網(wǎng)的去中心化極大提高了受眾的地位,人人都能成為新聞生產(chǎn)者,傳播者為爭奪受眾有限的注意力,越來越注重受眾的需求。人工智能利用數(shù)據(jù)采集和算法過濾,根據(jù)用戶日常的瀏覽信息,篩選出符合用戶習(xí)慣、愛好與需求的新聞信息進(jìn)行推送。然而,受眾在此過程中無意識地被迫接受日復(fù)一日越來越精準(zhǔn)的同質(zhì)化內(nèi)容,排斥異己信息,沉浸在自我認(rèn)同的話語場中,極易失去理性判斷能力。

2.3 數(shù)據(jù)的非法采集觸犯公眾隱私

人工智能需要采集充足數(shù)據(jù)進(jìn)行深度挖掘和分析,為受眾推送精準(zhǔn)的信息,而這些數(shù)據(jù)大部分來源于使用者的行為痕跡。從所有權(quán)角度來講,用戶的自身行為產(chǎn)生數(shù)據(jù)信息,便有權(quán)利知曉自己的權(quán)利為誰所用、如何使用、用往何處。然而事實(shí)并非如此,平臺出于商業(yè)利益,往往采取越來越隱蔽的手段非法獲取用戶的行為數(shù)據(jù),篩選出有價(jià)值的信息進(jìn)行利用。未提前告知用戶便對其信息進(jìn)行采集和使用,違反了傳播倫理規(guī)范。2019年Facebook被曝丑聞,其一項(xiàng)智力競賽應(yīng)用讓1.2億用戶的個(gè)人數(shù)據(jù)面臨泄露風(fēng)險(xiǎn)[6]。算法對用戶隱私的侵害具有隱蔽性和迷惑性,各種智媒產(chǎn)品不斷入侵私密場所,用戶的信息安全遭到極大威脅卻難以得到有效維護(hù)。

2.4 虛擬場景異化新聞?wù)鎸?shí)

人工智能時(shí)代,VR/AR與新聞生產(chǎn)的結(jié)合以全景角度敘事,打破了時(shí)空界限,全方面延伸了人的身體感官,使受眾產(chǎn)生親臨現(xiàn)場的“沉浸感”,也破壞了原有的新聞價(jià)值體系,使新聞?wù)鎸?shí)被淡化。從數(shù)據(jù)角度來看,算法自身存在缺陷,不具備人類選擇新聞價(jià)值的能力,極易在處理數(shù)據(jù)過程中產(chǎn)生偏差,導(dǎo)致虛假新聞。從場景角度來看,與傳統(tǒng)的文字圖片報(bào)道不同,沉浸式新聞借助影像搭建起具備“在場感”的虛擬世界,受眾借助穿戴式設(shè)備在虛假與真實(shí)交融的場景中還原新聞,在巨大的感官沖擊下,真實(shí)與虛構(gòu)的邊界被模糊,受眾極易主觀扭曲事實(shí)真相,迷失在隱含的價(jià)值觀和傾向性中,正如此前受到關(guān)注的人臉交換技術(shù)為公眾帶來的困惑[7]。

2.5 缺少深度,違背新聞專業(yè)主義

傳統(tǒng)記者往往親臨現(xiàn)場,依據(jù)新聞價(jià)值采寫新聞,不僅最大限度反映客觀事實(shí),也會對事件進(jìn)行評論分析,特別是在深度報(bào)道中,能夠體現(xiàn)出人性的思考。人工智能則是依托海量數(shù)據(jù)庫,按照程序設(shè)定好的模板生產(chǎn)稿件,本質(zhì)上是數(shù)據(jù)堆砌出來的新聞,只停步于簡單的同質(zhì)化敘事,無法像人類一樣挖掘表象背后的實(shí)質(zhì),缺少深度分析和批判能力,難以引起情感共鳴。媒體不僅能夠傳遞信息,還維系著社會的眾多聯(lián)系。我們無法否認(rèn)技術(shù)為新聞業(yè)帶來的變革,卻也不得不承認(rèn),機(jī)器并不能傳承人的社會責(zé)任感。過度地追求工具理性而忽略人文關(guān)懷,會導(dǎo)致新聞記者喪失深度采寫和創(chuàng)新的能力,讓新聞無生命、無溫度,新聞專業(yè)主義不斷被消解。

3 溯源——技術(shù)影響新聞倫理的原因

3.1 技術(shù)不成熟,媒介素養(yǎng)欠缺

回顧人工智能發(fā)展歷程,雖已有幾十年發(fā)展歷史,但直到近年來因?yàn)榧夹g(shù)的推動才重新引起重視,如今人們?nèi)栽谂μ剿魉诟鱾€(gè)領(lǐng)域內(nèi)的實(shí)踐,在新聞領(lǐng)域內(nèi)的應(yīng)用更是處于初步發(fā)展階段。目前,人工智能程序由人類設(shè)計(jì),其本身還存在諸多不成熟的地方有待完善,在帶來顯著成果的同時(shí),也時(shí)常引發(fā)一系列問題,而當(dāng)算法出錯(cuò)帶來惡果時(shí),人類尚且沒有完善的應(yīng)急方案。同時(shí),由于技術(shù)與新聞之間存在鴻溝,算法設(shè)計(jì)者缺乏一定的媒介知識,而專業(yè)新聞工作者又難以迅速掌握算法語言,落后的媒介素養(yǎng)跟不上技術(shù)的變革腳步,媒介接觸者無法及時(shí)認(rèn)識到媒介倫理所受到的沖擊。在5G技術(shù)的推動下,人工智能發(fā)展前途廣闊,但技術(shù)并非萬能,提高全民媒介素養(yǎng)迫在眉睫。

3.2 工具理性與價(jià)值理性的失衡

合理使用人工智能技術(shù)能夠促進(jìn)傳媒業(yè)良好發(fā)展,而對技術(shù)的濫用則會引發(fā)相應(yīng)的倫理問題。德國學(xué)者馬克斯·韋伯曾提出“工具理性”和“價(jià)值理性”兩個(gè)概念,工具理性指向目的合理性行動,價(jià)值理性指向價(jià)值合理性行動,工具理性將推動人類社會的發(fā)展,但同時(shí)也會沖擊價(jià)值理性[8]。人工智能對新聞倫理的沖擊,正是工具理性和價(jià)值理性失衡的表現(xiàn),歸根結(jié)底就是人機(jī)關(guān)系不平衡?;ヂ?lián)網(wǎng)時(shí)代話語權(quán)下放,媒介監(jiān)管乏力,媒體為獲取關(guān)注度而過度追求點(diǎn)擊量,不顧社會責(zé)任,以泛娛樂化新聞取代嚴(yán)肅敘事,引導(dǎo)錯(cuò)誤的價(jià)值觀。新聞為公眾提供公共服務(wù),當(dāng)技術(shù)大規(guī)模介入報(bào)道,一旦被濫用,就會使倫理失范。道德在維系社會穩(wěn)定方面的意義不容小覷,只有工具理性與價(jià)值理性平衡發(fā)展,才能使新聞產(chǎn)業(yè)健康運(yùn)作。

3.3 監(jiān)管措施與法律規(guī)范不到位

技術(shù)的進(jìn)步離不開人的監(jiān)管與規(guī)范。一方面,人工智能步入新聞領(lǐng)域時(shí)間較短,其發(fā)展方興未艾,人們重視技術(shù)的突破,卻難以用傳統(tǒng)的監(jiān)管方式去糾正它所帶來的問題。目前,人工智能從程序的設(shè)計(jì)到產(chǎn)品的開發(fā),再到公眾的應(yīng)用,都沒有明確的相關(guān)規(guī)定。舊的管理體系已經(jīng)難以適應(yīng)新的變化,而新的監(jiān)管體制又尚未完整建立,管理的缺位導(dǎo)致技術(shù)倫理的失范,卻又難以有效歸責(zé)。另一方面,世界各國對于出臺相關(guān)法律法規(guī)進(jìn)行規(guī)范的意識還不夠。目前,我國人工智能與新聞業(yè)結(jié)合后有關(guān)智能化新聞的法律法規(guī)還很不完善,這兩者都是沖擊新聞倫理的重要因素。

4 路徑——智能時(shí)代需重塑新聞倫理

未來在5G的助力下,人工智能將進(jìn)一步改造升級,在新聞領(lǐng)域的應(yīng)用也會不斷擴(kuò)展。傳統(tǒng)的新聞倫理規(guī)范已經(jīng)難以跟上人工智能時(shí)代的發(fā)展,這背后反映了人們對于技術(shù)的過度追求以及對人機(jī)關(guān)系的忽視。針對算法所帶來的倫理問題,有必要對其開展相關(guān)課題研究。我們可以從技術(shù)改進(jìn)、政府監(jiān)管、媒體引導(dǎo)和平臺自律四個(gè)維度來探討人工智能時(shí)代如何重塑新聞倫理。

4.1 技術(shù):改進(jìn)算法,提高透明度

算法技術(shù)本身存在缺陷,首先就要從技術(shù)源頭改進(jìn)。在人工智能時(shí)代,算法工程師扮演著重要角色,他們參與程序的設(shè)計(jì)、決策和管理,他們的行為會對他人、對社會帶來深遠(yuǎn)的影響,因此他們理應(yīng)擔(dān)負(fù)更多的倫理責(zé)任[9]。算法工程師應(yīng)多學(xué)習(xí)新聞傳播知識,在編寫代碼、設(shè)計(jì)程序時(shí)將倫理觀念帶入其中,改進(jìn)技術(shù),盡可能減少偏見與歧視。此外,由于知識鴻溝的存在,又涉及到開發(fā)者的商業(yè)機(jī)密,大眾難以掌握復(fù)雜的算法語言,即使意識到倫理失范,也難以理解算法規(guī)則并解決問題,因此現(xiàn)代社會必須提高算法透明度,針對不同的算法規(guī)則采取合適的透明度,適當(dāng)?shù)叵蛴脩艄_數(shù)據(jù)信息。

4.2 政府:推動法律建設(shè),加強(qiáng)監(jiān)管

我國的新聞業(yè)起步較晚,新聞法律法規(guī)尚未建立完整體系,人工智能相關(guān)的規(guī)范也尚顯空白。對于技術(shù)的規(guī)范,離不開法律建設(shè)和監(jiān)管督查。政府需加快推進(jìn)融合新聞與人工智能的法律法規(guī),讓法律來界定違法行為,將法治觀念融入技術(shù)的生產(chǎn)與使用中,而法律的建立不僅要靠立法者,還需要呼喚公眾的力量。同時(shí),政府需要加強(qiáng)對平臺、媒體和技術(shù)本身的監(jiān)管督查力度,填補(bǔ)監(jiān)管空白,在智能應(yīng)用出現(xiàn)問題時(shí)及時(shí)約束,保護(hù)公民的合法權(quán)益。

4.3 媒體:正面引導(dǎo),培養(yǎng)復(fù)合型人才

新聞媒體維系著社會的穩(wěn)定。首先,媒體必須發(fā)揮主體作用。機(jī)器人寫作雖然極大促進(jìn)了新聞變革,但機(jī)械化、模板化的生產(chǎn)過程無法取代傳統(tǒng)記者的獨(dú)立思考和批判能力,因此媒體必須明確職責(zé),在價(jià)值觀上發(fā)揮積極引導(dǎo)作用。其次,媒體應(yīng)加大對新聞傳播的監(jiān)管。算法生產(chǎn)新聞在現(xiàn)階段難免出錯(cuò),媒體工作者需加強(qiáng)把關(guān)能力,對機(jī)器所無法涉及的過程加強(qiáng)審核與監(jiān)查力度,采取有效應(yīng)急方案。再者,當(dāng)務(wù)之急是建立一支新型新聞人才隊(duì)伍。新聞從業(yè)人員需帶頭學(xué)習(xí)人工智能知識,提高技術(shù)素養(yǎng),才能更好地將新聞價(jià)值觀融入到智媒應(yīng)用中。

4.4 平臺層面:自我約束,規(guī)范行為

人工智能時(shí)代,互聯(lián)網(wǎng)企業(yè)平臺作為向公眾傳遞信息的中介,對于平臺傳播中的倫理失范問題也必須承擔(dān)責(zé)任。今日頭條創(chuàng)始人張一鳴曾公開宣揚(yáng)“算法沒有價(jià)值觀”,引發(fā)了大眾對利用算法的互聯(lián)網(wǎng)平臺的指責(zé)[10]。互聯(lián)網(wǎng)平臺從用戶那里獲得了商業(yè)利潤,相應(yīng)地就該對社會負(fù)責(zé)。平臺需制定自我約束機(jī)制,加強(qiáng)內(nèi)容審核,在倫理的框架中規(guī)范自身行為,自覺合法地獲取用戶信息,建立風(fēng)險(xiǎn)預(yù)警機(jī)制,糾正算法帶來的倫理問題。

5 結(jié)語

技術(shù)的發(fā)展推動社會的變革。人工智能為社會各個(gè)領(lǐng)域帶來新變化,也不可避免地會產(chǎn)生一些新問題。但使用技術(shù)的主體始終是人類,人類對技術(shù)的把握和控制決定著它將走向何處。新聞倫理關(guān)系到社會進(jìn)步的方方面面,當(dāng)下急需構(gòu)建新的范式框架來界定倫理邊界。人工智能與新聞產(chǎn)業(yè)聯(lián)合發(fā)展,其關(guān)鍵就在于人機(jī)合作,只有把人機(jī)協(xié)作理念貫穿于建設(shè)法律法規(guī)、加強(qiáng)正面引導(dǎo)、提高媒介素養(yǎng)、強(qiáng)化平臺監(jiān)管等一系列具體措施中,才能促使新聞業(yè)在人工智能時(shí)代朝著健康良性的方向發(fā)展。

參考文獻(xiàn)

[1]楊正洪,郭良越,劉瑋.人工智能與大數(shù)據(jù)技術(shù)導(dǎo)論[M].北京:清華大學(xué)出版社,2019:1-2.

[2]郎勁松,初廣志.傳媒倫理學(xué)導(dǎo)論[M].杭州:浙江大學(xué)出版社,2007:93-94.

[3]邱仁宗,黃雯,翟曉梅.大數(shù)據(jù)技術(shù)的倫理問題[J].科學(xué)與社會,2014(1):36-48.

[4]全媒派.人臉識別背后的算法都有哪些偏見[EB/OL].(2019-11-08)[2020-09-30].https://www.tmtpost. com/4187081.html.

[5]凱斯·R·桑斯坦.信息烏托邦:眾人如何生產(chǎn)知識[M].畢競悅,譯.北京:法律出版社,2008:15-20.

[6]侯艷艷.Facebook再曝?cái)?shù)據(jù)丑聞:1.2億用戶數(shù)據(jù)面臨泄露風(fēng)險(xiǎn)[EB/OL].(2018-06-29)[0020-09-30].驅(qū)動中國,https://news.qudong.com/article/499577. shtml.

[7]趙雙閣,高旭.VR技術(shù)應(yīng)用新聞實(shí)踐的倫理困境及其突破策略[J].出版發(fā)行研究,2018(8):65-69.

[8]吳飛,田野.新聞專業(yè)主義2.0:理念重構(gòu)[J].國際新聞界,2015(7):6-25.

[9]曹南燕.科學(xué)家和工程師的倫理責(zé)任[J].哲學(xué)研究,2000(1):45-51.

[10]韓維正.算法也有價(jià)值觀[EB/OL].(2018-04-13)[2020-09-30].http://paper.people.com.cn/ rmrbhwb/html/2018-04/13/content_1847929.htm.

猜你喜歡
新聞倫理數(shù)據(jù)算法
Travellng thg World Full—time for Rree
學(xué)習(xí)算法的“三種境界”
算法框圖的補(bǔ)全
算法初步知識盤點(diǎn)
公路工程試驗(yàn)檢測存在的問題及措施
一種借助數(shù)據(jù)處理構(gòu)建的智能食堂管理系統(tǒng)
災(zāi)難新聞報(bào)道中的媒介倫理失范探析
淺談計(jì)量自動化系統(tǒng)實(shí)現(xiàn)預(yù)購電管理應(yīng)用
災(zāi)難報(bào)道中的倫理失范與規(guī)范
社交媒體時(shí)代突發(fā)事件報(bào)道面臨的新問題
密云县| 砀山县| 宁波市| 永兴县| 包头市| 河池市| 科尔| 卢湾区| 石家庄市| 长顺县| 宁安市| 汤原县| 汉川市| 图片| 黄浦区| 封开县| 宜川县| 运城市| 昆山市| 星座| 阆中市| 永善县| 广州市| 武乡县| 沙田区| 应城市| 陇西县| 肥城市| 元朗区| 汝阳县| 库伦旗| 古蔺县| 鄂伦春自治旗| 高淳县| 祁连县| 昌乐县| 中宁县| 延吉市| 开平市| 桃江县| 古浪县|