国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能技術(shù)的倫理問(wèn)題研究

2020-03-13 23:46
關(guān)鍵詞:個(gè)人信息機(jī)器倫理

龍 嶺

(蘇州科技大學(xué)馬克思主義學(xué)院,江蘇蘇州 215009)

近年來(lái),人工智能技術(shù)突飛猛進(jìn),機(jī)器人、圖像識(shí)別、語(yǔ)音識(shí)別、指紋識(shí)別和人臉識(shí)別等人工智能技術(shù)應(yīng)用廣泛。機(jī)遇與挑戰(zhàn)并存,技術(shù)進(jìn)步與應(yīng)用發(fā)展的同時(shí)也引發(fā)了不少實(shí)際問(wèn)題和矛盾風(fēng)險(xiǎn),人類社會(huì)道德秩序甚至遭到前所未有的倫理挑戰(zhàn)。處理好人機(jī)關(guān)系實(shí)質(zhì)上就是處理好科技和社會(huì)協(xié)調(diào)發(fā)展之間的關(guān)系,如何劃定人工智能發(fā)展的道德邊界,倫理學(xué)應(yīng)該在場(chǎng)。本文試圖在倫理學(xué)視域下探究人工智能技術(shù)發(fā)展中潛在的倫理問(wèn)題,并提出相應(yīng)的對(duì)策。

一、人工智能技術(shù)引發(fā)的哲學(xué)思考

追溯人工智能的起源,1950 年英國(guó)“計(jì)算機(jī)科學(xué)之父”艾倫·圖靈提出了“圖靈測(cè)試”:假定一臺(tái)機(jī)器通過(guò)電傳設(shè)備的顯示方式,能在5 分鐘內(nèi)回答由人類測(cè)試者提出的一系列問(wèn)題,并且有超過(guò)30%的測(cè)試者認(rèn)為是人類在作答,那么這臺(tái)機(jī)器就通過(guò)了測(cè)試,這臺(tái)機(jī)器具有智能[1]。這一測(cè)試使得圖靈能夠說(shuō)明一種可能性:能創(chuàng)造具有真正智能的“思考的機(jī)器”①1950年圖靈發(fā)表在論文《計(jì)算機(jī)器與智能》(Compu-ting Machinery and Intelligence)提及的“智能”概念僅為粗略描述,并無(wú)準(zhǔn)確清晰的定義。。機(jī)器真的能思維嗎?一旦機(jī)器語(yǔ)言通過(guò)了“圖靈測(cè)試”,人們分不清正在交談的對(duì)象到底是機(jī)器還是人,這種真假難辨的情境令人產(chǎn)生恐慌和焦慮,不得不引發(fā)人類對(duì)人和機(jī)器關(guān)系的重新認(rèn)識(shí)和思考。

1956 年,約翰·麥卡錫在達(dá)特茅斯會(huì)議上首次提出了“人工智能”(Artificial Intelligence,簡(jiǎn)稱AI)這一術(shù)語(yǔ)。所謂人工智能技術(shù)就是人類制造模仿人類的機(jī)器,使其具有能讀懂語(yǔ)言、創(chuàng)建抽象概念等智能特征的科學(xué)技術(shù)[2]。

當(dāng)前,人類對(duì)AI 領(lǐng)域一直持續(xù)關(guān)注,依托AI 技術(shù)高效推動(dòng)技術(shù)創(chuàng)新和生產(chǎn)應(yīng)用,“智慧+”生活正加速人類和世界的發(fā)展進(jìn)程,并勾勒出未來(lái)生活的圖景和無(wú)限可能。然而,現(xiàn)實(shí)中“機(jī)器替代人類”的現(xiàn)象屢有發(fā)生,特別是在勞動(dòng)服務(wù)方面。馬克思認(rèn)為,勞動(dòng)是人的本質(zhì),是凸顯人的社會(huì)性的活動(dòng)。一旦制造、服務(wù)等行業(yè)使用智能機(jī)械、機(jī)器人實(shí)現(xiàn)某些工作自動(dòng)化,如自動(dòng)駕駛的汽車(chē)改變出租車(chē)和共享汽車(chē)雇傭模式等,“機(jī)器換人”的態(tài)勢(shì)必然會(huì)導(dǎo)致部分人陸續(xù)被迫喪失勞動(dòng)機(jī)會(huì),加劇社會(huì)就業(yè)難和失業(yè)問(wèn)題。懷著樂(lè)觀主義精神的人們贊同“勞動(dòng)是從制造工具開(kāi)始的”[3]。隨著AI 高效運(yùn)轉(zhuǎn)的生產(chǎn)模式對(duì)具體勞動(dòng)的影響不斷增大,重復(fù)單調(diào)、繁重、危險(xiǎn)性的體力勞動(dòng)逐漸由自動(dòng)化機(jī)器替代完成。計(jì)算機(jī)和數(shù)學(xué)的發(fā)展推動(dòng)了AI 技術(shù)的完善,讓AI 變得比人類更快速、更智能地處理那些龐大復(fù)雜的信息。從長(zhǎng)遠(yuǎn)看來(lái),這種替代效應(yīng)能讓人們擁有更多的自由時(shí)間和精力從事腦力勞動(dòng)、創(chuàng)造性的工作,從而追求個(gè)人自由而全面的發(fā)展。

而一些對(duì)AI 技術(shù)持悲觀態(tài)度的人則由此產(chǎn)生某些焦慮:假如AI 機(jī)器人像人類一樣擁有自己的智慧,或者未來(lái)超級(jí)智能完全達(dá)到并超越了人類智能,必將背叛和反抗人類,甚至?xí)麥缛祟悾蝗绻鸄I 機(jī)器能模仿人類的感知能力和情緒情感,具備與人類近似的思維和推理能力,就要賦予其同人相等的主體地位,那么“自主”“自由意志”“理性”等概念都或?qū)⒈恢匦露x。縱觀人類歷史的技術(shù)革命發(fā)展進(jìn)程,在每一次技術(shù)革新中,都讓人不得不重新思考人類的自我認(rèn)知,并為新的物我關(guān)系而感到焦慮。人工智能的發(fā)展不可逆,而由此產(chǎn)生的倫理風(fēng)險(xiǎn)卻需要人們以合理方式研判減小或規(guī)避,以求人機(jī)共生、相得益彰,從而維護(hù)社會(huì)生活的良序發(fā)展。

二、人工智能技術(shù)發(fā)展的潛在倫理問(wèn)題

AI 技術(shù)發(fā)展帶來(lái)的潛在倫理挑戰(zhàn)主要涉及智能機(jī)器可能造成威脅生命安全、個(gè)人信息泄露、挑戰(zhàn)人類智能等方面問(wèn)題。

(一)新“電車(chē)難題”威脅生命安全

無(wú)人駕駛或自動(dòng)駕駛技術(shù)是現(xiàn)代社會(huì)極為關(guān)注的AI 技術(shù)應(yīng)用之一,也是未來(lái)駕駛的發(fā)展趨勢(shì)和時(shí)代新風(fēng)尚。具有自主性和智能化的自動(dòng)駕駛技術(shù)一旦得以應(yīng)用和普遍推廣,必須要有完善的倫理規(guī)范和法律法規(guī)為其提供保障和道德指引。否則,人類終究會(huì)因無(wú)法有效應(yīng)對(duì)倫理學(xué)上的“電車(chē)難題”①“電車(chē)難題”(Trolley Problem)最早由英國(guó)哲學(xué)家菲利帕·福特(Philippa Foot)于1967年提出。,而陷入道德兩難困境,甚至造成極為嚴(yán)重的人身危害。

倫理學(xué)著名的“電車(chē)難題”提出:假定一輛電車(chē)行駛途中失控,其原軌道有5人被綁在鐵軌上,如果司機(jī)繼續(xù)行駛則致使5 人全部喪命;如果司機(jī)變道至另一條也有1人被綁的軌道,就會(huì)讓這一人死亡。如此,無(wú)論行駛哪一條軌道,都會(huì)造成人身安全受損[4]。倫理學(xué)研究對(duì)此案例一般有兩種考量:以功利論為依據(jù)認(rèn)為犧牲較少數(shù)人的利益維護(hù)多數(shù)人的利益;而以義務(wù)論為依據(jù)的人則認(rèn)為生命安全人人平等,以犧牲少數(shù)人生命來(lái)救助他人生命違背了人道主義精神。此外,與自動(dòng)駕駛關(guān)聯(lián)性更緊密的是“隧道難題”:乘客乘坐一輛自動(dòng)駕駛汽車(chē)正駛?cè)雴涡械浪淼?,在隧道入口處突然有一個(gè)兒童跑到了路中央,此時(shí)自動(dòng)駕駛汽車(chē)是選擇繼續(xù)駛向入口撞向兒童,還是應(yīng)該選擇急速轉(zhuǎn)向撞到隧道兩旁的墻壁,造成汽車(chē)內(nèi)乘客的生命危險(xiǎn)[5]。

自動(dòng)駕駛技術(shù)或?qū)⒊蔀锳I 技術(shù)發(fā)展面臨的新“電車(chē)難題”,即在遇到無(wú)法預(yù)測(cè)或無(wú)法避免的傷害情形中,自動(dòng)駕駛程序應(yīng)首先保護(hù)車(chē)外路人還是車(chē)內(nèi)乘客。實(shí)質(zhì)上,新“電車(chē)難題”涉及的倫理問(wèn)題最直接和最根本的是智能機(jī)器對(duì)生命安全的威脅。“特斯拉事件”②2019 年5 月特斯拉自動(dòng)駕駛安全事故造成駕駛員不幸死亡,汽車(chē)在事故中啟動(dòng)自動(dòng)駕駛功能并在無(wú)任何規(guī)避措施的情形下,直接撞上了路邊的卡車(chē)。讓人們對(duì)自動(dòng)駕駛汽車(chē)的安全性產(chǎn)生了進(jìn)一步的懷疑。

新“電車(chē)難題”相比經(jīng)典難題又有所不同,經(jīng)典“電車(chē)難題”的道德判斷和道德選擇的主體是人,而無(wú)人駕駛情景下道德決策是由駕駛程序的人工智能系統(tǒng)決定。如果程序先前已被設(shè)定,現(xiàn)實(shí)情景中不論發(fā)生何種變故,都將按照既定倫理原則做出判斷和選擇,倫理責(zé)任也自然歸咎于無(wú)人駕駛?cè)斯ぶ悄艹绦虻脑O(shè)計(jì)者。這就要求設(shè)計(jì)者不僅技術(shù)過(guò)硬,倫理學(xué)知識(shí)儲(chǔ)備也必須扎實(shí),才能嵌入合理恰當(dāng)?shù)膫惱碓瓌t到算法系統(tǒng)中。此外,經(jīng)典“電車(chē)難題”的道德選擇直接影響的是軌道上的多數(shù)人或少數(shù)人的利益,不會(huì)影響決策者自身利益。而在無(wú)人駕駛情境下的購(gòu)買(mǎi)者和使用者是道德選擇的決策者兼直接利益相關(guān)者,他會(huì)極大可能考慮到自身利益而選擇購(gòu)買(mǎi)和使用有利于保護(hù)自身的無(wú)人駕駛汽車(chē),畢竟沒(méi)有消費(fèi)者會(huì)為一輛隨時(shí)會(huì)讓自我喪命的汽車(chē)買(mǎi)單。

(二)數(shù)據(jù)過(guò)度授權(quán)侵犯?jìng)€(gè)人信息權(quán)

伴隨云計(jì)算、大數(shù)據(jù)、5G 等網(wǎng)絡(luò)媒介技術(shù)的迅猛發(fā)展,當(dāng)代人迎來(lái)了網(wǎng)絡(luò)刷屏新時(shí)代[6]。網(wǎng)絡(luò)時(shí)代的信息來(lái)源和傳播途徑多元而泛濫,大量信息被收集置于開(kāi)放、共享的空間中。機(jī)器雖然能夠?qū)W習(xí)和處理龐大復(fù)雜的數(shù)據(jù)和信息,但終究難以有等同人類的思維和情感,容易將個(gè)人信息列為公共信息造成個(gè)人隱私泄露。尊重個(gè)人信息權(quán)和隱私是社會(huì)各界廣泛關(guān)注的問(wèn)題,我國(guó)《民法總則》明確規(guī)定了隱私權(quán)是自然人享有的人格權(quán),且個(gè)人信息權(quán)亦受法律保護(hù)[7]。

如何在智能化、信息化的時(shí)代有效保護(hù)公眾的個(gè)人信息權(quán),技術(shù)倫理的探討從未停歇。人們普遍認(rèn)為,在處理信息共享與個(gè)人權(quán)利的關(guān)系上,知情同意可以適當(dāng)避免個(gè)人信息權(quán)被侵害。知情同意原則要求數(shù)據(jù)采集者在開(kāi)始采集之前首先需要征得個(gè)人同意和授權(quán),告知數(shù)據(jù)后續(xù)的用途和價(jià)值。然而,一方面,數(shù)據(jù)的潛在價(jià)值未來(lái)可能遞增,征得同意時(shí)不可能當(dāng)時(shí)就要求人們同意這些數(shù)據(jù)未來(lái)可能產(chǎn)生的價(jià)值[8]102。另一方面,在數(shù)據(jù)規(guī)模極為龐大的情況下,又不可能征得人人同意,比如某平臺(tái)利用大數(shù)據(jù)預(yù)測(cè)流感病毒情況時(shí),很難無(wú)一遺漏地征得全球所有用戶同意;又比如某社交平臺(tái)運(yùn)行時(shí),應(yīng)用授權(quán)在征得同意時(shí)條款不明晰而造成知情不完全等問(wèn)題??偠灾?,AI 技術(shù)愈強(qiáng)大,個(gè)人信息權(quán)愈易受侵犯,不論是知情同意原則亦或利用技術(shù)上的模糊化和匿名化,都難以做到很好的保護(hù)[8]103。

(三)智能機(jī)器人挑戰(zhàn)人類主體地位

“機(jī)器換人”現(xiàn)象讓我們見(jiàn)識(shí)了AI 超強(qiáng)的深度學(xué)習(xí)能力,具有自主意識(shí)的超級(jí)智能或許不再是“天方夜譚”。未來(lái)可能擁有與人類高度相似的具有自我意識(shí)的智能機(jī)器,不僅具有“類人腦”的內(nèi)在結(jié)構(gòu)仿造,還有深度學(xué)習(xí)模擬人類大腦信息過(guò)程的思維功能模擬。

從本質(zhì)來(lái)看,人工智能是對(duì)人腦思維過(guò)程的模擬。在人機(jī)交互實(shí)踐中,AI機(jī)器可通過(guò)自動(dòng)認(rèn)知、決策和行為完成任務(wù),一定程度上顯示出某種“主體性”,成為一種介于人類主體與一般事物之間的實(shí)體[9]。

2017 年,機(jī)器人“索菲亞”在“未來(lái)投資倡議”大會(huì)①未來(lái)投資倡議峰,由沙特阿拉伯經(jīng)濟(jì)和發(fā)展事務(wù)委員會(huì)主席發(fā)起,旨在探索塑造未來(lái)全球經(jīng)濟(jì)并驅(qū)動(dòng)沙特經(jīng)濟(jì)改革的投資領(lǐng)域和發(fā)展路徑。上被授予沙特國(guó)籍,成為史上首個(gè)擁有“公民”身份的機(jī)器人[10]。創(chuàng)新技術(shù)而制造的機(jī)器竟輕而易舉就獲得公民權(quán)利,引發(fā)社會(huì)對(duì)“機(jī)器人權(quán)利”的熱議。機(jī)器人被人類創(chuàng)造出來(lái)的那一刻就擁有了生命,是一種人工生命。而從某種角度看,“我們的身體就是機(jī)器。它是一個(gè)非常復(fù)雜的機(jī)器,比人工制造的機(jī)器要復(fù)雜許多倍,但它畢竟還是機(jī)器”[11]。身體內(nèi)部的各個(gè)器官、組織、細(xì)胞等構(gòu)成的“小零件”就像是一個(gè)機(jī)器,但問(wèn)題不在表面的結(jié)構(gòu)形式,而在于這種機(jī)器沒(méi)有思維。智能機(jī)器的出現(xiàn),使一些學(xué)者開(kāi)始反思思維是否只是屬于人的活動(dòng)。

值得一提的是,對(duì)智能機(jī)器人主體性問(wèn)題的討論必然涉及倫理學(xué)上道德主體責(zé)任問(wèn)題,如果賦予智能機(jī)器以主體地位,一旦發(fā)生危害的道德行為,機(jī)器人能否承擔(dān)責(zé)任;設(shè)計(jì)者和應(yīng)用者是否共同承擔(dān)責(zé)任,又如何分配他們之間相應(yīng)的責(zé)任。AI 設(shè)計(jì)和應(yīng)用中的責(zé)任主體不確定就難以追責(zé),涉及的公平正義原則就會(huì)失去原有意義,將造成社會(huì)發(fā)展的不均衡,帶來(lái)更大的倫理風(fēng)險(xiǎn)與挑戰(zhàn)。

三、人工智能技術(shù)倫理問(wèn)題的對(duì)策探究

(一)遵循基本價(jià)值原則

以何種倫理原則指引AI 技術(shù)設(shè)計(jì)和應(yīng)用并有效應(yīng)對(duì)潛在倫理問(wèn)題,將直接影響人類未來(lái)命運(yùn)。AI技術(shù)倫理研究是應(yīng)用倫理學(xué)的研究領(lǐng)域,將倫理道德原則嵌入到技術(shù)領(lǐng)域的舉措勢(shì)在必行。

人與物之間的根本區(qū)別在于人作為實(shí)體是自在目的,是自身行動(dòng)的目的及現(xiàn)實(shí)世界的必然存在[12],而非手段和工具;物是手段,機(jī)器只是處理事實(shí)的工具,是“為人”的,為人類所用,并不構(gòu)成創(chuàng)造性活動(dòng)。機(jī)器是人類的智能或意識(shí)的模擬,本質(zhì)上只是人類智能或人類智慧的延伸,而非新的智能。人類不可能無(wú)條件地承認(rèn)并賦予智能機(jī)器以權(quán)利,而要與社會(huì)核心價(jià)值體系保持一致,AI 不得故意傷害人,應(yīng)以人為中心,以保護(hù)生命安全權(quán)為前提,以為人類造福為最終目的而滿足人類需要。

人類對(duì)待AI 的態(tài)度決定了未來(lái)技術(shù)發(fā)展的廣度和深度。在AI 倫理規(guī)制研究的道路上,尤德科斯基的“友好型人工智能”為我們提供了方向:“人類進(jìn)化事實(shí)上就是信息體的進(jìn)化,人實(shí)質(zhì)上就是與人工智能一樣的智能體存在”[13]。友好型AI 意味著我們對(duì)待發(fā)展迅速且無(wú)法預(yù)期未來(lái)極限的AI 技術(shù),要像對(duì)待人類自身那樣,將自身的價(jià)值和意義投射到對(duì)AI 的實(shí)際運(yùn)用中,并非機(jī)械地給AI 植入人類倫理道德規(guī)則。工具具有兩面性,人類需要理性對(duì)待AI 技術(shù),根據(jù)自身意愿與人工智能相互合作共贏。如果極端而強(qiáng)勢(shì)地排斥技術(shù),則會(huì)陷入固步自封的境地,而極端依賴工具又會(huì)消解自身價(jià)值和意義。

(二)健全法律體系和監(jiān)管制度

人工智能是現(xiàn)代和未來(lái)社會(huì)發(fā)展的強(qiáng)大驅(qū)動(dòng),陸續(xù)成為各國(guó)國(guó)家發(fā)展戰(zhàn)略的新領(lǐng)域,“智能+”的標(biāo)簽讓社會(huì)生產(chǎn)生活進(jìn)入了新階段。AI 技術(shù)廣泛應(yīng)用所涉及的網(wǎng)絡(luò)安全、個(gè)人信息、公平公正等社會(huì)風(fēng)險(xiǎn)必定要納入國(guó)家發(fā)展戰(zhàn)略計(jì)劃的相關(guān)倫理規(guī)范和法律體系中考量。

一方面,國(guó)家立法機(jī)構(gòu)和法律專家應(yīng)在倫理和主體性哲學(xué)研究基礎(chǔ)上,適時(shí)出臺(tái)并完善《人工智能法》等相關(guān)法律法規(guī)、倫理規(guī)范和政策體系,以良法促進(jìn)技術(shù)發(fā)展。如自動(dòng)駕駛導(dǎo)致行人傷亡時(shí),究竟應(yīng)如何定罪,主體責(zé)任由誰(shuí)承擔(dān);立法原則是選擇保護(hù)技術(shù)創(chuàng)新為主還是保護(hù)公眾生命安全為主,都應(yīng)該深入研判。另一方面,施行公開(kāi)透明的AI 監(jiān)管,開(kāi)放社會(huì)輿論監(jiān)督監(jiān)管平臺(tái)。面對(duì)信息共享時(shí)代紛繁復(fù)雜的數(shù)據(jù)泛濫問(wèn)題,AI 技術(shù)要在個(gè)人信息收集、存儲(chǔ)、處理、使用等各環(huán)節(jié)設(shè)置道德邊界和底線,在數(shù)據(jù)挖掘中尋找有價(jià)值的見(jiàn)解;尊重和保護(hù)個(gè)人信息權(quán),完善個(gè)人同意授權(quán)和數(shù)據(jù)撤銷(xiāo)機(jī)制,充分保障個(gè)人的知情權(quán)和選擇權(quán),反對(duì)任何竊取、篡改、泄露和其他非法收集利用個(gè)人信息的行為,由此減輕公眾對(duì)人工智能安全的憂慮,最終形成人與人工智能良性互動(dòng)的局面。

(三)合力推進(jìn)人機(jī)融合智能

AI技術(shù)倫理建構(gòu)需要多方參與、協(xié)同合作建設(shè)和管理。人機(jī)融合發(fā)展就是要依托AI 技術(shù)發(fā)揮機(jī)器智能化作用,補(bǔ)齊人類智能在信息搜索、收集、處理、記憶等方面的短板,將人類智能與人工智能高效結(jié)合,解決因社會(huì)發(fā)展而產(chǎn)生的各種問(wèn)題。

第一,改變舊式思維模式。我們無(wú)需抗拒AI 良性發(fā)展,而應(yīng)意識(shí)到AI 給人類帶來(lái)福音還是災(zāi)難,實(shí)則根本取決于人類自身,而不是機(jī)器本身[14]。人類要不斷優(yōu)化AI 技術(shù)層面的可持續(xù)性,借助技術(shù)逐步提高社會(huì)生產(chǎn)率,解放人類雙手,使勞動(dòng)的表現(xiàn)形式不再簡(jiǎn)單粗糙,推動(dòng)人的解放。

第二,優(yōu)化人機(jī)合作關(guān)系。人類和AI 技術(shù)不應(yīng)對(duì)立,應(yīng)當(dāng)建立相互適應(yīng)與相互信任的機(jī)制。面對(duì)突發(fā)事件,人由情感支配喚起理性作出道德判斷和道德選擇,對(duì)比之下,人工智能則表現(xiàn)得相對(duì)機(jī)械,因而常常容易形成偏見(jiàn)。因此,讓AI 技術(shù)在學(xué)習(xí)、儲(chǔ)存、語(yǔ)言、計(jì)算、生產(chǎn)、模仿等方面發(fā)揮最大特長(zhǎng),思維、情感等方面只需交給人類。同時(shí),人類自身的思維模式和大腦知識(shí)儲(chǔ)備也應(yīng)當(dāng)開(kāi)拓進(jìn)取,不斷追求人類知識(shí)界限,超越自己并全面發(fā)展。

第三,他律與自律相結(jié)合。在人工智能道德規(guī)范法律法規(guī)、倫理道德和標(biāo)準(zhǔn)規(guī)范制度框架下,企業(yè)應(yīng)加強(qiáng)AI 管理和AI 倫理道德教育,增強(qiáng)企業(yè)社會(huì)責(zé)任感和企業(yè)個(gè)人自律意識(shí);重視利益再分配,通過(guò)道德譴責(zé)和法律制裁相結(jié)合的方式合理謹(jǐn)慎地權(quán)衡利益,減少AI 技術(shù)給社會(huì)帶來(lái)的利益風(fēng)險(xiǎn)和沖擊,興利除弊地推進(jìn)未來(lái)智能技術(shù)向增進(jìn)人類福祉的方向前進(jìn)。

人工智能技是把“雙刃劍”。人類在享受人工智能紅利的同時(shí)必須要認(rèn)識(shí)到未來(lái)科技發(fā)展的不確定性,需要審視人工智能潛在的倫理問(wèn)題。目前對(duì)人工智能技術(shù)的倫理探究?jī)H僅作為社會(huì)人倫和道德規(guī)范指引,尚且處在具體制度設(shè)計(jì)和框架體系的基礎(chǔ)環(huán)節(jié)。未來(lái)超級(jí)智能想要實(shí)現(xiàn)更高層次的應(yīng)用和飛躍式發(fā)展,還將涉及哲學(xué)、心理學(xué)、語(yǔ)言學(xué)等社會(huì)科學(xué)與計(jì)算機(jī)科學(xué)、數(shù)學(xué)等學(xué)科的交叉研究。正如人類從未停止對(duì)科技的探索一樣,對(duì)人工智能技術(shù)倫理的深入也亟待豐富和完善。

猜你喜歡
個(gè)人信息機(jī)器倫理
《心之死》的趣味與倫理焦慮
如何保護(hù)勞動(dòng)者的個(gè)人信息?
機(jī)器狗
個(gè)人信息保護(hù)進(jìn)入“法時(shí)代”
機(jī)器狗
護(hù)生眼中的倫理修養(yǎng)
警惕個(gè)人信息泄露
未來(lái)機(jī)器城
醫(yī)改莫忘構(gòu)建倫理新機(jī)制
個(gè)人信息保護(hù)等6項(xiàng)通信行業(yè)標(biāo)準(zhǔn)征求意見(jiàn)