周 翔
(溫州商學(xué)院,浙江 溫州 325035)
在信息化時代,人工智能技術(shù)的應(yīng)用引起了社會各界人士的很廣泛關(guān)注,尤其是伴隨著人工智能技術(shù)的迅速發(fā)展和廣泛應(yīng)用,人們將重心放在人工智能所帶來的“倫理問題”上面來,成為人工智能研究發(fā)展中不可忽視的議論核心問題。在此情況下如何滿足時代發(fā)展的高層次需求,如何解決人工智能處于的倫理困境,如何提出有效的突圍策略,成為人工智能研究發(fā)展過程中首要面對的任務(wù)。本文就是對人工智能倫理困境問題與突圍策略等問題進(jìn)行探究。
1.智能駕駛突發(fā)事故出現(xiàn)后帶來的倫理問題
人工智能技術(shù)在智能駕駛領(lǐng)域應(yīng)用得最為廣泛,它與無人駕駛不同,智能駕駛具體是指機(jī)器代替人進(jìn)行駕駛,如駕駛汽車、駕駛輪船、駕駛飛機(jī)等,以及在特殊情況下人無法駕駛,而由智能駕駛來代替人進(jìn)行駕駛。智能駕駛具有解決交通擁擠、提高生產(chǎn)效率、緩解勞動力短期、改善汽車對城市環(huán)境污染等重要作用??梢哉f,智能駕駛的應(yīng)用在一定程度上促進(jìn)了國家科技、經(jīng)濟(jì)、社會的發(fā)展。在這里我們以智能駕駛汽車為例,通過數(shù)據(jù)證明,智能駕駛汽車發(fā)生的交通事故的概率更低,安全系數(shù)更高。每年,我國都會發(fā)生數(shù)量驚人的車禍?zhǔn)鹿?,造成上百萬的人員死亡。而探尋其背后原因,大部分交通事故的出現(xiàn)都是因為駕駛?cè)藛T操作不當(dāng)所導(dǎo)致,如酒駕、隨意變道、高速逆行、疲勞駕駛等,駕駛司機(jī)的這些錯誤行為不僅使自己的生命安全遭受了威脅,還危害了他人的生命安全,而應(yīng)用智能駕駛則在一定程度上解決了這些問題,智能駕駛與帶有主觀情緒的駕駛?cè)藛T相比,更加理性,更加冷靜。它們完全按照系統(tǒng)指示進(jìn)行汽車駕駛,不會因為不良主觀想法出現(xiàn)醉駕、疲勞駕駛等行為,這在一定程度上保護(hù)了很多人的生命安全,尤其是對于不具備汽車駕駛能力的殘疾人、老年人而言,更是提供了出行便利,解決了他們的用車需求。與此同時,通過人工智能技術(shù)的運用,智能駕駛汽車在出行路線的選擇上還會自主選擇人流量較少、紅燈較少的行車路線,解決了交通擁擠、環(huán)境污染等問題,極大地提高了乘車效率。以上我們闡述了智能駕駛?cè)绱硕嗟膬?yōu)點,不可避免的是智能駕駛也會帶來嚴(yán)重的倫理問題[1](P167-187),尤其是智能駕駛出現(xiàn)突發(fā)事故之后,智能駕駛無法進(jìn)行準(zhǔn)確判斷。盡管與人駕駛汽車而言,智能駕駛汽車出現(xiàn)的交通事故案例比較低,但是并不意味著能夠完全實現(xiàn)“零”交通事故。例如,2018年3月發(fā)生在美國亞利桑那州坦佩的一起智能駕駛汽車致人死亡事故。這輛智能駕駛汽車是由美國優(yōu)步技術(shù)公司研發(fā)的,在駕駛的過程中撞上行人,致使其死亡。由此可見,智能駕駛同樣存在嚴(yán)重的安全隱患[2](P30-37)。智能駕駛的出現(xiàn)本身就帶有倫理問題,再加上某些特殊場景的出現(xiàn),導(dǎo)致智能駕駛常常面對更加棘手的倫理困境。我們不妨設(shè)置如下場景:一輛載人的智能駕駛汽車正在快速路上正常行駛,但是突然遇到一位小學(xué)生誤闖到快速路上,這時如果智能駕駛緊急剎車,就會導(dǎo)致后方車輛追尾,車內(nèi)乘客安全也無法保證;如果放棄緊急剎車,就會撞上小學(xué)生。那么智能駕駛汽車究竟該如何做呢?如果駕駛汽車的司機(jī)是人,司機(jī)可以憑借自身經(jīng)驗,將傷害減到最低,保證小學(xué)生的生命安全??墒菍τ谥悄芩緳C(jī)而言,當(dāng)它陷入到倫理困境時,并沒有辦法通過預(yù)先設(shè)置好的系統(tǒng)作出正確的選擇[3](P68-80)。深入分析,我們不難發(fā)現(xiàn)智能駕駛改變了傳統(tǒng)的人與車之間的關(guān)系,帶來了一系列的倫理難題。因為在智能駕駛所導(dǎo)致的交通事故中,并不存在駕駛員的過錯,那么對責(zé)任的判定究竟如何界定?究竟是汽車本身、汽車設(shè)計者、汽車使用者還是汽車制造廠商?
2.人工智能虛擬現(xiàn)實技術(shù)應(yīng)用后帶來的倫理問題
人工智能虛擬現(xiàn)實技術(shù)是多種技術(shù)的綜合,通過人工智能虛擬現(xiàn)實技術(shù)的應(yīng)用,能夠讓人感受到很多虛擬的奇幻體驗[4](P38-42+63),甚至一個人可以從精神和身體上進(jìn)行不同選擇,成為不同的人,獲得不同的情感體驗,與此同時也帶來一系列的倫理問題。例如,人工智能醫(yī)生就是人工智能虛擬現(xiàn)實技術(shù)應(yīng)用的體現(xiàn),人工智能醫(yī)生可以通過醫(yī)療系統(tǒng)平臺實現(xiàn)遠(yuǎn)距離尋醫(yī)問診,甚至可以利用人工智能虛擬現(xiàn)實技術(shù)研制出智能機(jī)器人,使其進(jìn)入到患者身體,檢查患者身體,并根據(jù)具體情況為患者實施專家手術(shù)[5](P509-512)。而與此同時帶來的倫理問題就是病患無法從機(jī)器身上獲得情感安慰和信任感,患者可能出現(xiàn)嚴(yán)重的心理問題。例如,利用人工智能虛擬現(xiàn)實技術(shù)研發(fā)出的電子游戲。很多玩家為了取得勝利,必須使用暴力武器肆無忌憚、想方設(shè)法地殺戮對方。而由于這是一場電子游戲?qū)?,并不會實際對對方玩家造成身體上的傷害,玩家也根本感受不到其中的殘酷與血腥。長此以往,玩家會在潛意識里認(rèn)為為了競爭和獲得勝利就應(yīng)該無所不用其極地去消滅對方,極其容易讓人的精神變得麻木,影響人的心理健康發(fā)展,甚至?xí)郎缛诵?,使人缺乏道德感。在?dāng)今社會,我們與各種智能設(shè)備打交道,它們充斥于我們的生活中,人們將精神支柱放在手機(jī)、電腦等電子智能設(shè)備上,離開了它,仿佛已經(jīng)無法正常的生活。而事實證明,這種虛擬生活并不利于人的精神健康和身體健康,尤其是對于年輕人而言,由于自律能力差,往往沉溺于其中不可自拔,認(rèn)為只有在虛擬世界才能獲得真實感和親近感,而現(xiàn)實社會無聊,空虛、缺乏樂趣。這就是當(dāng)今社會人與人之間的關(guān)系愈發(fā)冷漠的原因。在今天的生活中,我們寧愿拿著手機(jī)與陌生人聊天,卻不愿意與身邊的朋友、同事、父母進(jìn)行情感交流。隨著人工智能虛擬現(xiàn)實技術(shù)的研究與發(fā)展,其應(yīng)用前景十分廣闊,但是在人工智能虛擬現(xiàn)實技術(shù)廣泛應(yīng)用的情況下,勢必會產(chǎn)生一定的倫理問題,傳統(tǒng)的道德責(zé)任情感正在消解。
3.隱私安全被智能系統(tǒng)泄露后帶來的倫理問題
在當(dāng)代社會,網(wǎng)絡(luò)已經(jīng)成為我們生活中不可或缺的一部分。在人工智能的基礎(chǔ)上,互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算等得到了充分的發(fā)展。而隨著這些智能系統(tǒng)的充分應(yīng)用,對人們的隱私安全帶來了一定的威脅??梢哉f通過人工智能技術(shù)將人的“隱私”透明化,人的秘密難以隱藏。例如,通過大數(shù)據(jù)采集分析技術(shù),可以輕易地獲取人的各種信息,如人的性別、年齡、學(xué)歷、婚姻狀況等。例如,在部分事業(yè)單位及企業(yè)中將人的各種數(shù)據(jù)信息存在云端中,但是云端如果一旦被攻擊后這些人員的隱私數(shù)據(jù)則無法保證安全。同時有些智能系統(tǒng)軟件通過云計算能夠所獲得大數(shù)據(jù)進(jìn)行深入分析,如將一個人的網(wǎng)絡(luò)聊天信息、瀏覽信息網(wǎng)站頻率、工作經(jīng)歷、購物網(wǎng)站購物情況等數(shù)據(jù)收集歸納之后,就可以大致分析出這個人的生活背景、消費水平、興趣愛好等。從某種程度來說,智能系統(tǒng)比我們自己更加了解自己。在此情況下,如果智能系統(tǒng)所掌握的敏感數(shù)據(jù)信息被泄露之后或被有心之人盜取之后,做不法之事,必然會給當(dāng)事人帶來嚴(yán)重的倫理困境。在如今的生活中,隱私被侵犯的事件頻頻發(fā)生,如果不采取措施,隨著人工智能技術(shù)的發(fā)展,就會越來越嚴(yán)重。
4.人工智能技術(shù)對婚戀家庭帶來的倫理問題
近年來,隨著人工智能技術(shù)的發(fā)展,通過人工智能技術(shù)的機(jī)器人等為婚戀家庭領(lǐng)域帶來了嚴(yán)重的風(fēng)波,人們的敏感神經(jīng)受到?jīng)_擊。愛情被稱為世界上最美妙的情感,家庭是人生活休息的港灣。而隨著人工智能技術(shù)的發(fā)展對家庭結(jié)構(gòu)和倫理關(guān)系造成了巨大沖擊。在人工智能研究領(lǐng)域,人工智能機(jī)器人的研制備受關(guān)注,也是人工智能領(lǐng)域最難以攻克的領(lǐng)域。研究者希望通過人工智能技術(shù),研究出與“人”越來越類似的機(jī)器人。很多人暢想在人工智能技術(shù)不斷發(fā)展的情況下,所研究出來的人工智能機(jī)器人不僅能夠具有人美麗、英俊的外貌特征,如女人可以具有光滑細(xì)膩的皮膚、高挑纖細(xì)的黃金比例身材、精致動人的容貌等,如男人具有偉岸的身材、健康的體魄、帥氣的容貌等,還應(yīng)具有人的情緒、情感。例如當(dāng)你生氣煩悶時,人工智能機(jī)器人會想方設(shè)法逗你開心,為你排解憂愁。例如當(dāng)你做家務(wù)時,人工智能機(jī)器人可以陪你一起做家務(wù),甚至在你需要情感慰藉時,人工智能機(jī)器人可以陪你談情說愛。而當(dāng)這一系列暢想在未來某一天真的得以實現(xiàn)之后,人工智能機(jī)器人具有人類的外貌特征和人類的自主意識和情感體驗,走入到人們的家庭生活之中,扮演人類家庭中需要的保姆、愛人或者孩子。那么人工智能機(jī)器人與人是否會產(chǎn)生真正的情感?又是否也會產(chǎn)生利益爭奪?我們不妨?xí)诚胍幌拢绻惆凑兆约旱男枰ㄖ埔粋€專屬人工智能機(jī)器人,她美麗可愛、善解人意、勤勞懂事,他英俊迷人、體貼溫暖、風(fēng)趣優(yōu)雅,具有責(zé)任感。人是否會考慮與人工智能機(jī)器人建立婚戀家庭。而這樣的婚姻形式會對傳統(tǒng)的家庭結(jié)構(gòu)造成怎樣的沖擊?人工智能機(jī)器人可以為你提供一個如此優(yōu)質(zhì)的愛人,那么人又怎么可能退而求其次與生活中存在缺點、需要磨合的人去構(gòu)建家庭呢?
5.智能機(jī)器人代替人工作后帶來的倫理問題
隨著人工智能技術(shù)的發(fā)展,智能技術(shù)人大量研發(fā),被廣泛應(yīng)用于各個領(lǐng)域,在一定程度上為企業(yè)節(jié)約了人力資源成本,提高了生產(chǎn)效率,促進(jìn)了企業(yè)發(fā)展,但是智能機(jī)器人代替人工作之后勢必會帶來嚴(yán)重的倫理問題。與人相比,智能機(jī)器人不會感到疲累、不會對工作有排斥心理、工作效率比較高,在生產(chǎn)流水線等工作中,顯然智能機(jī)器人具有明顯的優(yōu)勢。而且只需要預(yù)先設(shè)置好的系統(tǒng),智能機(jī)器人就可以準(zhǔn)確無誤地進(jìn)行高效率工作,而人由于每個人的資質(zhì)和理解能力的不同,即使經(jīng)過精細(xì)的崗位培訓(xùn),在實際工作的過程中也不可避免地出現(xiàn)錯誤。在此情況下,未來在工作中,人可能會淪落為“智能機(jī)器人”的附庸,則勢必會帶來人員大量的下崗,人的工作為智能機(jī)器人所替代,人不需要再從事工作,人被邊緣化,處于失業(yè)的挫敗心理下,就會衍生出倫理問題。
1.人工智能設(shè)計階段融入倫理理念
在人工智能研究發(fā)展的全過程中,設(shè)計階段既是其初始階段,也是人工智能研究的第一步[6](P87-93)。想要打破人工智能技術(shù)所帶來的倫理困境,就必須在設(shè)計階段就將倫理理念融入其中。在此基礎(chǔ)上進(jìn)行再進(jìn)行人工智能研究與發(fā)展。而在設(shè)計階段融入倫理理念,意味著人工智能技術(shù)自發(fā)展初始就帶有一定的價值傾向。簡單地說,將正確的價值傾向和道德規(guī)范理念融入到人工智能技術(shù)之中,并通過人工智能技術(shù)的研究與發(fā)展將正確的價值傾向和道德規(guī)范理念呈現(xiàn)出來,必然會使人工智能走向正確的發(fā)展道路,為人類美好生活的實現(xiàn)保駕護(hù)航。在人工智能設(shè)計階段,有專家學(xué)者提出應(yīng)對人工智能技術(shù)進(jìn)行清晰明確的道德化設(shè)計,在人工智能技術(shù)中設(shè)計道德調(diào)節(jié)機(jī)制來規(guī)范使用者的道德理念和行為。具體來說,在人工智能設(shè)計階段融入倫理理念的過程中需要先確定道德設(shè)計的方式,究竟是采用隱性道德設(shè)計還是選擇顯性道德設(shè)計。如果選擇隱性道德設(shè)計的人工智能技術(shù)設(shè)計方式,只需要直接進(jìn)行道德調(diào)解預(yù)測機(jī)制設(shè)計就可以了。如果選擇顯性道德設(shè)計的人工智能技術(shù)設(shè)計方式,就需要通過以下步驟:第一,概念分析。這就需要邀請倫理專家加入其中,讓其幫助來進(jìn)行人工智能設(shè)計。倫理專家具有豐富的倫理知識,能夠幫助人工智能設(shè)計者確定人工智能的目標(biāo)價值。在具體的設(shè)計情境設(shè)計中,倫理專家與人工智能設(shè)計者可以對設(shè)計的問題和背景進(jìn)行描述,并對利益相關(guān)者進(jìn)行界定。第二,原型開發(fā)。這主要是通過對多種設(shè)計方法的綜合使用后將所確定的價值目標(biāo)加入人工智能結(jié)構(gòu)中。例如,在人工智能系統(tǒng)中可以設(shè)置“防錯模式”,人工智能通過大數(shù)據(jù)分析運作及與目標(biāo)偏離的方式,盡量預(yù)防錯誤行為的發(fā)生。尤其是人工智能技術(shù)被充分應(yīng)用醫(yī)療領(lǐng)域時,這一設(shè)計方式能夠最大限度地保護(hù)患者的生命健康安全。第三,道德調(diào)解預(yù)測。這一設(shè)計使將人工智能的設(shè)計語境與使用語境相互聯(lián)系,這對人工智能設(shè)計者提出了較高的要求,作為設(shè)計者應(yīng)該竭盡自己的專業(yè)知識和豐富經(jīng)驗進(jìn)行道德形象設(shè)計,并通過想象將人工智能應(yīng)用于所想象的不同情境之中,在獲得結(jié)果之后反饋于設(shè)計之中,以此來完善道德調(diào)解預(yù)測機(jī)制建設(shè)[7](P18-23)。
2.遵循基本倫理原則,實施有效的倫理規(guī)制
隨著人工智能技術(shù)的迅速發(fā)展,導(dǎo)致各種倫理問題、沖突矛盾涌現(xiàn)。翻開歷史扉頁,在科技發(fā)展中,人一直作為指導(dǎo)者,在研究發(fā)展各科技文明時都牢牢掌控著道德底線,使其處于可控范圍之內(nèi)。對于人類而言,科學(xué)技術(shù)是一把雙刃劍,它既會造福于人類,也會稍有不慎,帶給人毀滅性的災(zāi)難。而這一切最終的決定權(quán)在人的手中,最終的結(jié)果如何,取決于人如何運用它。人工智能技術(shù)也不例外,運用得當(dāng),能夠為促進(jìn)人類美好生活的實現(xiàn),運用不當(dāng),就會使倫理關(guān)系、倫理秩序遭到嚴(yán)重破壞,甚至危害到人類的生命財產(chǎn)安全。在充分考慮到人工智能技術(shù)帶來的倫理困境之后,我們必須在人工智能技術(shù)的研究與發(fā)展中將倫理、價值等諸多因素進(jìn)行全面考慮,以此來制約人工智能。這也正是要求人工智能領(lǐng)域遵守倫理原則的重要原因所在。下面我們就具體闡述一下人工智能領(lǐng)域應(yīng)遵守的倫理原則:第一,以人為本原則。我們之所以對人工智能技術(shù)進(jìn)行研究和發(fā)展,最終的目的是使其服務(wù)于人類,所以不能本末倒置。在人工智能技術(shù)的研究中,應(yīng)該通過人工智能技術(shù)的應(yīng)用,使其代替人完成高度危險以及無法完成的工作,減輕人的工作風(fēng)險、工作壓力,為人類提供更加美好輕松的生活。而不是讓人工智能技術(shù)所產(chǎn)生的負(fù)面危險危害人類,尤其是在智能機(jī)器人的設(shè)置中應(yīng)嚴(yán)格遵循“以人為本”原則,在系統(tǒng)設(shè)置中應(yīng)將“人的安全”排在第一位,要求智能機(jī)器人在任何情況下都不能作出對人的生命安全造成威脅的行為[8](P132-142)。同時在人工智能系統(tǒng)中設(shè)置“救助模式”,當(dāng)人類遇到危險時,智能機(jī)器人能夠自覺提供救助服務(wù)。第二,公正平等原則[9](P21-29)。每個生命都是平等的,不應(yīng)該有高低貴賤之分。因此對于人工智能產(chǎn)品的使用,應(yīng)該賦予每個公民平等使用的權(quán)利,而不是成為有錢人士、有權(quán)人士手中的工作。所以國家政府應(yīng)該進(jìn)一步完善社會福利保障體系和教育培訓(xùn)體系,使各個區(qū)域的人民都能夠有使用人工智能機(jī)器的機(jī)會。第三,公開透明原則。[10](P197-204)在人工智能研究與發(fā)展的過程中,應(yīng)始終堅持公開化、透明化的原則,除了相關(guān)部門加強(qiáng)監(jiān)管以外,倫理委員會人員和社會公眾也應(yīng)該充分應(yīng)用手中的監(jiān)督權(quán),對人工智能的研發(fā)進(jìn)行有效的監(jiān)督,保證智能機(jī)器人的研發(fā)始終處于可掌握的范圍之內(nèi),保證智能機(jī)器人不會被黑惡勢力及別有用心人士利用,危害人類。第四,知情同意原則。當(dāng)前,人工智能技術(shù)被廣泛應(yīng)用于政府部門及企事業(yè)中,這些部門將企業(yè)將人的數(shù)據(jù)信息錄入到人工智能系統(tǒng)中,這些數(shù)據(jù)信息屬于員工的個人隱私。所以在錄入數(shù)據(jù)信息時應(yīng)告知員工,獲得員工同意。員工只有知情同意之后,政府部門及企事業(yè)單位才有權(quán)力將員工數(shù)據(jù)信息錄入人工智能系統(tǒng)。與此同時,在將數(shù)據(jù)信息錄入到人工智能系統(tǒng)之后,為了保護(hù)員工隱私不受侵犯,避免員工處于倫理困境,單位必須做好人工智能系統(tǒng)的安全保護(hù)工作。這就需要人工智能的設(shè)計者在人工智能系統(tǒng)中設(shè)置安全保護(hù)模式,并在系統(tǒng)使用的過程中定時更新維護(hù),進(jìn)一步保證人工智能系統(tǒng)的安全[11](P35-42)。第五,責(zé)任劃分原則。在人工智能技術(shù)被投入使用的過程中,一旦發(fā)生問題,責(zé)任的劃分至關(guān)重要。因此,在人工智能研發(fā)和使用的過程中必須根據(jù)綜合考量道德要素之后,對責(zé)任進(jìn)行明確劃分。只有這樣,當(dāng)問題發(fā)生后才能夠問責(zé)到人。例如在上文我們提到過智能駕駛汽車撞到行人,導(dǎo)致其行人死亡這一案例。針對這一問題,就需要進(jìn)行責(zé)任劃分。首先在充分了解智能駕駛汽車的特殊性質(zhì)之后,將智能駕駛相關(guān)的多元主體一一羅列出來,分別是車輛的研發(fā)公司、車輛所有人、軟件提供商。然后在依據(jù)具體的事故,在具體情況下劃分責(zé)任主體,確定責(zé)任承擔(dān)情況。當(dāng)前,智能駕駛汽車出現(xiàn)事故可能的責(zé)任劃分主要由智能駕駛汽車的研發(fā)公司、軟件提供商承擔(dān)主要法律責(zé)任。這是因為對于這兩個主體而言,智能駕駛汽車屬于一種產(chǎn)品,這一產(chǎn)品在行駛的過程中導(dǎo)致事故發(fā)生,依據(jù)《侵權(quán)責(zé)任法》和《產(chǎn)品質(zhì)量法》的相關(guān)內(nèi)容來看,屬于產(chǎn)品存在問題。因此,一旦智能駕駛汽車發(fā)生事故,責(zé)任最大的承擔(dān)者可能就是汽車研發(fā)公司和軟件提供商。
3.完善法律體系,加強(qiáng)產(chǎn)品把控
人工智能技術(shù)想要得到進(jìn)一步發(fā)展,就必須為其營造一個良好的發(fā)展環(huán)境。而通過相關(guān)法律法規(guī)的建設(shè)與完善,既能夠為人工智能技術(shù)的發(fā)展創(chuàng)造安全的法律環(huán)境,也能夠保障人的基本權(quán)益。首先,針對人工智能技術(shù),應(yīng)盡快建立與“人工智能技術(shù)”的事前立法,通過法律手段來規(guī)范人工智能的發(fā)展,在倫理問題尚未發(fā)生之前,將其扼殺于萌芽中,最大限度地保證人工智能在人類可控的范圍之內(nèi)。其次,圍繞人工智能技術(shù)在應(yīng)用過程中可產(chǎn)生的倫理問題進(jìn)行相關(guān)法律法規(guī)構(gòu)建,尤其是責(zé)任劃分的依據(jù)和標(biāo)準(zhǔn),保證在問題發(fā)生之后,能夠進(jìn)行明確的責(zé)任判定。例如,針對智能汽車駕駛所出現(xiàn)的事故就可以進(jìn)行法律建設(shè),構(gòu)建智能駕駛系統(tǒng)的交通法律。最后,加強(qiáng)法律專業(yè)人才的培養(yǎng)。人工智能領(lǐng)域?qū)儆谛骂I(lǐng)域,出現(xiàn)問題之后,法律面對的對象不再是“人”,而是“智能機(jī)器人”,傳統(tǒng)的法律人才在應(yīng)對時難免心有余而力不足。這就需要加強(qiáng)法律專業(yè)人才的培養(yǎng),在人才培養(yǎng)的過程中,注重人工智能技術(shù)方面知識的引入及人工智能引發(fā)的倫理問題方面的案例的探討,使所培養(yǎng)出來的法律人才在處理問題時能夠輕松一些[12](P117-128)。除此之外,相關(guān)部門應(yīng)該加強(qiáng)對人工智能技術(shù)產(chǎn)品的把控與監(jiān)控。隨著人工智能技術(shù)的不斷發(fā)展,在未來的某一天,人工智能必然要走到人們的日常生活當(dāng)中。而為了規(guī)避人工智能所產(chǎn)生的倫理問題和一系列麻煩,相關(guān)部門十分有必要加強(qiáng)對人工智能技術(shù)產(chǎn)品的把握與監(jiān)控。首先,注重人工智能技術(shù)產(chǎn)品的研發(fā)工作,在研發(fā)過程中注重人工智能產(chǎn)品的安全保護(hù),防止程序被不法分子侵入,導(dǎo)致人工智能技術(shù)產(chǎn)品出現(xiàn)問題。同時注重人工智能技術(shù)產(chǎn)品研發(fā)人才的招聘與選拔,在招聘與選拔人才時,應(yīng)進(jìn)行全方位的考察,尤其是道德素質(zhì)方面的考察。人工智能技術(shù)研發(fā)工作本身就是一項十分苦悶的工作,作為研發(fā)者不僅要有較強(qiáng)的專業(yè)能力、技術(shù)知識,還要有刻苦鉆研、淡泊名利的職業(yè)操守。如果將思想上有問題之人或者心志不堅定之人招聘到人工智能技術(shù)研發(fā)當(dāng)中來,那么在面對巨大的利益誘惑時,他們可能會丟失職業(yè)操守,做違法之事。其次,嚴(yán)格把控人工技能產(chǎn)品的出廠管理。針對研發(fā)出來的人工智能技術(shù)產(chǎn)品進(jìn)行嚴(yán)格的審查和檢驗操作,保證人工技能產(chǎn)品的安全,堅決杜絕有問題的人工技能產(chǎn)品投入到市場。最后,加強(qiáng)人工技能產(chǎn)品的監(jiān)管。對每一個人工智能技術(shù)產(chǎn)品都為其設(shè)置獨一的編碼,并在產(chǎn)品內(nèi)部安裝監(jiān)控系統(tǒng),在產(chǎn)品投入市場使用之后,全程動態(tài)對人工智能技術(shù)產(chǎn)品監(jiān)控,避免出現(xiàn)安全問題。
4.注重人文關(guān)懷,構(gòu)建公平安全市場倫理環(huán)境
人工智能技術(shù)的應(yīng)用能夠帶來巨大的經(jīng)濟(jì)收益。對于商家而言,這就如同一塊“肥肉”,但是在追逐商業(yè)利益的同時,商家也應(yīng)該注重人為關(guān)懷,讓人工智能不僅體現(xiàn)出商業(yè)價值,還能夠體現(xiàn)出人文價值。除此之外,我國應(yīng)該應(yīng)盡力為人工智能構(gòu)建一個公平安全的市場倫理環(huán)境,為人工智能技術(shù)的發(fā)展做好保護(hù)工作。[13](P605-610)
時至今日,我們已經(jīng)迎來了智能時代,人工智能技術(shù)被廣泛應(yīng)用于醫(yī)療事業(yè)、教育事業(yè)、媒體事業(yè)中,促進(jìn)了其發(fā)展,但是不可避免地也帶來了一定的倫理困境,在面對人工智能技術(shù)所產(chǎn)生的倫理問題困境時,我們應(yīng)正確地對待,不要過于驚恐、強(qiáng)力抵制,也不要毫無顧忌、全盤接納,而是應(yīng)該針對人工智能技術(shù)所帶來的倫理困境想方設(shè)法想出突圍策略,為人工智能的發(fā)展注入更多安全因素,推動人工智能技術(shù)在當(dāng)今社會穩(wěn)定、安全、可控地發(fā)展。