Blair+Hanley+Frank
讀過科幻小說的人都會告訴你,機器人一旦失控將會帶來可怕的后果。IEEE(電氣與電子工程師協(xié)會)對此做了深入的研究。
最近,全球最大的專業(yè)技術學會組織IEEE發(fā)表了一份報告,強調了工程師和研究人員在開發(fā)新的智能軟件和硬件時,應以合乎倫理的方式進行思考。在他們看來,人工智能技術(AI)的發(fā)展應該要與人類的道德價值觀和倫理原則相符合。
這份題為《倫理對齊設計》的報告長達100多頁,提出了相應的發(fā)展指南和指導準則,希望AI領域專家、自動化系統(tǒng)專家應更多的投身系統(tǒng)設計的后果等方面的研究,并將人類倫理帶入到AI的研究推廣當中。
在AI席卷全球的當下,智能制造和自動化系統(tǒng)中的倫理因素已變得越來越重要,因為越來越多的AI技術已被運用到市場和政府的工作當中。由此引發(fā)的很多討論也是圍繞著先進的AI系統(tǒng)而展開的,而現(xiàn)在已經有了能夠對商業(yè)和政治決策產生重大影響的AI新技術。
IEEE人工智能與自主系統(tǒng)倫理道德考慮全球行動計劃主席Raja Chatila在接受媒體采訪時表示,AI系統(tǒng)技術工程師未必都清楚人與智能機器人之間存在的潛在問題。
他說,“我個人認為,大多數(shù)工程師和公司還沒有真正意識到這些倫理問題,也沒有真正面對這些問題。因為他們雖然受過開發(fā)高效工作的系統(tǒng)的培訓,但是沒有受過關于倫理問題的培訓。”
已經出現(xiàn)的問題之一,即算法偏差。AI系統(tǒng)的確能夠反映制造者的意圖,但是如果這些意圖與使用者不一致時,就有可能帶來很多棘手的問題。
關于AI技術在研發(fā)與生產過程的透明度,該報告反復強調,急需建立一個能夠報告“為什么做出該決定”的自動化系統(tǒng)。然而,目前最先進的AI系統(tǒng)也很難實現(xiàn)這個目的。更重要的是,研發(fā)企業(yè)隱藏AI系統(tǒng)的內部詳細信息的情況也不少見,這也是推動AI系統(tǒng)透明度面臨的一個重要問題。
透明度不僅是理解圖像識別算法等技術的關鍵,也是未來我們如何進行戰(zhàn)爭的關鍵。IEEE報告對AI武器的討論充斥著平靜而可怕的語言,如“這些AI機器一旦失控將導致不負責任的暴力和社會破壞”。
為了阻止AI武器帶來極大的破壞性,IEEE組希望更多的人參與到這些AI系統(tǒng)研發(fā)之中,在AI武器啟動之前能夠實現(xiàn)有效的控制。
未來,IEEE將圍繞倫理和AI而建立IEEE標準,并針對AI系統(tǒng)設計中倫理問題建立三項標準(其中一項已經實施),另外兩個正在制定中。
制定標準的過程,需要市場去接受采用它們,因為,倫理系統(tǒng)的建立將降低65%使用AI武器殺人的可能性,這更能吸引人們關注。但更有可能是,許多科學家并不理會這些倫理問題,繼續(xù)以自己的方式研究開發(fā)。
IEEE研究團隊現(xiàn)在開放了這份報告的文檔,以獲得更多的公眾反饋。任何人都可以提出對其內容的看法,而該小組希望看到的是可以引用的、可操作的反饋,而且長度少于兩頁。提交截止日期為2017年3月6日。
(作者Blair Hanley Frank任職于IDG通訊社,關注公共云、生產力和操作系統(tǒng)。原文鏈接https://www.idgns.com/idgns/article?id=3149100 )