時事引讀
2018年4月,韓國科學技術院(KAIST)與韓國頂尖財團合作開設的人工智能武器試驗室引發(fā)世界輿論關注。4月4日,全球超過50名人工智能研究人員聯(lián)名提出抵制,原因在于該機構試圖研發(fā)自主武器。4月9日,聯(lián)合國《特定常規(guī)武器公約》政府專家小組在瑞士日內瓦召開會議,討論致命自主武器系統(tǒng)研發(fā),也就是常說的“殺手機器人”可能帶來的影響。有媒體表示,韓國此舉必然會造成毫無道德、倫理限制的殺人機器四處橫行,而人類卻束手無策的情況。對此,世界各地網友都表示“千萬不要打開這個潘多拉魔盒”,否則人類將有滅絕可能。
素材聚焦 聯(lián)合國黑名單
據(jù)英國《金融時報》報道,2018年2月以來,KAIST一直在進行四項實驗,分別是:基于人工智能的指揮和決策系統(tǒng)、水下無人機導航算法、基于AI的智能飛行器訓練系統(tǒng)、基于AI的對象跟蹤和識別技術。就學術界來說,這些實驗看上去很正常。但不正常的地方在于,KAIST進行的研究是與韓國軍工企業(yè)“韓華Systems”合作的,而韓華Systems的母公司韓華集團(Hanwhua)因為制造集束彈藥已被聯(lián)合國列入黑名單。提出抵制的這50多位學者擔心,KAIST研發(fā)自主武器將會加速AI軍備競賽,導致更大規(guī)模的戰(zhàn)爭加速到來。不過,KAIST總裁Sung-Chul Shin表示:“KAIST沒有任何意圖參與開發(fā)致命的自主武器系統(tǒng)和殺手機器人。作為一個學術機構,我們非常重視人權和道德標準?!?/p>
素材拓展 自主武器
自主武器并不等于智能武器,也不等于自動化武器。后兩者現(xiàn)在已經存在,比如自動瞄準裝置、導彈定位系統(tǒng)、無人機等。但無論是哪種武器,其最終決定權都在人類手中。而自主武器,屬于強人工智能范圍,它把武器是否對人類進行毀滅性打擊行為的決策權交給機器,這無疑是十分危險的做法。以人工智能為例,當前已經出現(xiàn)過一些類似的“失控”事件,涉及種族歧視、性別歧視等。比如微軟的聊天機器人Tay曾在Twitter上發(fā)表涉及種族歧視的言論,導致其上線一天就被迫關閉??傊?,禁止自主武器的開發(fā),并不是要妨礙人工智能技術的發(fā)展,也不妨礙其被正常用于軍事領域,其中的關鍵就在于,人類是否擁有控制權。
【考場仿真試題】請根據(jù)以上材料,寫一則150字左右的微評論。
【范文示例】科學進步的意義,應是給人類帶來生活的便利。研制“殺人機器人”,非但不能給人們創(chuàng)造出更安全舒適的生活環(huán)境,反而有可能給人類帶來毀滅性的打擊,這樣的“科學”于世界何益呢?在世界新形勢下,我們每個人、每個地區(qū)都應樹立人類命運共同體意識,不能自掘墳墓,要合理發(fā)展,爭取共贏!
其他適用話題 人工智能;社會秩序;人類未來