楊欣
2016年6月,在連續(xù)因自動(dòng)駕駛造成交通事故,并導(dǎo)致駕駛者出現(xiàn)傷亡后,美國(guó)高速公路交通安全管理局(NHTSA)針對(duì)特斯拉的Autopilot系統(tǒng)功能展開(kāi)調(diào)查。經(jīng)過(guò)半年的調(diào)查,美國(guó)高速公路交通安全管理局在當(dāng)?shù)貢r(shí)間2017年1月19日宣布,并未發(fā)現(xiàn)特斯拉Autopilot功能存在問(wèn)題,同時(shí)不會(huì)要求特斯拉對(duì)汽車進(jìn)行召回。
事故原因
要理解這一事故的前因后果,需要簡(jiǎn)單回顧一下事件經(jīng)過(guò)。2016年5月,一位名叫約書(shū)亞·布朗的駕駛者駕駛Model S與一輛卡車相撞,并在事故中喪生。當(dāng)時(shí)布朗駕駛的Model S處于部分自動(dòng)駕駛狀態(tài),這也是全球第一起因自動(dòng)駕駛而致死的事故。當(dāng)時(shí),布朗開(kāi)著他的Model S行駛在一條公路上,Autopilot處于開(kāi)啟模式,此時(shí)一輛拖掛車以與Model S垂直的方向穿越公路,Model S與拖掛車相撞,造成布朗死亡。
美國(guó)高速公路安全管理局的結(jié)論是,特斯拉Autopilot不是完全自動(dòng)駕駛系統(tǒng),它根本無(wú)法應(yīng)對(duì)所有路況,司機(jī)不應(yīng)該依靠它來(lái)防止此類事故。在接受調(diào)查時(shí),特斯拉公司也向美國(guó)高速公路交通安全管理局下屬的缺陷調(diào)查辦公室提供了配置Autopilot技術(shù)的Model S和Model X等汽車在2014~2016年所有行駛里程和安全氣囊相關(guān)的數(shù)據(jù)。
調(diào)查人員利用這些數(shù)據(jù)計(jì)算了Autopilot系統(tǒng)安裝前后的撞車率,得出特斯拉安裝了Autopilot系統(tǒng)后汽車更安全的結(jié)論。美國(guó)高速公路交通安全管理局在報(bào)告中也認(rèn)同這一觀點(diǎn),自從特斯拉汽車于2015年安裝了Autosteer(方向盤自主轉(zhuǎn)向)軟件以來(lái),特斯拉汽車的撞車率已經(jīng)下降了40%左右。Autosteer是Autopilot系統(tǒng)的功能之一,能夠讓特斯拉汽車保持在自己的車道上行使,即使遇到彎道仍能夠讓汽車自行轉(zhuǎn)彎。
盡管美國(guó)高速公路交通安全管理局的調(diào)查宣告結(jié)束,并得出了對(duì)特斯拉有利的結(jié)論,但這并非終極結(jié)論,因?yàn)槊绹?guó)國(guó)家運(yùn)輸安全委員會(huì)針對(duì)這一事故的調(diào)查仍在進(jìn)行之中。
另一方面,上述調(diào)查結(jié)果還不是事故的全部原因。根據(jù)特斯拉的調(diào)查,另一個(gè)原因才是此次事故的根本原因。強(qiáng)烈的日照和拖掛車白色車身讓Model S的Autopilot系統(tǒng)攝像頭短暫“失明”,未能夠在白天強(qiáng)光下及時(shí)發(fā)現(xiàn)拖掛車白色側(cè)面的反光,導(dǎo)致在自動(dòng)駕駛模式下的剎車功能未能緊急啟動(dòng)。Model S與拖掛車相撞,其前擋風(fēng)玻璃與拖掛車底部發(fā)生撞擊,車主布朗不幸身亡。
這個(gè)原因既是人工智能的技術(shù)問(wèn)題,也道出了人工智能的本質(zhì)。既然特斯拉Autopilot沒(méi)有錯(cuò),人就有錯(cuò)。因?yàn)樘厮估瑼utopilot的攝像頭有問(wèn)題。但是,即便攝像頭沒(méi)有問(wèn)題,特斯拉Autopilot是否能分辨出道路上的實(shí)體車和虛擬車,以及雨天和霧天強(qiáng)烈陽(yáng)光照射后出現(xiàn)的折光甚至彩虹?
這個(gè)問(wèn)題是要打問(wèn)號(hào)的。因?yàn)?,人不?huì)完全教會(huì)自動(dòng)駕駛汽車正確識(shí)別道路上的所有障礙物和危險(xiǎn)情況。反過(guò)來(lái)也說(shuō)明,這實(shí)際上還是人工智能的錯(cuò)誤,因?yàn)樗鼈冞€不能像人一樣學(xué)習(xí)并獲得符合道路實(shí)際情況的正確知識(shí)。
人工智能尚難比肩人類的智能
人工智能賴以立身的基礎(chǔ)是機(jī)器學(xué)習(xí)(算法)和深度學(xué)習(xí)。對(duì)于前者,或許是人工智能的優(yōu)勢(shì),因?yàn)樵谏婕皵?shù)據(jù)和演算方面,人確實(shí)不是計(jì)算機(jī)的對(duì)手,因此當(dāng)計(jì)算機(jī)掌握了某一游戲的所有算法、棋譜時(shí),人類當(dāng)然無(wú)法抵御人工智能。但是,在深度學(xué)習(xí)上,人工智能還處于非常幼稚的階段,例如對(duì)圖形和實(shí)物的認(rèn)知,對(duì)邏輯推理的學(xué)習(xí),以及對(duì)所有未知事物的學(xué)習(xí)和認(rèn)知。
一個(gè)幼兒園的小孩看過(guò)一張貓的圖片后,能馬上辨認(rèn)出另一張圖片中的貓,同時(shí)幾歲的孩子在生活中見(jiàn)過(guò)貓之后,在后來(lái)的時(shí)間看見(jiàn)貓就能辨認(rèn)出來(lái)。但是,谷歌圖像識(shí)別系統(tǒng)(一種應(yīng)用人工智能)看過(guò)和學(xué)習(xí)過(guò)成千上萬(wàn)張貓的照片后,才能從圖片中識(shí)別貓,但是準(zhǔn)確率大大低于小孩。而且,即便在圖片上人工智能能認(rèn)識(shí)貓,在現(xiàn)實(shí)生活中未必能識(shí)別真實(shí)的貓,也即人工智能區(qū)別實(shí)物和圖像或虛擬事物完全無(wú)法與人類相比。
特斯拉Autopilot在強(qiáng)烈陽(yáng)光照耀下“亮瞎了眼睛”固然是技術(shù)原因,但也說(shuō)明,即便它的攝像頭沒(méi)出故障,它學(xué)習(xí)和識(shí)別道路上的某些障礙物還不及人類的孩子。原因是,它可能沒(méi)有遇到過(guò)諸如光的折射、彩虹一類的情況,而且人類還不足以教會(huì)它識(shí)別這類情況。即便汲取這次事故教訓(xùn),改進(jìn)了特斯拉Autopilot的攝像系統(tǒng),使其能識(shí)別白色汽車和其他障礙物,并采取躲避或剎車,但是,遇到陽(yáng)光照射到黑色、藍(lán)色、紅色或所有顏色的汽車時(shí),特斯拉Autopilot的攝像是否不會(huì)出問(wèn)題,而且都能識(shí)別出來(lái)?如果不能,車禍也難以避免。
現(xiàn)階段,盡管深度思維(Deep Mind)公司設(shè)計(jì)的Master能連續(xù)戰(zhàn)勝包括棋圣聶衛(wèi)平在內(nèi)的60名圍棋大師,但總體而言,人工智能目前的智能還是非常低級(jí),有時(shí)連嬰兒的智商還不如,再加上技術(shù)問(wèn)題,如特斯拉Autopilot的攝像頭在強(qiáng)烈陽(yáng)光反射白色物體后短暫失明,就更容易造成事故。
當(dāng)然,強(qiáng)烈陽(yáng)光反射白色物體也會(huì)讓人的眼睛眩目而看不清前方的情況。但是,如果是車主布朗自己開(kāi)車,在受到強(qiáng)烈的眩目刺激后就會(huì)產(chǎn)生本能的躲避行為,提前預(yù)判前面可能有障礙物,一是緩行,二是剎車,從而避免車禍的發(fā)生。
人工智能的學(xué)習(xí)廣袤無(wú)邊
這實(shí)際上涉及人工智能無(wú)論是算法還是深度學(xué)習(xí)的廣度問(wèn)題,凡是人工智能沒(méi)有看過(guò)、學(xué)習(xí)過(guò)和接觸過(guò)的東西,它都無(wú)法感知、辨認(rèn)和識(shí)別,從而無(wú)法理解,因此難以形成正確的決策。
對(duì)于人工智能來(lái)說(shuō),這種學(xué)習(xí)的廣度實(shí)在是廣袤無(wú)邊,凡是人類社會(huì)的東西和事物,都是其未學(xué)習(xí)和接觸過(guò)的,就本質(zhì)來(lái)說(shuō),即便人工智能學(xué)習(xí)了,能感知人類社會(huì)的東西,但其感知也與人的不一樣。例如,戰(zhàn)勝60位大師的Master并不知道它在做什么,只是在按一定的算法和程序在做決定。
對(duì)于它未學(xué)習(xí)過(guò)的東西,人工智能就會(huì)不不知所措,而且不知道邏輯推理,犯錯(cuò)誤和發(fā)生事故也在所難免。2011年2月16日,在美國(guó)益智類電視節(jié)目《風(fēng)險(xiǎn)》上,經(jīng)過(guò)3天(三輪)人機(jī)大戰(zhàn),IBM的超級(jí)計(jì)算機(jī)沃森(Watson)電腦戰(zhàn)勝了人類頂級(jí)高手肯·詹寧斯和布拉德·拉特。但是,沃森在非常簡(jiǎn)單的一些問(wèn)題和邏輯推理上卻不如人類。
例如,在回答“一個(gè)語(yǔ)言的方言包括吳語(yǔ)、粵語(yǔ)和客家話,這種語(yǔ)言是什么”時(shí),沃森答錯(cuò),詹寧斯答對(duì)。因?yàn)槲稚瓫](méi)有學(xué)習(xí)過(guò)吳語(yǔ),在邏輯上并不理解吳語(yǔ)、粵語(yǔ)和客家話其實(shí)就是中國(guó)人除普通話以外的方言。
人工智能仍然值得探索
如果人工智能不具有像人一樣的識(shí)別和辨認(rèn)現(xiàn)實(shí)環(huán)境的能力,自動(dòng)駕駛或無(wú)人駕駛就可能永遠(yuǎn)是一種理想。既然部分自動(dòng)駕駛以及完全自動(dòng)駕駛存在危險(xiǎn),為何還要研發(fā)這類產(chǎn)品并推向市場(chǎng)呢?
美國(guó)高速公路交通安全管理局的調(diào)查報(bào)告給出了一個(gè)答案,以特斯拉汽車行駛里程數(shù)和安全氣囊數(shù)據(jù)為依據(jù),對(duì)特斯拉Autopilot推送Autosteer這個(gè)軟件前后汽車的事故率進(jìn)行對(duì)比,汽車事故率從推送前的1.3次/百萬(wàn)千米下降到推送后的0.8次/百萬(wàn)千米。汽車事故率下降了近40%左右。特斯拉的CEO伊隆·馬斯克稱,即便退一萬(wàn)步講,現(xiàn)在特斯拉的部分無(wú)人駕駛系統(tǒng)只比人工好1%,那么一年車禍導(dǎo)致的120萬(wàn)人死亡里面,人工智能也能拯救1.2萬(wàn)人。
另一方面,人工智能的探索也像其他學(xué)科的探索一樣,只能積跬步至千里,聚小流成江海。如果把現(xiàn)實(shí)生活的路面情況的各種參數(shù)設(shè)計(jì)得更為全面,包羅萬(wàn)象,教會(huì)人工智能進(jìn)行更全面和更深度的學(xué)習(xí)和分析,也許可以逐步達(dá)到與人同樣的辨析路況的智能而不會(huì)出車禍。
當(dāng)然,最根本的問(wèn)題是,即便人工智能的深度學(xué)習(xí)能與人媲美,人類也不能完全把命運(yùn)交給人工智能來(lái)處理。這才是發(fā)展人工智能的不可違背的核心原則。
特斯拉的Autopilot出問(wèn)題,就是車主布朗非常依賴Autopilot的自動(dòng)駕駛功能,一切交由Autopilot來(lái)處理,布朗在車禍發(fā)生前沒(méi)有使用剎車,他最后一個(gè)動(dòng)作是將自動(dòng)巡航速度設(shè)置為74英里/小時(shí)(119千米/小時(shí)),但兩分鐘后就發(fā)生了車禍。然而,如果布朗是自己駕駛,他完全可以觀察到那輛拖掛車,在事故發(fā)生前采取如剎車、轉(zhuǎn)向等方式,遺憾的是,他并未采取任何有效措施。
所以,美國(guó)高速公路交通安全管理局在關(guān)于特斯拉Autopilot車禍報(bào)告中既指出Autopilot不存在導(dǎo)致致命車禍的缺陷,但也指出,在遇到交通路口時(shí),人們不應(yīng)當(dāng)過(guò)度依賴Autopilot來(lái)檢測(cè)相應(yīng)的路況,因?yàn)檐囍鞑祭试谧采峡ㄜ囍?,有充分的時(shí)間(長(zhǎng)達(dá)7秒)來(lái)踩剎車。
【責(zé)任編輯】張?zhí)锟?