張寧卓
摘要:在自動駕駛即將普及的時代幫助人們建立合理的信任,創(chuàng)造安全便捷舒適的乘坐體驗。以信任的組成及影響因素為基礎(chǔ),分析人的信任與自動駕駛系統(tǒng)的關(guān)系,得出人對自動系統(tǒng)的信任,尤其經(jīng)驗信任與系統(tǒng)的表現(xiàn)與設(shè)計特征相關(guān),并隨交互過程不斷變化。人機界面作為溝通渠道,關(guān)系著人對系統(tǒng)及其行為的認知理解進而影響信任。結(jié)合系統(tǒng)透明度原則及擬人化設(shè)計方法。與第4級自動駕駛特征及用戶場景,得出人機界面設(shè)計策略。
關(guān)鍵詞:人機界面 自動駕駛 交互設(shè)計 信任問題 透明度
中圖分類號:TB472 文獻標(biāo)識碼:A
文章編號:1003-0069(2020)02-0050-04
引言
自動駕駛是汽車發(fā)展的必然方向之一,國際自動機工程師學(xué)會(SAE)將自動駕駛分為從第。級無自動化到第5級完全自動駕駛的6個等級,其中從第3級條件自動駕駛開始,駕駛操作與對周邊環(huán)境的監(jiān)控被自動駕駛系統(tǒng)接管,人類駕駛員也就不再需要時刻關(guān)注駕駛?cè)蝿?wù)[1]。當(dāng)需要駕駛員成為系統(tǒng)的監(jiān)控者或置身于駕駛?cè)蝿?wù)之外,能否信任并而將駕駛?cè)蝿?wù)委托給自動駕駛的問題便隨之到來。相關(guān)調(diào)研表明,相比將駕駛?cè)蝿?wù)部分或完全委托給自動駕駛系統(tǒng),多數(shù)人更希望保持對汽車的控制而僅讓系統(tǒng)作為輔助,對自動系統(tǒng)的不信任是人對自動駕駛感到猶豫的主要原因[2]。
如果人認為自動系統(tǒng)不值得信任,即使系統(tǒng)足夠可靠也不會使用;反之一如過于信任自動系統(tǒng),則會導(dǎo)致錯誤使用自動系統(tǒng),甚至在系統(tǒng)故障后繼續(xù)依賴自動系統(tǒng)[3]。人機界面(Human-MachineInterface,HMI)作為人與自動系統(tǒng)溝通的橋梁,具有影響人對自動系統(tǒng)信任的能力,進而影響交互體驗以及整個系統(tǒng)的運作。目前業(yè)界對自動駕駛的研發(fā)已達到第4級高度自動駕駛,如何通過人機界面設(shè)計來建立人對自動駕駛的合理信任,對于創(chuàng)造良好的體驗,推動自動駕駛汽車的普及以及充分發(fā)揮其在效率、安全、體驗上的優(yōu)越性具有重要意義。
一、自動化與自動系統(tǒng)的信任問題
自動化意指以機械裝置或計算機代替人完成部分或全部任務(wù)[3],其良好運作有賴人與自動系統(tǒng)的交互,而信任在其中扮演了重要角色[4]。人對自動系統(tǒng)的信任(Trust)可被定義為“受歷史體驗影響的人對機器主體在充滿不確定性的環(huán)境中幫助達到某個目標(biāo)的態(tài)度及看法”[5]。可見,信任受到人、自動系統(tǒng)、所處的環(huán)境、任務(wù)的執(zhí)行及其體驗等多因素的影響。
(一)信任的組成與影響因素
Marsh和Dibben提出信任的三個層次[6]:性情信任(DispositionalTrust)是最基本的一層,代表個體是否會信任自動系統(tǒng)的總體傾向,與人生理屬性及社會影響有關(guān)而與外界情境或自動系統(tǒng)無關(guān),相對持久穩(wěn)定而不易受單次交互影響。
情境信任(Situational Trust)包括來源于系統(tǒng)屬性、人機分工及工作狀況等外部要素和來源于受情境影響的人類操作者的各種內(nèi)部特性,表現(xiàn)了情境會對信任及后續(xù)行為產(chǎn)生的影響。
經(jīng)驗信任或稱習(xí)得信任(Learned Trust)指操作者于過往經(jīng)驗或當(dāng)前情境中對自動系統(tǒng)的評估,可被分為在與系統(tǒng)交互前已有的,受操作者既有知識影響的初始經(jīng)驗信任;與在與系統(tǒng)交互過程中的受自動系統(tǒng)表現(xiàn)影響的動態(tài)經(jīng)驗信任。
層次關(guān)系如圖1,前幾層決定操作者的初始信任策略,從而影響系統(tǒng)的后續(xù)表現(xiàn)、操作者的動態(tài)經(jīng)驗信任和對系統(tǒng)的依賴。操作者需投入的精力及情境意識、時限和生理完整等與信任無關(guān)的情境要素也會對該體系產(chǎn)生影響。
(二)信任與自動系統(tǒng)能力的匹配
特定自動系統(tǒng)的能力(Automation Capacity)與人的信任存在程度是否匹配的問題口,,可分為信任不足、信任過度以及適當(dāng)?shù)男湃稳N情況。如圖2所示X軸為自動系統(tǒng)的能力或可靠性,越往右越強;丫軸是人的信任程度,越往上則信任越高;對角線可被稱為校正曲線(Calibration Curve),指信任與系統(tǒng)能力相匹配[4]。曲線上方表示信任信任過度,下方則為信任不足。
信任不足(Distrust)指不信任自動系統(tǒng)能完成其可月生任的任務(wù)[5]。接觸自動系統(tǒng)前,對系統(tǒng)了解不足或失當(dāng)則難以建立信任;接觸后由于系統(tǒng)在任務(wù)執(zhí)行及反饋上表現(xiàn)不佳或與期望存在差異也會導(dǎo)致信任降低。自動化涼奇(Automation Surprise)描述操作者的預(yù)想與系統(tǒng)表現(xiàn)存在差異,無法理解系統(tǒng)在做什么、為何以及下一步會做什么。虛假警報是在不存在觸發(fā)告警的條件下系統(tǒng)仍發(fā)出的警報[4],導(dǎo)致在真正警報后不采取行動而造成危險。兩者都會導(dǎo)致信任的不足。
信任過度(Overtrust)指對自動系統(tǒng)的信任超出了其能力而在系統(tǒng)無法勝任的情境中使用。操作者滿足于自動系統(tǒng)表現(xiàn)產(chǎn)生自滿情緒,在應(yīng)監(jiān)控時不監(jiān)控,喪失對系統(tǒng)及周邊環(huán)境的情景意識,及至須進行干預(yù)時無法干預(yù)。自動化偏見(Automation Bias)描述操作者傾向于信任自動系統(tǒng)的決策而忽略即使是正確的非自動系統(tǒng)決策的習(xí)性[3],導(dǎo)致疏忽性錯誤(Omission Error)一一操作者在系統(tǒng)通知后忽略某些問題或沒有做出相應(yīng)操作;及執(zhí)行性錯誤(Commission Error)——操作者遵從了系統(tǒng)的錯誤指令。此外,過度依賴還可能導(dǎo)致操作者手動操作能力減弱。
(三)信任的動態(tài)變化與合理的信任
操作者在與自動系統(tǒng)的互動過程中不斷得到關(guān)于系統(tǒng)能力和表現(xiàn)的經(jīng)驗,有意識和無意識地調(diào)整對系統(tǒng)的信任,因此信任的構(gòu)建是個動態(tài)的過程[6][8]。圖1.2中的虛線表示自動系統(tǒng)的使用者在使用了一段時間且工作正常時,信任就會逐漸增加,從而達到了虛線起點的過度信任的位置。一旦系統(tǒng)出錯,以自動駕駛為例即造成碰擦或意外失控后,或系統(tǒng)未能滿足用戶的期望,信任就會急劇減少并達到信任不足的區(qū)間。隨著對系統(tǒng)的持續(xù)使用,信任會在這條直線上來回移動并最終達到一個較穩(wěn)定的點。此時人對自動系統(tǒng)的信任與自動系統(tǒng)的能力相適應(yīng),實現(xiàn)合理的信任[7]。理想的信任應(yīng)保持在對角線上,但實際情況是相當(dāng)復(fù)雜的,圖1.2中虛線后段,人、情境和系統(tǒng)的變化都影響著信任的變化,在過度信任與信任不足之間徘徊。
二、形成對自動駕駛系統(tǒng)信任的策略
用戶對自動系統(tǒng)的信任與自動系統(tǒng)的表現(xiàn)與設(shè)計特征相關(guān),其中人機界面作為系統(tǒng)與用戶交流的渠道,其內(nèi)容與形式都能對信任產(chǎn)生影響[4][6][7],目前這方面的研究主要圍繞系統(tǒng)透明度與擬人化。
(一)系統(tǒng)透明度
系統(tǒng)透明度(Transparency)指的是自動系統(tǒng)的內(nèi)部工作原理或邏輯被人類操作者所認知的程度,例如系統(tǒng)為沒有滿足操作者的期望給出相應(yīng)解釋。圍繞系統(tǒng)透明度與信任的研究可知,自動系統(tǒng)透明度的提升有利于人與自動系統(tǒng)的交流,進而有效增加信任并提升人與自動系統(tǒng)綜合體的表現(xiàn)[6],透明度也有利于在系統(tǒng)出錯導(dǎo)致信任降低后快速恢復(fù)[9]。Lyons將自動系統(tǒng)對人的透明度解析為以下四個模型[9]:
(1)意圖模型:自動系統(tǒng)應(yīng)當(dāng)完全體現(xiàn)其意圖或目的,并被用戶在整體戰(zhàn)略層次上理解,以保證系統(tǒng)行為在用戶認知框架之中,包括能做什么、為何這么做和如何做等。
(2)任務(wù)模型:自動系統(tǒng)向認知框架提供各種細節(jié)信息,例如對用戶目標(biāo)的理解、某個特定時間的目標(biāo)的相關(guān)信息、目標(biāo)實現(xiàn)進程的信息以及對自身能力和錯誤的意識,以提升用戶的情境意識并幫助用戶更好地監(jiān)控系統(tǒng)。
(3)分析模型:系統(tǒng)需將其分析信息并做出決策的原則與過程告知用戶,避免用戶困惑,這在充滿不定性的環(huán)境下對用戶尤其有幫助。
(4)環(huán)境模型:需向用戶表明系統(tǒng)對包括但不限于地形、天氣、人與各類物體以及各類限制的了解,從而使用戶清楚系統(tǒng)正在經(jīng)歷什么以增強情境意識。
自動系統(tǒng)也需要對用戶的多個方面有所了解即人對自動系統(tǒng)的透明度,分為團隊合作模型和人類狀態(tài)模型,分別要求用戶與自動系統(tǒng)明確雙方分工以形成默契,以及要求自動系統(tǒng)對人類用戶的認知、情緒、物理等狀態(tài)保持一定意識。Debern。rd等根據(jù)上述模型提取了12個與第3級條件自動駕駛相關(guān)的原則[10],如表1所示。
(二)擬人化人機界面
擬人化(Anthropomorphism)即賦予非人主體以人的特性,尤其是感情與思維,讓非人主體像人一樣思考、感受和行為[11]。圍繞擬人化與信任的研究表明[8][11],當(dāng)自動駕駛系統(tǒng)被賦予人的角色設(shè)定即名字、性別等并可發(fā)出人聲,以及擁有與人相似的行為或思考方式,都能促使用戶對系統(tǒng)運作更充分理解,提高用戶對系統(tǒng)的信任,還有助于減緩系統(tǒng)出錯后的信任減少[6]。擬人化應(yīng)與透明度等其他方法相配合,否則交流內(nèi)容的不合理或缺乏依然會使信任難以維持,正如人需要為自己的行為提供可信任的理由,擬人化的系統(tǒng)亦是如此。
基于用戶研究將擬人化的多個形式合理結(jié)合,使用情感化的設(shè)計方法,使自動系統(tǒng)成為有生命、有情感、會思考、體貼可靠的“伙伴”,營造安全、可靠、積極的體驗,更好地獲得用戶的理解與信任[12]。圖3所示蔚來為其汽車裝備的具備擬人化設(shè)計特點的智能系統(tǒng)“NOMI”,能以與車上乘客對話,完成車輛設(shè)定、導(dǎo)航、娛樂等多個任務(wù),使人與車的互動更加自然。
三、自動駕駛系統(tǒng)人機界面設(shè)計策略
前述SAE對自動駕駛的分級是以功能實現(xiàn)為準(zhǔn)的,也被用于媒體宣傳,用戶對這些標(biāo)準(zhǔn)的具體理解無法與車企相提并論,容易產(chǎn)生不合理的期望。因此不但需要從用戶角度定義的車輛自動駕駛能力,也需要在設(shè)計中告知并合理引導(dǎo)用戶。SAE分級中第4級被稱為高度自動駕駛(High Automation),該級別的車型能在限定的道路和環(huán)境下由車輛完成所有駕駛操作而無需人類駕駛員干預(yù),此時駕駛操作和對環(huán)境的監(jiān)控都由系統(tǒng)完成,即使駕駛員未響應(yīng)系統(tǒng)請求也能采取適當(dāng)?shù)奶幚矸桨竅1]。設(shè)計適用范圍(ODD,Operational Design Domain)即系統(tǒng)被設(shè)計來運作的環(huán)境,第4級的車輛在ODD內(nèi)能夠可靠運作,在ODD外則會退到較低的自動駕駛水平,可考慮設(shè)計策略如下。
(一)為不同環(huán)境對應(yīng)的自動駕駛能力設(shè)計不同的人機界面
用戶期望自動駕駛能幫他們徹底擺脫控制車輛的任務(wù),簡單設(shè)定目的地后即轉(zhuǎn)向其他任務(wù),然而第4級自動駕駛車輛存在運作環(huán)境的限制,ODD內(nèi)外用戶的主要任務(wù)也不同,人機界面的設(shè)計應(yīng)當(dāng)適應(yīng)用戶可能的行為,并引導(dǎo)其與所處環(huán)境下的系統(tǒng)能力相符合:
1.ODD內(nèi):用戶完成目的地設(shè)定后駕駛?cè)蝿?wù)完全由系統(tǒng)負責(zé),僅以乘客身份乘坐車輛。此時人機界面以支持用戶的工作、聊天、游戲、娛樂等多項任務(wù)等任務(wù)為主要內(nèi)容,同時須在避免安全隱患的前提下根據(jù)透明度的要求提供任務(wù)執(zhí)行狀況等信息[13];
2.ODD外:研究表明人很難在自動駕駛允許時持續(xù)監(jiān)控[14],谷歌的路測也支持了該結(jié)果。因此應(yīng)以駕駛員為主系統(tǒng)為輔,設(shè)計圍繞支持駕駛員更輕松地完成駕駛來進行,限制駕駛員進行影響安全的其他任務(wù);
3.ODD內(nèi)外過渡階段:由于人需要至少5-7秒的時間才能恢復(fù)對駕駛?cè)蝿?wù)的控制[14],系統(tǒng)需要提前足夠時間向用戶傳達即將面對的環(huán)境的信息,可通過地圖、道路監(jiān)控、車聯(lián)網(wǎng)等擴展車輛的感知以延長過渡時間。系統(tǒng)也應(yīng)告知用戶何時可進入自動駕駛,并提供用戶轉(zhuǎn)移駕馬史任務(wù)的途徑。
(二)為自動駕駛系統(tǒng)的行為提供說明與解釋
根據(jù)認為系統(tǒng)的可靠性、有效性、可預(yù)測性及錯誤信息都會影響用戶的信任[6];在透明度的原則中意圖和任務(wù)模型強調(diào)了用戶對系統(tǒng)能力及工況的了解對信任的影響[9];機器與人的不同思維方式更要求充足的溝通以使用戶了解自動系統(tǒng),正如乘客了解出租車司機的能力才能放心乘坐。
對于自動駕駛系統(tǒng)來說,需告知用戶系統(tǒng)在環(huán)境感知、規(guī)劃決策以及控制執(zhí)行層面運作的概況,如感知周圍環(huán)境與附近的其他車輛,了解交通規(guī)則及限速等,告知路線的選取及原因,任務(wù)的完成進度等,如圖4所示的特斯拉Autopilot即向用戶展示了系統(tǒng)感知信息。
同樣需注意在出錯狀況的告知與引導(dǎo),合理的錯誤解釋會降低信任損失,配合后續(xù)的有效引導(dǎo)能幫助信任更快恢復(fù)[9],這些錯誤及其他表現(xiàn)導(dǎo)致的信任變化都要求人機界面設(shè)計考慮合適的應(yīng)對方式。結(jié)合系統(tǒng)透明度的原則,可以得到人機界面設(shè)計框架如圖5所示。
(三)提供更豐富的交互方式和更人性化的交互體驗
由上文分析可見,第4級自動駕駛需交流的信息多種多樣,TODD內(nèi)外信息主題也不相同,需基于不同情境提供不同的互動形式。為承載這些信息,并在自動駕駛場景下支撐用戶工作、娛樂、休閑等多樣的體驗,圖6所示的拜騰Concept橫貫中控的大屏幕與語音識別、觸摸控制、手勢交互的結(jié)合即為一種探索方向。除此之外,基于增強現(xiàn)實的平視顯示、儀表與中控一體化、更多的生物識別也是豐富自動駕駛交互體驗的可行道路[15[。
在提供更豐富多樣的交互途徑的同時,還需通過情感化設(shè)計使交互體驗更加自然與人性,對作為具備一定能力的主體存在的自動駕駛系統(tǒng)來說尤其有意義。除像NOMI提供擬人化的溝通來獲知駕駛目標(biāo)和管理車輛外,還需在行為設(shè)計上進一步深入,如基于認泊勺思考與行為模式來將系統(tǒng)的決策過程展示給用戶;在結(jié)果或建議的同時給出理由并邀請用戶反饋;學(xué)習(xí)了解用戶并向提供更個性化的結(jié)果;對系統(tǒng)不足清楚說明并友好請求用戶協(xié)助等。在不對用戶主要任務(wù)產(chǎn)生妨礙的前提下,向用戶充分展示自己,以體貼可靠的形象服務(wù)用戶,不但能更好地獲得并保持用戶的合理信任,也能令用戶獲得更愉悅的體驗。
結(jié)語
當(dāng)車輛具備足夠的自主能力后,人們用車的觀點也可能發(fā)生變化,比如車輛會成為用戶的伙伴或成為服務(wù)提供商提供的服務(wù),有些車企也開始向服務(wù)提供商轉(zhuǎn)型,購買私人車輛將成為一種更高層的需求。私人車輛須更了解用戶并成為不可或缺的伙伴,才能贏得用戶的青睞。這兩種不同的發(fā)展方向都存在著人機界面設(shè)計的挑戰(zhàn),本文通過研究信任的構(gòu)成以及自動駕駛系統(tǒng)如何獲得合理的用戶信任,提出了讓用戶能夠放心使用自動駕駛車輛的人機界面設(shè)計初步策略,具體設(shè)計上依然有待深化,期望成為更進一步的設(shè)計研究的基礎(chǔ),延伸出更豐富的設(shè)計方案。
參考文獻
[1]Society of Automotive Engineer.SAE J3016,Taxonomy and Definitions for Terms Related to On-Road AutomatedMotor Vehicles[S].Warrendale,PA,USA:SAE Pub.Inc,2014.
[2]Abraham H,Reimer B,Seppelt B,et al.Consumer Interest in Automation:Change over One Year[C].Washington,D.C:Transportation Research Board 97th Annual Meeting.2018.
[3]Parasuraman R,Riley V.Humans and Automation:Use,Misuse,Disuse,Abuse[J].Human Factors,1997,39(2):230-253.
[4]威肯斯.工程心理學(xué)與人的作業(yè)[M].第四版.北京:機械工業(yè)出版社,2014:274-279.
[5]Khastgir S,Birrell S,Dhadyalla G,et al.Calibrating Trust to Increase the Use of Automated Systems in aVehicle[A].In:Kacprzyk J ed.Advances in Human Aspects of Transportation[C].Basel,Switzerland:SpringerInternational Publishing Switzerland,2017:535~546.
[6]Hoff K A,Bashir M.Trust in automation:integrating empirical evidence on factors that influence trust[J].HumanFactors,2015,57(3):407-434.
[7]Lee J D,See K A.Trust in automation:designing for appropriate reliance[J].Human Factors,2004,46(1):50.
[8]Hauslschmid R,Bulow M V,Pfleging B,et al.Supporting Trust in Autonomous Driving[C]// Proceedings of the22nd international conference on intelligent user interfaces.ACM,2017:319-329.
[9]Lyons J B.Being transparent about transparency:A model for human-robot interaction[C]//2013 AAAI SpringSymposium Series.2013.
[10]Debernard S,Chauvin C,Pokam R,et al.Designing Human-Machine Interface for Autonomous Vehicles[J].Ifac Papersonline,2016,49(19):609-614.
[11]Waytz A,Heafner J,Epley N.The mind in the machine:Anthropomorphism increases trust in an autonomousvehicle[J].Journal of Experimental Social Psychology,2014,52(3):113-117.
[12]謝傳偉.情感化設(shè)計在用戶體驗中的運用[J].設(shè)計,2014(2):21-22.
[13]許曉云,任靜.汽車界面設(shè)計的智能化人機交互系統(tǒng)IJ].設(shè)計,2015(19):146-147.
[14]Seppelt B D,Victor T W.Potential Solutions to Human Factors Challenges in Road Vehicle Automation[M]//RoadVehicle Automation 3.Springer International Publishing,2016.
[15]鄭博偉,吳亞生.新能源汽車時代車載HMI交互界面發(fā)展方向的探索[J].設(shè)計,2018(5):13-15.