許為,葛列眾,高在峰
(1.浙江大學(xué) 心理科學(xué)研究中心,浙江 杭州 310058;2.浙江大學(xué) 心理與行為科學(xué)系,浙江 杭州 310058)
人工智能(AI)技術(shù)正在造福人類,但是,目前許多AI 系統(tǒng)的研發(fā)主要遵循“以技術(shù)為中心”的理念[1-5]。研究表明不恰當(dāng)?shù)腁I 技術(shù)開發(fā)導(dǎo)致了許多傷害人類的事故,AI 事故數(shù)據(jù)庫已經(jīng)收集了1 000 多起事故[6],這些事故包括:自動(dòng)駕駛汽車撞死行人,交易算法錯(cuò)誤導(dǎo)致市場(chǎng)“閃崩”,面部識(shí)別系統(tǒng)導(dǎo)致無辜者被捕等。美國(guó)工程院院士、計(jì)算機(jī)教授Shneiderman[4]將圍繞“以技術(shù)為中心”還是“以人為中心”理念開發(fā)AI 系統(tǒng)的爭(zhēng)議形象化地描述為“AI 哥白尼革命”,提出AI 開發(fā)應(yīng)該將人類放在中心,而不是算法和AI 技術(shù)。
近幾年來,圍繞“以人為中心AI”理念、如何避免AI 傷害人類以及產(chǎn)生社會(huì)負(fù)面影響等方面的研究引起越來越多的重視[2-3,5-11],目前國(guó)內(nèi)外還沒有形成系統(tǒng)化的跨學(xué)科工作框架來有效應(yīng)對(duì)這些新挑戰(zhàn)及促進(jìn)這方面工作的開展。中國(guó)國(guó)家自然科學(xué)基金委員會(huì)在2020 年成立了交叉科學(xué)部,在交叉科學(xué)高端學(xué)術(shù)論壇上,受邀的AI、人機(jī)交互(human-computer interaction)、人因工程(human factors engineering)等專家一致認(rèn)為,學(xué)科交叉是未來科學(xué)發(fā)展的必然趨勢(shì)。
在這樣的基于跨學(xué)科合作理念的背景下,本文回答以下3 個(gè)問題:與傳統(tǒng)計(jì)算技術(shù)相比,AI 技術(shù)帶來了什么新挑戰(zhàn)?應(yīng)該如何促進(jìn)“以人為中心AI”理念在AI 研發(fā)中的應(yīng)用?從跨學(xué)科合作角度我們應(yīng)該采取什么策略?本文將進(jìn)一步闡述我們?cè)?019 年提出的“以人為中心AI”(humancentered AI,HCAI)理念[2],系統(tǒng)地提出人?人工智能交互(human-AI interaction,HAII)這一新興跨學(xué)科領(lǐng)域。希望通過倡導(dǎo)HCAI 理念和HAII 領(lǐng)域,促進(jìn)AI 研發(fā)造福于人類,避免潛在的負(fù)面影響。
AI 界一般認(rèn)為AI 技術(shù)主要經(jīng)歷了3 次浪潮。前兩次浪潮集中在科學(xué)探索,局限于“以技術(shù)為中心”的視野,呈現(xiàn)出“學(xué)術(shù)主導(dǎo)”的特征。深度機(jī)器學(xué)習(xí)、算力、大數(shù)據(jù)等技術(shù)推動(dòng)了第3 次浪潮的興起。在第3 次浪潮中,人們開始重視AI 技術(shù)的應(yīng)用落地場(chǎng)景,開發(fā)對(duì)人類有用的前端應(yīng)用和人機(jī)交互技術(shù),考慮AI 倫理等問題。同時(shí),AI 界開始提倡將人與AI 視為一個(gè)人機(jī)系統(tǒng),引入人的作用[1,3]。
可見,第3 次浪潮開始圍繞“人的因素”來開發(fā)AI,促使人們更多地考慮“以人為中心AI”的理念。因此,第3 次浪潮呈現(xiàn)出“技術(shù)提升+應(yīng)用開發(fā)+以人為中心”的特征[2],意味著AI 開發(fā)不僅是一個(gè)技術(shù)方案,還是跨學(xué)科合作的系統(tǒng)工程。
AI 可以開發(fā)成具有自主化(autonomy)特征的智能體。取決于自主化程度,AI 系統(tǒng)可以擁有一定程度上的類似于人的認(rèn)知、學(xué)習(xí)、自適應(yīng)、獨(dú)立執(zhí)行操作等能力,在特定的場(chǎng)景下可以自主地完成一些特定任務(wù),可以在一些設(shè)計(jì)未預(yù)期的場(chǎng)景中自主地完成以往自動(dòng)化技術(shù)所不能完成的任務(wù)[9-11]。
這種智能自主化特征賦予人機(jī)系統(tǒng)中機(jī)器新的角色。在非智能時(shí)代,人類操作基于計(jì)算技術(shù),機(jī)器充當(dāng)輔助工具角色。人與AI 系統(tǒng)的交互本質(zhì)上是人與自主智能體的交互。隨著AI 技術(shù)提升,自主智能體有可能從一種支持人類操作的輔助工具的角色發(fā)展成為與人類操作員共同合作的隊(duì)友,扮演“輔助工具+人機(jī)合作隊(duì)友”的雙重新角色[11]。
因此,智能時(shí)代的人機(jī)關(guān)系正在演變成為團(tuán)隊(duì)隊(duì)友關(guān)系,形成一種“人機(jī)組隊(duì)”(human-machine teaming)式合作[12-13]。智能時(shí)代的這種人機(jī)關(guān)系區(qū)別于PC 時(shí)代的人機(jī)交互,對(duì)AI 研發(fā)是挑戰(zhàn)和機(jī)遇,研發(fā)者需要在AI 研發(fā)中要利用這種人機(jī)合作,保證人類能夠有效控制AI 系統(tǒng),避免傷害人類。
人機(jī)交互是PC 時(shí)代形成的跨學(xué)科領(lǐng)域,它研究人?非AI 計(jì)算系統(tǒng)之間的交互。表1 比較了人?非AI 系統(tǒng)交互與人?AI 系統(tǒng)交互之間的一些特征。人?AI 系統(tǒng)交互所具備的特征是基于AI 系統(tǒng)具有較高的智能自主化程度,有些特征目前還沒實(shí)現(xiàn)。從表1 可見,與人?非智能系統(tǒng)交互相比,人?智能系統(tǒng)交互帶來了許多新特征和新問題,也給人?智能系統(tǒng)交互的研究和應(yīng)用帶來了新機(jī)遇。
表1 人?非AI 計(jì)算系統(tǒng)交互與人?AI 系統(tǒng)交互的特征比較Table 1 Comparative analysis between human interaction with non-AI systems and AI systems
續(xù)表 1
在人?非智能系統(tǒng)交互中,作為一種支持人類操作的輔助工具,機(jī)器依賴于事先設(shè)計(jì)的規(guī)則和算法。盡管人機(jī)之間也存在一定程度上的人機(jī)合作,但是作為輔助工具的機(jī)器是被動(dòng)的,只有人可以主動(dòng)地啟動(dòng)這種有限的合作。
AI 系統(tǒng)智能體具備的自主化特征使得智能體與人類之間可以實(shí)現(xiàn)一定程度上類似于人?人團(tuán)隊(duì)之間的“合作式交互”。在特定的操作環(huán)境中,這種交互可以是由兩者之間雙向主動(dòng)的、分享的、互補(bǔ)的、可替換的、自適應(yīng)的、目標(biāo)驅(qū)動(dòng)的以及可預(yù)測(cè)的等特征所決定的(見表1)。隨著AI 技術(shù)的發(fā)展,未來AI 系統(tǒng)將更多點(diǎn)地具備這些特征[13]。
由此可見,智能時(shí)代人?AI 系統(tǒng)交互的新特征以及研究的問題等已經(jīng)遠(yuǎn)超出了目前人機(jī)交互研究和應(yīng)用的范圍,需要一種新思維來考慮如何更加有效地開展多學(xué)科合作來應(yīng)對(duì)人?AI 系統(tǒng)交互以及AI 系統(tǒng)研發(fā)中面臨的一系列新特征和新挑戰(zhàn)。
國(guó)外針對(duì)人?AI 系統(tǒng)交互的研究和應(yīng)用已經(jīng)展開[12-13]。例如:人?智能體交互[14],人?自主化交互(human-autonomy interaction)[15],人?AI交互[16]。盡管這些工作各有側(cè)重點(diǎn),但是都是研究人與智能“機(jī)器”(智能體、智能代理等) 之間的交互。所以,這種交互本質(zhì)上就是人?AI 交互 (human-AI interaction,HAII)。目前還沒有一個(gè)系統(tǒng)的有關(guān)HAII 領(lǐng)域的工作框架,有必要正式提倡將HAII 作為一個(gè)新的多學(xué)科交叉領(lǐng)域來推動(dòng)。
近幾年,當(dāng)“以技術(shù)為中心”方法影響著AI 研發(fā)的同時(shí),研究者也在探索基于“以人為中心”的AI 開發(fā)方法,例如,以人為中心的算法、AI 人文設(shè)計(jì)、包容性設(shè)計(jì)、基于社會(huì)責(zé)任的AI[8]。
斯坦福大學(xué)在2019 年成立了“以人為中心AI”(human-centered AI,HCAI) 研究中心,目的是通過技術(shù)提升與倫理化設(shè)計(jì)手段,開發(fā)出合乎人類道德倫理和惠及人類的AI 系統(tǒng)[17]。
許為[2,18]在2019 年提出了一個(gè)“以人為中心AI”(HCAI)的系統(tǒng)概念框架,該框架包括人、倫理、技術(shù)3 個(gè)方面。Shneiderman[19]在2020 年提出了一個(gè)為開發(fā)可靠、安全和可信賴的AI 系統(tǒng)的指導(dǎo)框架。HCAI 就是指導(dǎo)HAII 新領(lǐng)域的理念。以下進(jìn)一步闡述HCAI 理念的3 個(gè)方面:技術(shù)、人、倫理(見圖1)[2]。其中,圖1 概括了各方面工作的主要途徑(見圖1 中圍繞3 個(gè)周邊圓形部分的藍(lán)色字體),例如,人的需求、AI 應(yīng)用場(chǎng)景;圖1 也概括了這些工作要達(dá)到的HCAI 設(shè)計(jì)目標(biāo)(見圖1 中圍繞“以人為中心AI”中心圓形部分的黑色字體),例如,可用的AI、有用的AI。
圖1 以人為中心AI(HCAI)理念Fig.1 Human-Centered AI (HCAI) design philosophy
1)“技術(shù)”方面:強(qiáng)調(diào)3 類智能的有機(jī)結(jié)合。①機(jī)器智能:利用算法、大數(shù)據(jù)、算力等技術(shù)來開發(fā)機(jī)器智能。②人類智能:利用智能增強(qiáng)技術(shù),借助心理學(xué)、腦神經(jīng)技術(shù)等方法推動(dòng)人類智能的增強(qiáng)。③人機(jī)混合增強(qiáng)智能:AI 界已經(jīng)認(rèn)識(shí)到單獨(dú)發(fā)展AI 技術(shù)的路徑遇到了瓶頸效應(yīng),在高級(jí)人類認(rèn)知方面難以達(dá)到人類的智能水平[1,3,20]。因此,HCAI 理念強(qiáng)調(diào)將人的作用融入人機(jī)系統(tǒng),通過人機(jī)智能的互補(bǔ),開發(fā)人機(jī)混合增強(qiáng)智能、AI 與人類智能增強(qiáng)技術(shù)的整合。目的是開發(fā)出可持續(xù)發(fā)展、強(qiáng)大、人類可控的AI;AI 開發(fā)的目的是提升人的能力,而不是取代人類。
2)“人”方面:強(qiáng)調(diào)在AI 系統(tǒng)研發(fā)中從人的需求出發(fā),落實(shí)有效的應(yīng)用場(chǎng)景,開發(fā)人類認(rèn)知模型,在AI 研發(fā)中實(shí)施基于“以人為中心”的人機(jī)交互設(shè)計(jì)和方法(建模、設(shè)計(jì)、測(cè)試等)。目的是開發(fā)出有用的(滿足人的需求、有使用價(jià)值)、可用的(易用、易學(xué))、人類擁有最終決控權(quán)的AI 系統(tǒng)。
3)“倫理”方面:結(jié)合跨學(xué)科方法、有效開發(fā)實(shí)踐、標(biāo)準(zhǔn)和治理等工作,通過工程設(shè)計(jì)手段(如“有意義的人類控制”),保證AI 開發(fā)遵循公平、人的隱私、倫理道德、人的決策權(quán)等方面的權(quán)益。目的是開發(fā)出倫理化、負(fù)責(zé)任的AI。
HCAI 理念強(qiáng)調(diào)在AI 開發(fā)中保持人的中心地位,貫徹技術(shù)、人、倫理三方面相互依承的系統(tǒng)化AI 開發(fā)思維,主張AI 開發(fā)是一個(gè)跨學(xué)科協(xié)作的系統(tǒng)工程,開發(fā)出可靠的、安全的、可信賴的AI 系統(tǒng)[2,19]。
針對(duì)HAII 這一新興領(lǐng)域,我們作出以下初步的定義。圖2 示意了人?人工智能交互(HAII)的領(lǐng)域框架,其中,藍(lán)色圓圈部份代表跨學(xué)科的主要合作學(xué)科,白色長(zhǎng)形部份代表本文所討論的HAII 研究和應(yīng)用的主要問題。
HAII 領(lǐng)域理念:以人為中心AI(HCAI)。
HAII 領(lǐng)域目的:作為一個(gè)跨學(xué)科交叉領(lǐng)域,HAII 利用AI、計(jì)算機(jī)科學(xué)、人機(jī)交互、人因工程、心理學(xué)等學(xué)科技術(shù)和方法,致力于合作研發(fā)AI 系統(tǒng),優(yōu)化人與AI 系統(tǒng)之間的交互,注重機(jī)器與人類智能的優(yōu)勢(shì)互補(bǔ),全方位考慮AI 倫理道德,強(qiáng)調(diào)人對(duì)AI 系統(tǒng)的最終決控權(quán),通過提供一個(gè)跨學(xué)科的合作平臺(tái),在AI 系統(tǒng)開發(fā)中實(shí)現(xiàn)HCAI 開發(fā)理念,為人類提供安全、可靠、可信賴的AI。
HAII 研究和應(yīng)用范圍:狹義地說,HAII 涉及到人與AI 系統(tǒng)交互的研究和應(yīng)用;廣義地說,任何涉及到由人來使用、影響人的AI 研究發(fā)都屬于HAII 的范疇,包括與人產(chǎn)生交互的AI 系統(tǒng)的研究和應(yīng)用領(lǐng)域,如智能手機(jī)應(yīng)用APP、智能人機(jī)交互技術(shù)、智能決策系統(tǒng)、智能物聯(lián)網(wǎng)等。如圖2 所示,HAII 從人?機(jī)?環(huán)境系統(tǒng)的角度來考慮各種因素對(duì)人與AI 交互的影響,全面了解這些影響有助于發(fā)揮AI 技術(shù)的優(yōu)勢(shì),避免負(fù)面影響。
圖2 人?人工智能交互(HAII)領(lǐng)域示意Fig.2 Illustration of the human-AI interaction (HAII) domain
HAII 領(lǐng)域方法:作為一個(gè)跨學(xué)科領(lǐng)域,通過多學(xué)科方法(建模、算法、設(shè)計(jì)、工程、測(cè)試等)和合作的流程來開發(fā)AI 系統(tǒng)。這些方法來自這些相關(guān)學(xué)科,例如計(jì)算模型、工程設(shè)計(jì)方法、行為科學(xué)研究方法、人機(jī)交互設(shè)計(jì)等。
HAII 領(lǐng)域人員:從事HAII 研究和應(yīng)用的人員包括來自AI、計(jì)算機(jī)、數(shù)據(jù)科學(xué)、人機(jī)交互、心理學(xué)、認(rèn)知神經(jīng)科學(xué)、社會(huì)科學(xué)等專業(yè)人員。廣義地來說,大多數(shù)從事AI 系統(tǒng)研發(fā)的人員都屬于這個(gè)范疇,他們研發(fā)的AI 系統(tǒng)或多或少都與人交互,都是為了開發(fā)出有利于人類的AI 系統(tǒng)。
首先,HAII 領(lǐng)域?yàn)楦鲗W(xué)科提供了一個(gè)合作平臺(tái)。HAII 有助于在一個(gè)領(lǐng)域名稱(HAII)下,聯(lián)合參與AI 系統(tǒng)研發(fā)的跨學(xué)科、跨行業(yè)專業(yè)人員,避免易混淆的名稱,這種跨學(xué)科合作有助于有效地開發(fā)以人為中心的AI 系統(tǒng)。
其次,HAII 領(lǐng)域強(qiáng)調(diào)其研究和應(yīng)用的對(duì)象是AI,不是傳統(tǒng)的非AI 系統(tǒng),有助于提醒人們注重AI 與非AI 系統(tǒng)之間的特征差異,促使人們重視AI 技術(shù)帶來的新挑戰(zhàn)和新問題,采用有效的方法來解決AI 系統(tǒng)開發(fā)中的獨(dú)特問題。
最后,HAII 領(lǐng)域有助于推動(dòng)HCAI 理念在AI 研發(fā)中的落實(shí)。HAII 強(qiáng)調(diào)AI 研發(fā)中將人的中心作用整合到系統(tǒng)設(shè)計(jì)中,避免潛在安全風(fēng)險(xiǎn)問題[8,20]。
歷史上,新技術(shù)促進(jìn)了新領(lǐng)域的產(chǎn)生。進(jìn)入PC 時(shí)代,傳統(tǒng)“人機(jī)交互”(human-machine interaction)領(lǐng)域過渡到新版的“人機(jī)交互”(人?計(jì)算機(jī)交互),但是此“機(jī)”非彼“機(jī)”[21]。智能時(shí)代的機(jī)器過渡到AI 系統(tǒng),AI 的新特征促使HAII 新領(lǐng)域的產(chǎn)生,因此,HAII 的出現(xiàn)也是必然的。
我們并不建議將HAII 設(shè)置為一門獨(dú)立的新學(xué)科,強(qiáng)調(diào)HAII 是一個(gè)新型跨學(xué)科領(lǐng)域,希望通過該領(lǐng)域的跨學(xué)科、跨行業(yè)協(xié)同合作來落實(shí)HCAI 理念。例如,HAII 工作需要人機(jī)交互人員的參與,他們必須采用新思維開展針對(duì)人與AI 交互的研究和應(yīng)用。
HAII 領(lǐng)域的工作并非剛剛興起,AI 界和其他相關(guān)學(xué)科已經(jīng)開展了一些工作。為進(jìn)一步闡述HAII 領(lǐng)域,基于文獻(xiàn)綜述和分析,表2 概括了當(dāng)前HAII 研究和應(yīng)用的重點(diǎn)、實(shí)現(xiàn)HCAI 理念的挑戰(zhàn)、HAII 領(lǐng)域可能的解決方案、期望的HCAI 設(shè)計(jì)目標(biāo)。表2 也引用一些實(shí)例,詳細(xì)內(nèi)容在本文第3 部分討論。
從表2 可知,首先,為實(shí)現(xiàn)基于HCAI 理念的設(shè)計(jì)目標(biāo),HAII 研究和應(yīng)用有許多挑戰(zhàn)期待解決。不解決這些挑戰(zhàn)我們就無法實(shí)現(xiàn)HCAI 理念,無法開發(fā)出安全、可靠、可信賴的AI。
表2 HAII 領(lǐng)域中實(shí)現(xiàn)HCAI 理念所面臨的挑戰(zhàn)、HAII 可能解決方案、應(yīng)用實(shí)例以及HCAI 設(shè)計(jì)目標(biāo)Table 2 Challenges in realizing the HCAI design philosophy,possible HAII solutions,application examples,and expected HCAI design goals
續(xù)表 2
其次,表2 概括出了HAII 研究和應(yīng)用的范圍。目前來自AI 和其他學(xué)科的專業(yè)人員在開展這方面的工作,這些挑戰(zhàn)不是單一學(xué)科可以解決的,這正說明了HCAI 和HAII 工作需要跨學(xué)科的協(xié)同合作。
最后,HAII 領(lǐng)域采用跨學(xué)科的方法。HAII 研究和應(yīng)用的挑戰(zhàn)、可能的解決方案以及實(shí)例都依賴于跨學(xué)科方法(建模、工程設(shè)計(jì)、行為科學(xué)方法等),單一學(xué)科的方法無法有效地解決這些問題。
40 多年前,當(dāng)PC 新技術(shù)剛興起時(shí),開發(fā)者基本遵循“以技術(shù)為中心”的理念。隨著PC 的普及,許多用戶體驗(yàn)問題隨之出現(xiàn),人們開始意識(shí)到“以人為中心設(shè)計(jì)”理念的重要性,來自計(jì)算機(jī)科學(xué)、人因工程、心理學(xué)的專業(yè)人員協(xié)同推動(dòng)了人機(jī)交互學(xué)科的形成和發(fā)展。多年的實(shí)踐,用戶體驗(yàn)的理念已經(jīng)在社會(huì)和計(jì)算技術(shù)界形成共識(shí)。
今天,隨著AI 技術(shù)的引進(jìn),我們又目睹了類似情景,但是這一次忽略“以人為中心”理念的代價(jià)對(duì)人類和社會(huì)的影響將更為嚴(yán)重[6]。因此,各學(xué)科必須再一次協(xié)同合作,推動(dòng)智能時(shí)代的“以人為中心設(shè)計(jì)”版本(即HCAI 理念)和HAII 領(lǐng)域的工作,更加有效地利用AI 技術(shù),揚(yáng)長(zhǎng)避短,為人類服務(wù)。
另外,HCAI 理念和HAII 領(lǐng)域定義的是AI 開發(fā)中應(yīng)該遵循的理念、目標(biāo)及途徑等,并非是一個(gè)具體模型或算法。我們強(qiáng)調(diào)跨學(xué)科合作,一旦明確了這些理念、目標(biāo)及途徑等,AI 人員就能更加有效地開發(fā)出實(shí)現(xiàn)HCAI 理念、設(shè)計(jì)目標(biāo)的模型、算法以及技術(shù)。
依據(jù)HCAI 理念,針對(duì)目前AI 帶來的新挑戰(zhàn),我們從以下幾方面分析目前HAII 研究和應(yīng)用的進(jìn)展,提出今后的重點(diǎn)方向。目前一些AI 人員也在開展這方面工作,希望HCAI 理念和HAII 領(lǐng)域的提出能夠強(qiáng)化這些人員的HCAI 理念以及跨學(xué)科的合作,也希望非AI 人員積極參與到HAII研究和應(yīng)用中。
自1956 年AI 概念被提出后,研究者已經(jīng)開始致力于另一條路徑:智能增強(qiáng) (intelligence augmentation,IA)[41]。智能增強(qiáng)致力于增強(qiáng)人類智能[42-43]。研究人員利用新技術(shù)(如心理學(xué)、腦機(jī)接口、虛擬現(xiàn)實(shí)),借助AI 技術(shù)來推動(dòng)智能增強(qiáng)的研究和應(yīng)用[44]。從HCAI 理念看,HAII 領(lǐng)域與智能增強(qiáng)具有相同目標(biāo):利用AI 技術(shù)來增強(qiáng)人的能力。
AI 領(lǐng)域與智能增強(qiáng)領(lǐng)域之間長(zhǎng)期存在競(jìng)爭(zhēng)。一些AI 人員認(rèn)為AI 可以取代人類,而智能增強(qiáng)人員認(rèn)為AI 僅僅為智能增強(qiáng)技術(shù)提供了新的手段[23]。從HCAI 理念分析,AI 和智能增強(qiáng)會(huì)采用類似的技術(shù),遵循的應(yīng)該都是擴(kuò)展人類智能,應(yīng)該是“以人為中心”的伙伴關(guān)系,許多智能方案其實(shí)是兩種技術(shù)的集合,HAII 可以為兩者的合作起到橋梁的作用。
今后,智能增強(qiáng)研究中有許多問題需要HAII領(lǐng)域的貢獻(xiàn)。首先,機(jī)器智能無法模仿人類智能的某些維度,HAII 提倡從跨學(xué)科角度來探索哪種類型的人類智能增強(qiáng)以及技術(shù)可以提供有效手段來彌補(bǔ)AI 的弱點(diǎn)[45],這需要智能增強(qiáng)人員主動(dòng)尋求來自AI、心理學(xué)、認(rèn)知神經(jīng)科學(xué)、人因工程學(xué)科的支持。
其次,開發(fā)AI 與智能增強(qiáng)技術(shù)最佳組合的應(yīng)用解決方案將有效促進(jìn)兩種技術(shù)之間的合作,從而達(dá)到“1+1>2”的效果。HAII 領(lǐng)域可以起到一個(gè)中間橋梁的作用,從人機(jī)交互、心理學(xué)等學(xué)科角度,從人機(jī)交互方式、多模態(tài)交互兼容性、人類認(rèn)知加工水平、AI 系統(tǒng)自主化程度等多種維度來開發(fā)能夠支持人與智能系統(tǒng)有效交互的解決方案。
第三,依據(jù)HCAI 理念,智能增強(qiáng)專業(yè)人員要將人類置于系統(tǒng)方案的中心。HAII 領(lǐng)域提倡心理學(xué)、認(rèn)知神經(jīng)科學(xué)等人員積極參與研究。例如,基于可塑性機(jī)制,構(gòu)建認(rèn)知負(fù)荷可控、及時(shí)生理反饋、體腦雙向交互的新型人機(jī)交互研究。這些研究將有效支持在許多應(yīng)用領(lǐng)域中訓(xùn)練和增強(qiáng)人類智能[46]。
最后,在生物神經(jīng)層面上尋找AI 技術(shù)與智能增強(qiáng)技術(shù)的整合解決方案。這是當(dāng)前關(guān)注的研究方向之一,例如,腦機(jī)融合[47]。HAII 提倡AI、認(rèn)知神經(jīng)科學(xué)、腦成像技術(shù)、人機(jī)交互等人員合作,優(yōu)化腦機(jī)界面解決方案,通過在生物神經(jīng)層面上整合AI 與智能增強(qiáng)技術(shù)來探索有效的人?AI 交互手段[48]。
將人類的作用和人類智能引入AI 系統(tǒng)將形成人類智能與機(jī)器智能的優(yōu)勢(shì)互補(bǔ),從而開發(fā)出更強(qiáng)大、可持續(xù)發(fā)展的人機(jī)混合增強(qiáng)智能[1,20,48]。
目前,針對(duì)混合增強(qiáng)智能的研究基本可分為兩類。第一類是在系統(tǒng)層面上的“人在環(huán)路”式混合增強(qiáng)智能[49]。這種思路符合HCAI 理念,即將人的作用引入AI 系統(tǒng)中,形成以人為中心、融于人機(jī)關(guān)系的混合智能。例如,在“人在環(huán)路”范式中,人始終是AI 系統(tǒng)的一部分,當(dāng)系統(tǒng)輸出置信度低時(shí),人主動(dòng)介入調(diào)整參數(shù)給出合理正確的問題求解,構(gòu)成提升智能水平的反饋回路[1,50]。另一種方案是在生物學(xué)層面上開發(fā)“腦在環(huán)路”式混增強(qiáng)智能[3],以生物智能和機(jī)器智能深度融合為目標(biāo),通過神經(jīng)連接通道,可以形成對(duì)某個(gè)功能體的增強(qiáng)、替代和補(bǔ)償。
第二類混合增強(qiáng)智能是將人類認(rèn)知模型嵌入AI 系統(tǒng)中,形成基于認(rèn)知計(jì)算的混合增強(qiáng)智能[1]。從HCAI 理念分析,這類混合增強(qiáng)智能并不是真正意義上的人機(jī)混合增強(qiáng)智能,因?yàn)檫@種系統(tǒng)并非能夠保證以人機(jī)系統(tǒng)為載體來實(shí)現(xiàn)人在人機(jī)系統(tǒng)中的中心作用和最終決控權(quán)。當(dāng)然,把人類認(rèn)知模型引入到機(jī)器智能中,對(duì)于發(fā)展機(jī)器智能是非常重要的。
HAII 領(lǐng)域工作將對(duì)人機(jī)混合增強(qiáng)智能研究和應(yīng)用發(fā)揮重要作用。首先,HAII 領(lǐng)域提倡心理學(xué)、認(rèn)知工程等學(xué)科專業(yè)人員的合作支持,加速現(xiàn)有心理學(xué)等學(xué)科成果的轉(zhuǎn)換來支持認(rèn)知計(jì)算的研究,提供有效的認(rèn)知計(jì)算體系架構(gòu)[51],例如,為提高對(duì)非結(jié)構(gòu)化視聽覺感知信息的理解能力和海量異構(gòu)信息的處理效率,HAII 領(lǐng)域需要支持AI 界在“感知特征的提取、表達(dá)及整合”和“模態(tài)信息協(xié)同計(jì)算”等方面的視聽覺信息認(rèn)知計(jì)算研究[52]。HAII 鼓勵(lì)將基于認(rèn)知計(jì)算方法與“人在環(huán)路”方法(系統(tǒng)、生物學(xué)層面) 整合的工作思路。基于HCAI 理念,這種思路有助于開發(fā)出更強(qiáng)大、可持續(xù)發(fā)展的、人類可控的AI。
第二,開展基于HCAI 理念的人機(jī)混合智能控制研究。針對(duì)人機(jī)混合智能系統(tǒng)控制,目前主要有兩種方案:“人在回路控制”和“人機(jī)協(xié)同控制”[53]。AI 系統(tǒng)在應(yīng)急狀態(tài)時(shí)人機(jī)之間的高效切換是目前重要研究課題。例如,自主武器系統(tǒng)發(fā)射后的追蹤控制,自主駕駛車應(yīng)急狀態(tài)下的高效人機(jī)切換。HCAI 理念要求人擁有最終控制權(quán),這需要AI、人機(jī)交互等專業(yè)人員的合作,尋找有效解決方案。
第三,開展人機(jī)混合增強(qiáng)智能系統(tǒng)的人機(jī)交互研究?!叭嗽诃h(huán)路”混合智能系統(tǒng)需要與用戶交互的交互設(shè)計(jì)[24]。不同于傳統(tǒng)人機(jī)交互,用戶交互的對(duì)象是AI 模型,用戶界面難以理解,用戶與AI 交互中存在用戶意圖的不確定性[1]。HAII 研究要求AI 專業(yè)人員與人機(jī)交互、人因工程等專業(yè)合作,從智能系統(tǒng)、用戶、人機(jī)交互設(shè)計(jì)三方面優(yōu)化系統(tǒng)設(shè)計(jì)。例如,開發(fā)自然式交互設(shè)計(jì),選擇有效的心理模型。
最后,開展人類高級(jí)認(rèn)知層面上的人機(jī)混合增強(qiáng)智能研究。HAII 研究需要AI、認(rèn)知神經(jīng)科學(xué)、計(jì)算機(jī)科學(xué)、心理學(xué)等專業(yè)人員的合作。例如,進(jìn)一步探索人機(jī)融合、腦機(jī)融合等方面的研究,今后要在更高的認(rèn)知層次上為腦機(jī)智能的疊加(如學(xué)習(xí)、記憶)建立更有效的模型和算法[44];探索如何將人的決策和經(jīng)驗(yàn)與機(jī)器智能在邏輯推理、演繹推理等方面的優(yōu)勢(shì)結(jié)合,使人機(jī)合作具有高效率[1]。從長(zhǎng)遠(yuǎn)看,人機(jī)混合增強(qiáng)智能未來可能形成有效的人機(jī)共生[46],通過個(gè)體和群體智能融合等途徑,最終在系統(tǒng)和生物學(xué)層面上實(shí)現(xiàn)人機(jī)共生和融合[54]。
智能技術(shù)帶來了一種新型人機(jī)關(guān)系:人?AI 合作,人?AI 系統(tǒng)作為一個(gè)組合體比單個(gè)實(shí)體的工作更加有效[27,29]。人?AI 合作的研究目前在國(guó)外是一個(gè)熱點(diǎn)。HAII 研究需要AI、心理學(xué)和人因工程等學(xué)科的合作,從感知、認(rèn)知、執(zhí)行3 個(gè)層面上開展。
在感知層面,為了有效的人?AI 合作,AI 系統(tǒng)需要人的模型來支持系統(tǒng)對(duì)人類狀態(tài)的監(jiān)控(生理、行為、情緒、愿圖、能力等);AI 系統(tǒng)的人機(jī)界面要足夠透明,幫助人類了解當(dāng)前系統(tǒng)狀態(tài)。例如,人機(jī)之間情景意識(shí)(態(tài)勢(shì)感知)分享是人?AI 合作研究的基本問題之一。研究需要了解如何有效實(shí)現(xiàn)人?AI 之間基于情景意識(shí)模型的的雙向溝通[55],目前還缺少針對(duì)人?AI 合作的情景意識(shí)模型和測(cè)試方法[56]。今后的HAII 工作需要豐富情景意識(shí)理論,為人?AI 合作建模、認(rèn)知架構(gòu)、績(jī)效測(cè)評(píng)提供支持。
在認(rèn)知層面,PC 時(shí)代的人機(jī)交互模型已經(jīng)不能滿足智能時(shí)代的復(fù)雜交互場(chǎng)景。HAII 需要構(gòu)建符合人?AI 合作的認(rèn)知和計(jì)算模型[57]。人與AI 之間的互信影響人?AI 合作的績(jī)效,HAII 需要研究信任測(cè)量、建模、修復(fù)、校正等方面的工作,以及如何量化不同操作場(chǎng)景中人機(jī)之間動(dòng)態(tài)化功能交換時(shí)所需的信任。不同于傳統(tǒng)人機(jī)交互,人與AI 均需要彼此感知并識(shí)別交方的意圖與情感,今后研究要進(jìn)一步探索心理模型、意圖識(shí)別、情感交互等模型,以及在系統(tǒng)設(shè)計(jì)中如何實(shí)現(xiàn)和驗(yàn)證這些模型。
在執(zhí)行層面,有效的人?AI 合作應(yīng)該允許在任務(wù)、功能、系統(tǒng)等層面上實(shí)現(xiàn)決控權(quán)在人與AI 代理之間的分享。決控權(quán)的轉(zhuǎn)移取決于人機(jī)雙向信任、情景意識(shí)共享、合作程度等因素。例如,在自動(dòng)駕駛車領(lǐng)域,HAII 工作需要研究人機(jī)控制分享范式、人機(jī)共駕所需的情景意識(shí)分享、人機(jī)互信、風(fēng)險(xiǎn)評(píng)估等,保證車輛控制權(quán)在人機(jī)之間的快速有效切換,確保人擁有最終控制權(quán)(包括遠(yuǎn)程控制等)[58]。HAII 研究需要了解在什么條件下人機(jī)之間如何完成有效切換,是否可以借助人?AI 合作的思路,通過有效人機(jī)交互,提供有效的人機(jī)控制權(quán)轉(zhuǎn)移。HAII 今后的工作還應(yīng)該在以下幾方面開展。
首先,HAII 需要為人?AI 合作的研究開發(fā)新理論、模型以及評(píng)估和預(yù)測(cè)人?AI 合作團(tuán)隊(duì)績(jī)效的方法,這些都是傳統(tǒng)人機(jī)交互中沒有遇到的新問題。HAII 領(lǐng)域的工作要支持AI 建模以及對(duì)建模數(shù)據(jù)的需求(例如,情景意識(shí)、行為、意圖、信任)[13],合作開發(fā)人?AI 合作在各種應(yīng)用領(lǐng)域的解決方案。
其次,HAII 領(lǐng)域需要從行為科學(xué)等角度、社會(huì)層面上來研究人?AI 合作。要研究社會(huì)因素(社會(huì)責(zé)任、道德等)對(duì)人?AI 合作的影響,研究如何讓AI 代理擔(dān)當(dāng)團(tuán)隊(duì)角色并且與人類隊(duì)友合作[13];研究如何從系統(tǒng)設(shè)計(jì)角度,通過合適的人機(jī)交互方式來發(fā)展良好的人機(jī)關(guān)系(信任,情感等);研究如何有效支持長(zhǎng)期人?AI 合作(如醫(yī)用機(jī)器人)。
第三,HAII 研究要構(gòu)建人?AI 合作場(chǎng)景所需的人機(jī)交互建模。與AI 人員合作研究對(duì)人?AI 合作中人機(jī)交互建模構(gòu)成挑戰(zhàn)的理論問題,例如,分布式認(rèn)知理論,基于上下文的知識(shí)表征和知識(shí)圖譜[59],人?AI 合作中情感交互、社交互動(dòng)等方面的認(rèn)知建模。
最后,HAII 需要在真實(shí)的操作、社交環(huán)境中研究人?AI 合作[60]。例如,實(shí)驗(yàn)室研究表明,與簡(jiǎn)單機(jī)器人的交互可以增強(qiáng)人的協(xié)調(diào)性,并且機(jī)器人可以直接與人合作[61];人?AI 合作中AI 與人的認(rèn)知風(fēng)格、人格特性等特性相適應(yīng)時(shí),可增強(qiáng)人機(jī)互信與可靠性。今后要在真實(shí)社會(huì)環(huán)境中驗(yàn)證這些人?AI 社會(huì)互動(dòng),這將有助于優(yōu)化人?AI 合作的設(shè)計(jì)。
深度學(xué)習(xí)等方法會(huì)產(chǎn)生AI“黑匣子”效應(yīng),導(dǎo)致用戶對(duì)AI 系統(tǒng)的決策產(chǎn)生疑問,該效應(yīng)可在各類使用中發(fā)生,包括AI 在金融股票、醫(yī)療診斷、安全檢測(cè)、法律判決等領(lǐng)域,導(dǎo)致系統(tǒng)決策效率降低、倫理道德等問題,影響公眾對(duì)AI 的信任度。
尋求可解釋AI(explainable AI,XAI)已成為AI界的一個(gè)研究熱點(diǎn),具有代表性的是DARPA[62]在2016 年啟動(dòng)的項(xiàng)目。該項(xiàng)目集中在:1)開發(fā)或改進(jìn)ML 技術(shù)來獲取可解釋算法模型;2)借助于先進(jìn)的人機(jī)交互技術(shù),開發(fā)可解釋AI 的用戶界面模型;3)評(píng)估心理學(xué)解釋理論來協(xié)助可解釋AI 的研發(fā)。
經(jīng)過多年的努力,AI 界開始認(rèn)識(shí)到非AI 學(xué)科在可解釋AI 研究中的重要性[63]。Miller 等[64]的調(diào)查表明,大多數(shù)可解釋AI 項(xiàng)目?jī)H在AI 學(xué)科內(nèi)展開。許多AI 人員采用“以算法為中心”的方法,加劇了算法的不透明[65]。一些AI 人員沒有遵循HCAI 理念,通常為自己而不是用戶構(gòu)建可解釋AI[66]。研究還表明,如果采用行為科學(xué)方法,側(cè)重于用戶而不是技術(shù),針對(duì)可解釋AI 的研究將更有效[64]。
今后HAII 領(lǐng)域的工作主要有以下幾方面。首先,研究和開發(fā)“以人為中心的可解釋AI”解決方案。HAII 領(lǐng)域要從人機(jī)交互、心理學(xué)、人因工程等方面來尋找解決方案。以往許多研究是基于靜態(tài)和單向信息傳達(dá)式的解釋,今后HAII 工作要研究探索式、自然式、交互式解釋來設(shè)計(jì)可解釋界面[67-68]。
第二,HAII 領(lǐng)域提倡可解釋AI 研究要進(jìn)一步挖掘心理學(xué)等模型。盡管這些理論和模型通常是基于實(shí)驗(yàn)室研究產(chǎn)生,可解釋AI 研究應(yīng)該善于利用這些模型,同時(shí)驗(yàn)證它們的可行性[68]。HAII的工作可以利用本身交叉學(xué)科的特點(diǎn)起到一個(gè)中間橋梁作用,加快理論轉(zhuǎn)換,構(gòu)建有效的界面或計(jì)算模型。
最后,HAII 領(lǐng)域要開展可理解AI 的研究和應(yīng)用。可解釋AI 也應(yīng)該是可理解的[68],可解釋性是必要條件,但不是充分條件。從HCAI 理念考慮,可理解AI 方案應(yīng)滿足終端用戶的需求(例如知識(shí)水平)。這方面的研究需要行為科學(xué)方法的支持以及實(shí)驗(yàn)驗(yàn)證[69]。
智能自主化技術(shù)正在走進(jìn)人們的工作和生活,但是已有人開始混淆自動(dòng)化與自主化的概念,這可能導(dǎo)致對(duì)技術(shù)不恰當(dāng)?shù)钠谕驼`用[10]。自動(dòng)化技術(shù)按照固定算法、邏輯和規(guī)則而產(chǎn)生確定的機(jī)器行為。智能系統(tǒng)會(huì)擁有不同程度的類似于人的智能(自適應(yīng)、自我執(zhí)行等能力),系統(tǒng)輸出具不確定性,有可能出現(xiàn)偏差的機(jī)器行為。AI 的自主化特征對(duì)安全和大眾心理等負(fù)面影響還沒有引起足夠的重視[70]。
從HCAI 理念出發(fā),我們提倡基于“人類可控AI”設(shè)計(jì)目標(biāo)的人類可控自主化設(shè)計(jì),即智能自主化系統(tǒng)需要人類的監(jiān)控,人類操作員具有最終的決控權(quán)(通過直接或遠(yuǎn)程操控等方式)[4]。
人因工程界已經(jīng)對(duì)一些復(fù)雜領(lǐng)域(航空、航天等)中的自動(dòng)化系統(tǒng)開展了廣泛的研究,已達(dá)成共識(shí)[71-72]。許多復(fù)雜自動(dòng)化系統(tǒng)存在脆弱性,在設(shè)計(jì)所規(guī)定的操作場(chǎng)景中運(yùn)行良好,但是在遇到意外事件時(shí),可能導(dǎo)致操作員的“自動(dòng)化驚訝”現(xiàn)象[71]:操作員無法理解自動(dòng)化正在做什么,為什么這樣做。
Endsley[70]認(rèn)為在智能自主化系統(tǒng)中,隨著系統(tǒng)自主化程度的提高,各單項(xiàng)功能的“自動(dòng)化”水平也相應(yīng)提高,這可能會(huì)導(dǎo)致操作員對(duì)這些功能的關(guān)注度降低,在應(yīng)急狀態(tài)下出現(xiàn)“人在環(huán)外”的現(xiàn)象。對(duì)近幾年發(fā)生的多起自動(dòng)駕駛車致命事故調(diào)查表明,界面模式混淆、“人在環(huán)外”、過度信任等問題正是以往自動(dòng)化系統(tǒng)中出現(xiàn)的典型問題[73-74]。
智能技術(shù)中潛在的自主操作性等特征也會(huì)造成人們對(duì)該技術(shù)產(chǎn)生類似于對(duì)自動(dòng)化的過度信任。具有學(xué)習(xí)能力的自主化系統(tǒng)意味著其操作結(jié)果的不確定性可能以意想不到的方式發(fā)展,有可能給操作員帶來比自動(dòng)化更強(qiáng)烈的“自動(dòng)化驚訝”體驗(yàn)。
今后HAII 領(lǐng)域的工作可從以下幾方面考慮:
首先,HAII 領(lǐng)域要針對(duì)一些自主化的基本問題展開研究。從人機(jī)交互角度充分理解AI 自主化特性對(duì)人機(jī)交互設(shè)計(jì)的影響,研究自主化對(duì)操作員期望、角色等的影響,研究自主化對(duì)操作員情緒應(yīng)激、認(rèn)知能力、人格特質(zhì)和溝通屬性的影響[75-76]。
其次,HAII 領(lǐng)域要在自主系統(tǒng)開發(fā)中實(shí)現(xiàn)HCAI 理念的“人類可控AI”設(shè)計(jì)目標(biāo)。目前,盡管人機(jī)交互等專業(yè)人員參與了自主化系統(tǒng)(如自動(dòng)駕駛汽車)的研發(fā),但是頻頻發(fā)生的事故提醒我們?cè)u(píng)估目前的方法[11]。SAE[77]認(rèn)為L(zhǎng)4-L5 等級(jí)的自動(dòng)駕駛車不需要人類監(jiān)控和干預(yù),我們質(zhì)疑SAE 忽略了自動(dòng)化和自主化之間的本質(zhì)差異[78],可能對(duì)設(shè)計(jì)、安全、標(biāo)準(zhǔn)化和認(rèn)證等產(chǎn)生不利影響。高等級(jí)自動(dòng)駕駛汽車是一個(gè)“移動(dòng)式”自主化系統(tǒng),不是傳統(tǒng)的自動(dòng)化系統(tǒng)?;贖CAI 理念,要從人-AI 合作、人機(jī)互信、態(tài)勢(shì)感知共享、自主化共享等角度探索自主化設(shè)計(jì),實(shí)現(xiàn)有效的人機(jī)共駕及交接[79],任何等級(jí)的自動(dòng)駕駛車都需要確保人是系統(tǒng)的最終決控者(包括遠(yuǎn)程控制方式)。
最后,實(shí)現(xiàn)針對(duì)自主化系統(tǒng)的“有意義的人類控制”(meaningful human control)設(shè)計(jì)目標(biāo)[40]。HAII 工作要落實(shí)該目標(biāo)的實(shí)現(xiàn):1)通過“人在環(huán)路”、人機(jī)交互設(shè)計(jì),保證應(yīng)急狀態(tài)下人類可接管或中斷系統(tǒng)運(yùn)行;2)在重要的自主化系統(tǒng)中安裝“故障追蹤系統(tǒng)”來實(shí)現(xiàn)設(shè)計(jì)改善和人機(jī)故障問責(zé)制[40],推動(dòng)HCAI 理念中“人類可控AI”設(shè)計(jì)目標(biāo)的實(shí)現(xiàn)。
智能化人機(jī)交互為HAII 領(lǐng)域帶來了挑戰(zhàn)和機(jī)遇。AI 系統(tǒng)豐富的應(yīng)用場(chǎng)景和用戶需求需要有效的人機(jī)交互范式[80]。現(xiàn)有人機(jī)交互方式(如WIMP)局限于有限的感知通道、交互帶寬不足、輸入/輸出帶寬不平衡、交互方式不自然等問題,已有研究提出了Post-WIMP 的范式[81],這些范式需要HAII 工作的驗(yàn)證。多模態(tài)融合及并行交互范式是今后HAII 的重要研究?jī)?nèi)容,這方面研究目前主要在AI、計(jì)算技術(shù)界展開,HAII 應(yīng)該提供跨學(xué)科支持。HAII 還要在情境感知、意圖理解等方面取得更大突破[81-83]。
人?AI 合作的新型人機(jī)關(guān)系對(duì)人機(jī)界面設(shè)計(jì)提出了新要求。傳統(tǒng)人機(jī)界面主要基于“刺激?反應(yīng)”理念的“指令順序”式交互,針對(duì)智能人機(jī)交互(情感、意圖識(shí)別、上下文檢測(cè)等)的多模態(tài)余度式交互,HAII 要設(shè)計(jì)有效的人機(jī)界面來支持人?AI 合作所需的情景意識(shí)分享、人機(jī)互信、人機(jī)控制分享等。
HAII 領(lǐng)域要開發(fā)針對(duì)AI 系統(tǒng)的人機(jī)交互設(shè)計(jì)標(biāo)準(zhǔn)。現(xiàn)有的標(biāo)準(zhǔn)主要是針對(duì)非AI 系統(tǒng),國(guó)際標(biāo)準(zhǔn)化組織正在起草人?AI 系統(tǒng)交互的設(shè)計(jì)標(biāo)準(zhǔn)(ISO 9241-810)[36],已有一些針對(duì)AI 系統(tǒng)的人機(jī)交互設(shè)計(jì)指南[16,64],但是還需要HAII 領(lǐng)域的貢獻(xiàn)。
HCAI 理念推崇的倫理化AI 設(shè)計(jì)目標(biāo)是AI 界目前普遍關(guān)心的重要問題。研究表明,AI 人員在職業(yè)培訓(xùn)中通常缺乏應(yīng)用倫理規(guī)范進(jìn)行設(shè)計(jì)的培訓(xùn),AI 界已經(jīng)認(rèn)識(shí)到倫理化AI 設(shè)計(jì)需要多學(xué)科的合作[84]。專業(yè)組織和企業(yè)已發(fā)布了多套AI倫理準(zhǔn)則,但是研究表明在AI 系統(tǒng)開發(fā)中如何有效落實(shí)這些規(guī)范有待進(jìn)一步努力,一些專業(yè)人員是在開發(fā)后期而不是過程中考慮倫理化設(shè)計(jì)[85]。因此,HAII 領(lǐng)域的一項(xiàng)重要工作是將倫理化AI設(shè)計(jì)落實(shí)在開發(fā)過程中。
首先,HAII 領(lǐng)域要開展針對(duì)AI 機(jī)器行為的研究。2019 年MIT 等大學(xué)的多名學(xué)者在《自然》上發(fā)文建議開展AI 機(jī)器行為的研究[9]。目前從事機(jī)器行為研究主要是AI 人員,沒有受過行為科學(xué)的訓(xùn)練。AI 機(jī)器行為的非確定性,需要從算法、數(shù)據(jù)、培訓(xùn)、測(cè)試等方面來研究影響因素,避免算法偏差。目前,已有基于HCAI 理念的機(jī)器行為研究,例如,“以人為中心的機(jī)器學(xué)習(xí)”、交互式機(jī)器學(xué)習(xí)等方法[22,66]。這些方法有助于在開發(fā)中解決AI 系統(tǒng)極端行為、公平性等問題。
第二,HAII 領(lǐng)域可采用跨學(xué)科的方法論來支持倫理化AI 設(shè)計(jì),將人機(jī)交互所倡導(dǎo)的迭代式設(shè)計(jì)和測(cè)評(píng)方法應(yīng)用在模型算法訓(xùn)練中,收集算法培訓(xùn)數(shù)據(jù),定義用戶預(yù)期結(jié)果并且轉(zhuǎn)化成有效的輸入數(shù)據(jù),利用早期原型開展用戶體驗(yàn)測(cè)評(píng),通過迭代式設(shè)計(jì)和測(cè)試來減小算法偏差[86]。
第三,采用“有意義的人類控制”方法將倫理化AI 落實(shí)在系統(tǒng)設(shè)計(jì)中[40,70]。系統(tǒng)設(shè)計(jì)要保證:1)操作員能夠?qū)λ褂玫淖灾骰夹g(shù)做出知情且有意識(shí)的決策;2)操作員有足夠的信息來確保采取合法的行動(dòng)。另外,在系統(tǒng)設(shè)計(jì)、測(cè)試、專業(yè)人員培訓(xùn)等方面采取措施來確保人類對(duì)系統(tǒng)的有效控制。“有意義的人類控制”與HCAI 理念一致,有利于在設(shè)計(jì)中實(shí)現(xiàn)倫理化AI 的目標(biāo)。
最后,HAII 領(lǐng)域要優(yōu)化AI 的開發(fā)實(shí)踐來支持倫理化AI 設(shè)計(jì)。研究表明,目前AI 界缺乏有效的倫理化AI 設(shè)計(jì)方法論、指導(dǎo)設(shè)計(jì)選項(xiàng)的技術(shù)細(xì)節(jié)或詳細(xì)示例[85]。HAII 領(lǐng)域可從“人在環(huán)路”AI、人-AI 合作等設(shè)計(jì)思路方面提供幫助。如何將倫理化AI 原則嵌入到開發(fā)流程、如何提高倫理化AI 準(zhǔn)則對(duì)AI 工程師行為的影響、如何提升AI 工程師的倫理化設(shè)計(jì)技能等方面的問題都需要HAII 的多學(xué)科方案。
作為一個(gè)新興領(lǐng)域,在實(shí)現(xiàn)HCAI 理念的實(shí)踐中,HAII 研究和應(yīng)用必定面對(duì)挑戰(zhàn)。
第一,AI 人員缺乏對(duì)HCAI 理念的理解。許多AI 人員在開發(fā)中基本按照“以技術(shù)為中心”的理念,一些人員認(rèn)為人機(jī)交互無法解決的問題目前已被AI 技術(shù)解決(如語音輸入),人機(jī)界面不必考慮用戶體驗(yàn);而人機(jī)交互等專業(yè)人員往往在AI 項(xiàng)目產(chǎn)品需求定義后才參與項(xiàng)目,限制了他們對(duì)AI 系統(tǒng)設(shè)計(jì)的影響,并且導(dǎo)致一些AI 項(xiàng)目的失敗[87-89]。
第二,AI 系統(tǒng)研發(fā)中缺乏有效的跨學(xué)科合作。AI 人員與非AI 人員之間缺乏有效的溝通語言,非AI 人士缺乏必要的AI 知識(shí),而AI 人士缺乏對(duì)其他學(xué)科的了解[90]。目前,已有研究提出了基于HCAI 理念的AI 與人機(jī)交互專業(yè)人員的“配對(duì)式AI 合作開發(fā)流程”[40]以及提升的人機(jī)交互方法[91]。
第三,跨學(xué)科合作缺乏有效的方法。一些人機(jī)交互人員在AI 系統(tǒng)開發(fā)中仍然采用傳統(tǒng)針對(duì)非AI 系統(tǒng)的方法;許多AI 人員不易接受其他學(xué)科的方法。目前,人們已經(jīng)提出了一些方法,例如,“AI 優(yōu)先”方法、“AI 作為設(shè)計(jì)材料”[37,39]。
為有效實(shí)現(xiàn)HCAI 理念和開展HAII 工作,從以下3 個(gè)層面提出建議,如圖3 所示。
圖3 有效實(shí)現(xiàn)HCAI 理念以及開展HAII 研究和應(yīng)用的“三層面”策略Fig.3 “3-layer” strategy for effectively implementing HCAI and carrying out HAII research and application
首先,在AI 研發(fā)團(tuán)隊(duì)層面,建立多學(xué)科團(tuán)隊(duì)和采用跨學(xué)科方法。AI 帶來的新問題只有采用多學(xué)科合作才能找到有效方案?;贖CAI 理念來優(yōu)化現(xiàn)有的AI 研發(fā)流程,例如,在開發(fā)初期制定HCAI 設(shè)計(jì)目標(biāo),優(yōu)化在各個(gè)開發(fā)流程節(jié)點(diǎn)上協(xié)同合作。
其次,在AI 研發(fā)企業(yè)組織層面,培育基于HCAI 理念的組織文化,制定基于HCAI 的開發(fā)標(biāo)準(zhǔn)指南,提供HCAI 研發(fā)資源(跨學(xué)科人力資源、HAII 項(xiàng)目、跨學(xué)科研究設(shè)備等),建立高效的AI 研發(fā)團(tuán)隊(duì)。
最后,在AI 研發(fā)社會(huì)層面,培養(yǎng)具備HCAI理念的跨學(xué)科復(fù)合型人才。例如,在高校開設(shè)“AI 主修+輔修”、“主修+AI 輔修”本科專業(yè),培養(yǎng)針對(duì)HAII 關(guān)鍵問題的碩博研究生;制定AI 發(fā)展策略、法規(guī)等;開展跨行業(yè)、跨學(xué)科攻關(guān)項(xiàng)目,提倡學(xué)術(shù)界和工業(yè)界之間的協(xié)作;設(shè)立政府專項(xiàng)基金來支持HAII 項(xiàng)目;建立完善的產(chǎn)學(xué)研相結(jié)合的科研體系,在一些關(guān)鍵行業(yè)開展HAII 研究和應(yīng)用。
1)當(dāng)前的智能時(shí)代呈現(xiàn)出“技術(shù)提升+應(yīng)用開發(fā)+以人為中心”的階段特征。擁有一定程度的學(xué)習(xí)、自適應(yīng)、獨(dú)立執(zhí)行等能力是智能技術(shù)的獨(dú)特自主化特征,賦予了機(jī)器在人機(jī)系統(tǒng)中新的角色,帶來了新型人機(jī)關(guān)系:人?AI 合作。與人?計(jì)算機(jī)交互相比,人?AI 交互帶來了許多新特征和新問題,給AI 系統(tǒng)研發(fā)帶來了新挑戰(zhàn),促使我們重新評(píng)估目前所采用的、基于非AI 系統(tǒng)的研發(fā)策略。
2)為有效解決AI 系統(tǒng)研發(fā)中的新挑戰(zhàn),本文闡述了HCAI 的理念,它強(qiáng)調(diào)三方面工作的有機(jī)結(jié)合。①“技術(shù)”:提倡AI 技術(shù)的發(fā)展策略應(yīng)該注重人類與機(jī)器智能的優(yōu)勢(shì)互補(bǔ),將人的作用引入AI 系統(tǒng)中,從而產(chǎn)生更強(qiáng)大、可持續(xù)發(fā)展的人機(jī)混合增強(qiáng)智能。AI 的目的是提升人的能力,不是取代人。②“人”:強(qiáng)調(diào)從人的需求出發(fā),為人類提供有用、可用、人類擁有最終決控權(quán)的AI 系統(tǒng)。③“倫理”:從人類倫理出發(fā),AI 系統(tǒng)研發(fā)要避免產(chǎn)生倫理道德等問題,目的是開發(fā)出倫理化、負(fù)責(zé)任的AI。
3)為實(shí)現(xiàn)HCAI 理念在AI 研發(fā)中的落實(shí),本文系統(tǒng)提出HAII 這一跨學(xué)科新領(lǐng)域。HAII 領(lǐng)域可以為各學(xué)科提供一個(gè)有效的合作平臺(tái),注重AI 技術(shù)的新挑戰(zhàn)和新問題,有助于推動(dòng)HCAI 理念在AI 研發(fā)中的落實(shí),開發(fā)出安全、可靠、可信賴的AI 系統(tǒng)。
4) 針對(duì)AI 帶來的新問題,我們提出今后HAII 研究和應(yīng)用的重點(diǎn)方向,它們包括人類智能增強(qiáng)技術(shù)、人機(jī)混合增強(qiáng)智能、人?AI 合作、可解釋AI、人類可控自主化、智能人機(jī)交互、倫理化AI 設(shè)計(jì)。
5)針對(duì)今后HAII 實(shí)踐面對(duì)的挑戰(zhàn),從研發(fā)團(tuán)隊(duì)、研發(fā)組織、研發(fā)社會(huì)環(huán)境3 個(gè)層面上,我們建議:設(shè)立多學(xué)科研發(fā)團(tuán)隊(duì),采用跨學(xué)科方法,優(yōu)化現(xiàn)有AI 研發(fā)流程;培育HCAI 理念的組織文化,開發(fā)HCAI 標(biāo)準(zhǔn)指南和研發(fā)資源;培養(yǎng)跨學(xué)科復(fù)合型AI 人才,政府出臺(tái)相關(guān)政策和法規(guī),積極開展跨學(xué)科、跨行業(yè)以及關(guān)鍵行業(yè)領(lǐng)域的HAII 研究和應(yīng)用。我們展望只要各學(xué)科和各行業(yè)一起努力,一個(gè)基于“以人為中心AI”理念的智能社會(huì)時(shí)代將會(huì)到來。