鈕建偉,安月琪,李晗,高煒峰,焉正權(quán),董銘宇
軍事領(lǐng)域中的人機(jī)協(xié)作研究綜述
鈕建偉,安月琪,李晗,高煒峰,焉正權(quán),董銘宇
(北京科技大學(xué) 機(jī)械工程學(xué)院,北京 100083)
對(duì)軍事領(lǐng)域中人機(jī)協(xié)作的應(yīng)用現(xiàn)狀和理論現(xiàn)狀進(jìn)行歸納與分析,指出未來的發(fā)展趨勢(shì),旨在為人機(jī)協(xié)作軍事系統(tǒng)的技術(shù)發(fā)展和設(shè)計(jì)研究提供理論方向。以無人機(jī)系統(tǒng)、無人車系統(tǒng)、無人艇系統(tǒng)的實(shí)際應(yīng)用場(chǎng)景為代表,分析人機(jī)協(xié)作的軍事應(yīng)用現(xiàn)狀;剖析軍事背景下國內(nèi)外人機(jī)協(xié)作任務(wù)分配、人機(jī)交互方式、人機(jī)交互界面設(shè)計(jì)、人機(jī)協(xié)作效能評(píng)估的研究進(jìn)展;綜合前人的研究現(xiàn)狀對(duì)未來的研究發(fā)展趨勢(shì)進(jìn)行總結(jié)。根據(jù)國內(nèi)外研究的現(xiàn)狀、熱點(diǎn)與趨勢(shì)可知,人機(jī)協(xié)作的任務(wù)分配需綜合考慮人員行為和任務(wù)時(shí)序等因素,以提高人機(jī)協(xié)作效率,探尋更優(yōu)的分配模式;多模態(tài)智能交互將成為未來人與無人集群交互的主流形態(tài),多通道結(jié)合的信息交流將改變操作員與指控系統(tǒng)互動(dòng)的方式,實(shí)現(xiàn)人與無人集群的高效交互;態(tài)勢(shì)認(rèn)知是未來智能戰(zhàn)場(chǎng)面臨的挑戰(zhàn),人機(jī)協(xié)作為智能態(tài)勢(shì)認(rèn)知領(lǐng)域的研究奠定了基礎(chǔ)。
軍事;人機(jī)協(xié)作;人機(jī)協(xié)同
隨著戰(zhàn)場(chǎng)信息化趨勢(shì)的發(fā)展,現(xiàn)代化戰(zhàn)場(chǎng)的整體規(guī)模不斷擴(kuò)大,戰(zhàn)場(chǎng)要素也愈加復(fù)雜,涉及多目標(biāo)任務(wù)和多資源的體系化作戰(zhàn)成為了主要的戰(zhàn)爭(zhēng)形態(tài)。人機(jī)協(xié)作是指發(fā)生在人和自動(dòng)化之間的協(xié)同交互,通常被稱作Human-Agent Teaming或者Human-Automation Collaboration[1]。在軍事層面,龐大的有人/無人協(xié)同系統(tǒng)會(huì)參與到信息化戰(zhàn)場(chǎng)的協(xié)同作業(yè)中,復(fù)雜的操作任務(wù)和作戰(zhàn)資源需要作戰(zhàn)體系具備規(guī)劃任務(wù)和自主完成目標(biāo)的能力[2]。因此,在復(fù)雜多變的戰(zhàn)場(chǎng)環(huán)境下,自主規(guī)劃系統(tǒng)及監(jiān)督指揮人員的協(xié)同作業(yè)顯得至關(guān)重要[3]。人機(jī)協(xié)同作戰(zhàn)一直是軍事領(lǐng)域的研究熱點(diǎn),是指將無人系統(tǒng)與有人系統(tǒng)進(jìn)行有機(jī)融合,基于共享任務(wù)或信息的形式完成共同目標(biāo),這是智能化戰(zhàn)爭(zhēng)中具有代表性的作戰(zhàn)方式之一[4]?;趯?duì)相關(guān)領(lǐng)域的研究及應(yīng)用資料的調(diào)查,美軍于2003年的伊拉克戰(zhàn)爭(zhēng)中首次實(shí)現(xiàn)了有人/無人機(jī)協(xié)同作戰(zhàn),通過有人機(jī)指揮“MQ-1捕食者”無人機(jī)發(fā)射導(dǎo)彈,實(shí)現(xiàn)作戰(zhàn)目標(biāo)物的發(fā)射打擊任務(wù)[5]。當(dāng)前,國內(nèi)外對(duì)無人機(jī)領(lǐng)域的人機(jī)協(xié)作應(yīng)用研究愈加廣泛。為實(shí)現(xiàn)資源的最大化利用,通常采用單一操作員監(jiān)督多個(gè)無人機(jī)的作戰(zhàn)模式,但這種方式往往會(huì)增加人機(jī)系統(tǒng)的總體操作負(fù)荷[6]。例如,美國在2018年的“拒止環(huán)境下無人機(jī)協(xié)同作戰(zhàn)CODE”項(xiàng)目中采用單一操作員控制多架無人機(jī)的模式,執(zhí)行偵察、打擊等作戰(zhàn)任務(wù)[7]。隨著未來作戰(zhàn)化的趨勢(shì)向協(xié)同一體化的方向發(fā)展,在操作者層面和武器平臺(tái)層面,實(shí)現(xiàn)資源的合理利用及充分配置是人機(jī)協(xié)同作業(yè)的重要目標(biāo)。
隨著人工智能、大數(shù)據(jù)等技術(shù)的發(fā)展,智能計(jì)算等高新技術(shù)廣泛應(yīng)用于軍事領(lǐng)域中的指揮控制系統(tǒng)、無人作戰(zhàn)系統(tǒng)及輔助決策系統(tǒng)等自動(dòng)化系統(tǒng)[8]。上述系統(tǒng)注重人工智能技術(shù)的應(yīng)用,突破了戰(zhàn)場(chǎng)環(huán)境下人類生理疲勞等方面的限制,通過與人類合作來執(zhí)行作戰(zhàn)任務(wù),形成人機(jī)協(xié)同作戰(zhàn)系統(tǒng)。人機(jī)協(xié)同作戰(zhàn)主要有以下三種類型:第一種是智能化無人系統(tǒng)指引有人系統(tǒng)實(shí)施作戰(zhàn);第二種是智能化無人系統(tǒng)輔助有人系統(tǒng)實(shí)施作戰(zhàn);第三種是智能化無人系統(tǒng)掩護(hù)有人系統(tǒng)實(shí)施作戰(zhàn)[4]。在人機(jī)協(xié)作系統(tǒng)中,智能系統(tǒng)運(yùn)行速度快,適用于執(zhí)行規(guī)范化的繁雜任務(wù),而人擔(dān)任監(jiān)督規(guī)劃的角色,通常在指定或突發(fā)階段,與智能系統(tǒng)聯(lián)合完成協(xié)同作業(yè)[3]。然而,值得注意的是,雖然當(dāng)前的自動(dòng)化系統(tǒng)能夠在一定程度上實(shí)現(xiàn)智能化任務(wù),但是在態(tài)勢(shì)感知及知識(shí)理解等方面仍存在固化思維,難以完全替代人類[9]。例如,在指揮控制系統(tǒng)中,人類可以發(fā)揮態(tài)勢(shì)感知的能力優(yōu)勢(shì),分析敵方的作戰(zhàn)意圖,合理地分配作戰(zhàn)任務(wù)。而自動(dòng)化系統(tǒng)主要是程序化的定量感知,對(duì)動(dòng)態(tài)的戰(zhàn)場(chǎng)環(huán)境感知的靈活度較低[10]。總體來說,智能化作戰(zhàn)系統(tǒng)距離全自主性仍有較大差距,需要和操作人員聯(lián)合完成作戰(zhàn)任務(wù)。
綜上所述,人和智能系統(tǒng)相互配合、執(zhí)行任務(wù),可以發(fā)揮各自的優(yōu)勢(shì),提高作戰(zhàn)效率。人機(jī)協(xié)作過程涉及任務(wù)分配、人機(jī)交互、效能評(píng)估等諸多方面,只有實(shí)現(xiàn)各層面的高效融合和技術(shù)突破,才能達(dá)到理想的協(xié)同作戰(zhàn)效果。然而,在動(dòng)態(tài)、大規(guī)模的作戰(zhàn)環(huán)境下,受限于智能技術(shù)的發(fā)展程度及未知的戰(zhàn)場(chǎng)態(tài)勢(shì)等因素,人機(jī)協(xié)同技術(shù)仍處于探索階段,有許多工程技術(shù)方面的難題需要解決,比如如何實(shí)現(xiàn)合理的協(xié)同任務(wù)分配、如何實(shí)現(xiàn)靈活的人機(jī)交互等問題。因此,現(xiàn)階段的研究重點(diǎn)是探究如何將人的經(jīng)驗(yàn)知識(shí)與機(jī)器智能高效融合,最大化地發(fā)揮人機(jī)協(xié)同作戰(zhàn)系統(tǒng)的效能。
隨著頂尖科學(xué)技術(shù)在軍事領(lǐng)域的加速應(yīng)用,智能無人系統(tǒng)已成為現(xiàn)代戰(zhàn)爭(zhēng)的重要組成部分,世界各大軍事強(qiáng)國高度重視智能無人系統(tǒng)技術(shù)在軍事領(lǐng)域的應(yīng)用。根據(jù)智能無人系統(tǒng)作用的空間范圍,可以劃分為無人機(jī)系統(tǒng)、無人車系統(tǒng)和無人艇系統(tǒng)[11]。
無人機(jī)系統(tǒng)(UAS)由無人機(jī)(UAV)、地面控制站、數(shù)據(jù)鏈和回收與發(fā)射系統(tǒng)組成。無人機(jī)是自主制導(dǎo)、遠(yuǎn)程控制的軍用飛機(jī),它攜帶傳感器、目標(biāo)指示器、進(jìn)攻性彈藥和電子發(fā)射器。無人機(jī)不受機(jī)組人員、生命支持系統(tǒng)和有人駕駛飛機(jī)的設(shè)計(jì)安全要求的影響,可以提供比同等有人駕駛系統(tǒng)更長(zhǎng)的航程和續(xù)航時(shí)間。
1916年,皇家飛行隊(duì)的拉斯頓普洛克特制定了空中目標(biāo)擊毀計(jì)劃,他們的概念是研制一種非常簡(jiǎn)單的小型飛機(jī),在飛機(jī)上裝滿炸藥,然后引導(dǎo)它飛向指定的目標(biāo)[12]。1916年9月12日,休伊特-斯佩里公司自動(dòng)飛機(jī)進(jìn)行了首次飛行[13]。這兩種飛機(jī)被認(rèn)為是今天無人機(jī)的起源。在第二次世界大戰(zhàn)中,美國陸軍、空軍和海軍提出了更多無人機(jī)魚雷概念?;谕瑯拥臒o線電控制原理,許多飛機(jī)被改裝成飛行炸彈,其中包括PQ-8、PQ-14、B-17和B-24。冷戰(zhàn)期間,軍事學(xué)家發(fā)現(xiàn),似乎用無人駕駛飛行器收集信息更安全、更高效。1946年,為了收集核試驗(yàn)數(shù)據(jù),幾架B-17被改裝成無人機(jī)[14]。隨著技術(shù)的改進(jìn),其他偵查無人機(jī)也出現(xiàn)在世界舞臺(tái)上:Boeing YQM- 94 B-Gull(見圖1)、D-21無人偵察機(jī)(見圖2)。
目前,無人機(jī)在軍事領(lǐng)域主要執(zhí)行偵察和攻擊任務(wù)。以MQ-9死神無人機(jī)為例,如圖3所示,MQ-9“死神”無人機(jī)的主要目的是發(fā)現(xiàn)、跟蹤、摧毀陸地和海上目標(biāo)。這種無人戰(zhàn)斗飛行器的翼展可達(dá)20 m,長(zhǎng)度為11 m。最大起飛質(zhì)量為4 763 kg,對(duì)外可承載1 361 kg。在起落架上,機(jī)身內(nèi)部裝載量為386 kg。驅(qū)動(dòng)使用了霍尼韋爾TPE331-10渦輪螺旋槳單元,使這款飛行器的最大速度達(dá)到445 km/h,在空中可續(xù)航36 h,高度上限為15 240 m[15]。
圖1 波音YQM-94 B型海鷗
圖2 D-21無人偵察機(jī)
圖3 MQ-9死神無人機(jī)
由于人的精力有限,做不到精準(zhǔn)控制無人機(jī),因此,人與無人機(jī)的協(xié)作方式,可以分為兩種,人通過遙控器控制無人機(jī)飛行(見圖4),以及無人機(jī)自主飛行(見圖5),這兩者之間的本質(zhì)區(qū)別在于人是否在工作環(huán)中。由此也引發(fā)出了無人機(jī)的三種工作模式:自主(自動(dòng))模態(tài)、人工干預(yù)模態(tài)和人工操縱模態(tài),這3種模態(tài)的使用是由人(操作員)設(shè)置與選擇的。人可以通過制定規(guī)則和策略管控?zé)o人機(jī),無人機(jī)按規(guī)則和策略自主生成控制指令控制飛機(jī)的飛行;當(dāng)無人機(jī)在飛行過程中出現(xiàn)與人的設(shè)想不一致的結(jié)果時(shí),人可以進(jìn)行適當(dāng)?shù)母深A(yù);若飛行出現(xiàn)應(yīng)急情況且干預(yù)無效時(shí),人可以直接操控飛機(jī)[16]。
圖4 人遙控?zé)o人機(jī)
圖5 無人機(jī)自主控制
MQ-9“死神”無人機(jī)配備了現(xiàn)代化管理系統(tǒng)和自動(dòng)駕駛儀,如圖6所示。在整個(gè)任務(wù)過程中,飛機(jī)可以在沒有飛行員的情況下完全自主操作,因此可以在沒有人類飛行員干預(yù)控制的情況下起飛、飛到任務(wù)目標(biāo)、返回和安全著陸。這樣的管理需要對(duì)飛機(jī)的整個(gè)任務(wù)進(jìn)行仔細(xì)的編程,以便能夠完全自主飛行。而操作員可以在任何時(shí)候介入控制并取得控制。在自主模式下,飛機(jī)從地面控制站接收命令信號(hào)。為了實(shí)現(xiàn)對(duì)飛機(jī)更加全面的控制和管理,在大多數(shù)情況下都需要使用衛(wèi)星通信系統(tǒng)。
圖6 MQ-9死神無人機(jī)控制面板
在現(xiàn)代化戰(zhàn)爭(zhēng)中,有一個(gè)明顯的特點(diǎn)就是無人機(jī)的大量使用。2020年3月,在伊德利卜和土耳其的春季盾牌行動(dòng)中,土耳其武裝部隊(duì)大規(guī)模使用了無人系統(tǒng),包括作戰(zhàn)任務(wù)和其他作戰(zhàn)手段,比如火炮合作,極大地提高了土耳其武裝部隊(duì)的活動(dòng)效率。在納戈?duì)栔Z-卡拉巴赫地區(qū)控制權(quán)的戰(zhàn)斗中,阿塞拜疆使用武裝無人機(jī)獲得了對(duì)亞美尼亞的重大優(yōu)勢(shì)[17]。據(jù)報(bào)道,2021年以色列國防軍使用無人機(jī)向被占領(lǐng)的約旦河西岸的抗議者投擲催淚瓦斯,而哈馬斯則向以色列發(fā)射了所謂的“神風(fēng)”無人機(jī)[18]。2022年俄烏戰(zhàn)爭(zhēng)爆發(fā),俄軍先后使用察打一體無人機(jī)對(duì)烏克蘭武裝據(jù)點(diǎn)、指揮所等高價(jià)值軍事目標(biāo)實(shí)施打擊,獲得了較好的效果,而烏克蘭在沖突爆發(fā)伊始就將無人機(jī)作為空襲作戰(zhàn)的主力,主要依靠“旗手”TB2察打一體無人機(jī)較低的雷達(dá)探測(cè)性實(shí)施低空突防,在俄軍野戰(zhàn)防空系統(tǒng)攔截距離外發(fā)射精確制導(dǎo)彈藥,對(duì)俄軍燃油車、地面輸油裝置、彈藥補(bǔ)給車等后勤保障節(jié)點(diǎn)實(shí)施打擊,從而減緩其進(jìn)攻節(jié)奏。
無人車(UGV)也被稱為自主控制機(jī)器人,是一種與地面接觸、在無人駕駛的情況下運(yùn)行的車輛,在軍事領(lǐng)域發(fā)揮著重要作用。無人車可以更有效地打擊恐怖主義和遠(yuǎn)程作戰(zhàn),無人車在戰(zhàn)場(chǎng)上可以提高士兵的存活率。無人車可以分為輕型機(jī)器人戰(zhàn)斗車輛(RCV-L)、中型機(jī)器人作戰(zhàn)車輛(RCV-M)和重型機(jī)器人作戰(zhàn)車輛(RCV-H),其中,輕型機(jī)器人戰(zhàn)斗車輛在步兵和工兵之間運(yùn)行,攜帶補(bǔ)給品和重型武器,主要用于運(yùn)輸和偵查,而中型機(jī)器人作戰(zhàn)車輛(RCV-M)和重型機(jī)器人作戰(zhàn)車輛(RCV-H)會(huì)與主戰(zhàn)坦克和步兵戰(zhàn)車并肩作戰(zhàn)[19]。
輕型機(jī)器人戰(zhàn)斗車輛如圖7所示,是一種專門制造的緊湊型柴電混合動(dòng)力無人地面戰(zhàn)車,該車輛質(zhì)量為3 855.53 kg,最高時(shí)速為64.37 km/h,載重量為3 175.14 kg,由混合動(dòng)力發(fā)電機(jī)驅(qū)動(dòng),該發(fā)電機(jī)由高壓電池供電,有助于實(shí)現(xiàn)靜音監(jiān)視和類似隱身的功能[20]。戰(zhàn)車配備了25 mm主炮的遙控炮塔、高分辨率360°態(tài)勢(shì)感知攝像機(jī)、傳感器和導(dǎo)航設(shè)備,還可以安裝無人機(jī)系統(tǒng),這是一種小型無人機(jī)系統(tǒng),可以在車輛保持安全距離的同時(shí)進(jìn)行。在武器方面,可裝備50口徑機(jī)槍或MK19手榴彈機(jī)槍和一枚標(biāo)槍導(dǎo)彈。
圖7 輕型機(jī)器人戰(zhàn)斗車輛
中型機(jī)器人作戰(zhàn)車輛(RCV-M)如圖8所示,是專為戰(zhàn)斗設(shè)計(jì)的軍用機(jī)器人。它是一種快速、敏捷的機(jī)器人,可用于執(zhí)行各種任務(wù),包括偵察、戰(zhàn)斗支持和后勤。它被稱為“戰(zhàn)爭(zhēng)的未來”,將永遠(yuǎn)改變戰(zhàn)爭(zhēng)的面貌[21]。這款無人駕駛車輛配備了各種傳感器、攝像頭和裝甲,可以保護(hù)其免受輕武器火力和火箭彈的傷害。還配備了一個(gè)導(dǎo)彈發(fā)射器、一挺30 mm機(jī)槍和無人機(jī),使其具備一定的摧毀目標(biāo)的能力。2021年,美國陸軍進(jìn)行了首次RCV-M實(shí)彈測(cè)試,開始使用XM813主炮和M240機(jī)槍進(jìn)行實(shí)彈測(cè)試[22]。
重型機(jī)器人作戰(zhàn)車輛(RCV-H)如圖9所示,具有更加實(shí)際的利益,因?yàn)檫@種級(jí)別的無人地面車輛可以在戰(zhàn)場(chǎng)上提供真正的戰(zhàn)術(shù)優(yōu)勢(shì),與輕型UGV相比,其有足夠的火力進(jìn)行激烈的戰(zhàn)斗,并能攜帶更大載荷的物資[23]。RCV-H是三類無人車中體型最大、性能最強(qiáng)大的,可能會(huì)配備裝甲以抵御機(jī)槍火力和火炮彈片。它可以安裝鏈炮和更重的反坦克導(dǎo)彈,例如即將推出的聯(lián)合空對(duì)地導(dǎo)彈(JAGM)。RCV-H最常與M1艾布拉姆斯主戰(zhàn)坦克和M2布拉德利步兵戰(zhàn)車并肩作戰(zhàn)。
圖8 中型機(jī)器人戰(zhàn)斗車輛
圖9 重型機(jī)器人戰(zhàn)斗車輛
2017年,美國陸軍提出了《機(jī)器人與自主系統(tǒng)(RAS)戰(zhàn)略》,為開展無人作戰(zhàn)能力建設(shè)提供了頂層規(guī)劃[11]。制定RAS戰(zhàn)略的主要目的是提高陸軍與無人車之間的協(xié)作能力,其目標(biāo)可以分為五點(diǎn):第一,增強(qiáng)態(tài)勢(shì)感知,借助無人車可以到達(dá)有人系統(tǒng)無法到達(dá)的地方,從而增加了防區(qū)外距離、生存能力和指揮官反應(yīng)時(shí)間;第二,減輕士兵負(fù)荷,自主系統(tǒng)減輕了裝備負(fù)荷,可以有效提高士兵的機(jī)動(dòng)性和耐力,與此同時(shí),RAS通過收集、組織和處理數(shù)據(jù)來促進(jìn)決策制定并提升作戰(zhàn)機(jī)動(dòng)性;第三,提高運(yùn)輸能力,無人駕駛車輛可以將物資運(yùn)送到最緊迫的需求點(diǎn),為作戰(zhàn)人員提供后勤保障;第四,提高部隊(duì)機(jī)動(dòng)性,陸軍使用RAS可以擴(kuò)大作戰(zhàn)區(qū)域的覆蓋范圍,并對(duì)敵人的行動(dòng)作出反應(yīng),擴(kuò)大了陸軍作戰(zhàn)時(shí)間和空間;第五,保護(hù)士兵,RAS可以通過收集到的信息,計(jì)算出安全區(qū)域,在行動(dòng)期間,可以將更少的士兵置于危險(xiǎn)之中來提高士兵的生存能力[24]。
水面無人艇(USV),是一種無人操作的水面艦艇,主要用于執(zhí)行危險(xiǎn)以及不適于有人船只執(zhí)行的任務(wù),配備先進(jìn)的控制系統(tǒng)、傳感器系統(tǒng)、通信系統(tǒng)和武器系統(tǒng),可以執(zhí)行多種戰(zhàn)爭(zhēng)和非戰(zhàn)爭(zhēng)軍事任務(wù)。水面無人艇的發(fā)展相對(duì)其他無人系統(tǒng)平臺(tái)來說較為滯后,但自主程度在不斷提高,全自主型無人艇的實(shí)現(xiàn)還處于研究探索階段,主要是因?yàn)橐恍╆P(guān)鍵技術(shù)尚需進(jìn)一步提高,如智能優(yōu)化技術(shù)、路徑規(guī)劃技術(shù)等。無人艇的出現(xiàn),使人員免于現(xiàn)場(chǎng)操作,而由無人系統(tǒng)去執(zhí)行各種危險(xiǎn)任務(wù)(如掃雷、海盜監(jiān)視和深??睖y(cè))。因此,這些系統(tǒng)確實(shí)可以挽救生命。
以海上獵手(Sea Hunter)為例,如圖10所示,是一種自主無人水面航行器(USV),于2016年作為DARPA反潛戰(zhàn)連續(xù)跟蹤無人船計(jì)劃的一部分推出。它是一種雙螺桿無人駕駛自航船,由兩臺(tái)柴油發(fā)動(dòng)機(jī)提供動(dòng)力,最高時(shí)速為50 km/h,質(zhì)量為135 t,包括40 t燃料,足以進(jìn)行70天的航行[25]。
現(xiàn)有的USV有不同程度的自主權(quán)。在最基本的層面上,USV是手動(dòng)控制的,由操作員連續(xù)輸入。由于USV能夠自主執(zhí)行基本的導(dǎo)航和碰撞躲避,因此,一個(gè)操作員可以同時(shí)控制多個(gè)USV。經(jīng)過計(jì)算,將路徑點(diǎn)分配給每輛無人艇,而操作員監(jiān)視任務(wù)結(jié)果,并在需要時(shí)進(jìn)行交互,操作員只在任務(wù)級(jí)別上工作[26]。通常來說,人類對(duì)無人艇的控制框架可以劃分為三層。第一層是遠(yuǎn)程操作層,它將人類操作員的命令傳遞給USV。第二層是自主任務(wù)層,以碰撞物躲避任務(wù)為例,人類往往不會(huì)參與決策,由無人艇自主完成,因此,無人艇需要一些特定的算法去生成指令。第三層是任務(wù)分配層,將任務(wù)拆解成具體指令,由無人艇執(zhí)行操作[27]。
2022年10月29日,在俄羅斯入侵烏克蘭期間,烏克蘭武裝部隊(duì)對(duì)塞瓦斯托波爾海軍基地的俄羅斯海軍艦艇進(jìn)行了多艘USV攻擊。俄羅斯國防部稱,在八架無人機(jī)的支持下,七艘無人水面艇參與了這次襲擊。這是無人水面艦艇首次在海戰(zhàn)中使用。新聞報(bào)道稱,被小型USV擊中的兩艘軍艦、一艘俄羅斯護(hù)衛(wèi)艦和一艘掃雷艦都沒有受到損壞。然而,此次軍事行動(dòng)并非真的毫無影響,它使俄羅斯海軍進(jìn)入保護(hù)模式[28]。
近年來,在人和軍事系統(tǒng)協(xié)作的相關(guān)研究領(lǐng)域,國內(nèi)外學(xué)者從理論研究視角出發(fā),對(duì)人機(jī)協(xié)作問題進(jìn)行了多角度的深入探索和剖析。本文通過查閱有關(guān)領(lǐng)域的參考文獻(xiàn),歸納總結(jié)出軍事領(lǐng)域人機(jī)協(xié)作的主要研究方向,主要包括人機(jī)協(xié)作任務(wù)分配、人機(jī)交互方式、人機(jī)交互界面設(shè)計(jì)、人機(jī)協(xié)作效能評(píng)估四方面的研究?jī)?nèi)容,如圖11所示。
隨著信息技術(shù)及智能技術(shù)的發(fā)展,人機(jī)協(xié)作任務(wù)顯著增長(zhǎng)并愈加復(fù)雜,人機(jī)任務(wù)分配成為了人機(jī)交互領(lǐng)域的重要研究?jī)?nèi)容。在軍事領(lǐng)域中,人和智能機(jī)器需要相互配合、共同完成復(fù)雜的作戰(zhàn)任務(wù)。在人機(jī)協(xié)同完成任務(wù)時(shí),通常將復(fù)雜任務(wù)拆分成子任務(wù),將各個(gè)子任務(wù)劃分給人和機(jī)器,并確定子任務(wù)執(zhí)行的優(yōu)先級(jí)[10]。由于軍事指揮系統(tǒng)等各類人機(jī)協(xié)同系統(tǒng)具有復(fù)雜性,人的認(rèn)知負(fù)荷、人和機(jī)器的組合方式等都會(huì)對(duì)任務(wù)完成度和完成時(shí)間產(chǎn)生影響[10]。為了實(shí)現(xiàn)協(xié)作任務(wù)的最優(yōu)分配方式,使人機(jī)協(xié)同系統(tǒng)達(dá)到最優(yōu)協(xié)作效能,首先需要從人和機(jī)器的角度,分析兩者的工作特點(diǎn)及適合的任務(wù)種類。
由表1可以看出,人和機(jī)器在可靠性、可持續(xù)性、靈活性、感知能力、準(zhǔn)確性等方面均有不同之處,人和機(jī)器的工作特點(diǎn)直接影響了任務(wù)分配方式。通過對(duì)人和機(jī)器的工作特點(diǎn)進(jìn)行對(duì)比,結(jié)合機(jī)器的穩(wěn)定性和可持續(xù)性,以及操作者的認(rèn)知能力和靈活性,歸納出人和機(jī)器分別適合的任務(wù)種類,以發(fā)揮人和機(jī)器的最大操作優(yōu)勢(shì),結(jié)果如表2所示。
表1 人機(jī)工作特點(diǎn)對(duì)比[10]
Tab.1 Comparison of working characteristics between human and machine[10]
表2 人和機(jī)器適合的任務(wù)種類[10]
Tab.2 Types of tasks applicable to human and machine[10]
近年來,國內(nèi)外研究者通過分析人機(jī)協(xié)作系統(tǒng)中人和智能機(jī)器的功能特點(diǎn),依據(jù)分配原則或數(shù)學(xué)模型將系統(tǒng)中的協(xié)作任務(wù)合理地分配給人和智能機(jī)器,進(jìn)而準(zhǔn)確劃分人和機(jī)器的分工。人機(jī)協(xié)作任務(wù)分配領(lǐng)域的代表性研究進(jìn)展見圖12。
圖12 人機(jī)協(xié)作任務(wù)分配領(lǐng)域的代表性研究進(jìn)展[29-30,32,34]
國外部分學(xué)者依據(jù)自動(dòng)化控制程度設(shè)計(jì)了人機(jī)協(xié)作任務(wù)分配模式,并在無人機(jī)等軍事系統(tǒng)中進(jìn)行了應(yīng)用和評(píng)估。Bevacqua等[29]構(gòu)建了應(yīng)用于搜救任務(wù)場(chǎng)景的人和多無人機(jī)協(xié)作系統(tǒng),并設(shè)置了手動(dòng)控制、混合主動(dòng)和完全自主控制模式對(duì)系統(tǒng)性能進(jìn)行評(píng)估,多機(jī)器人和單機(jī)器人監(jiān)控系統(tǒng)見圖12a。Schmitt等[30]針對(duì)飛行員的狀態(tài)變化,建立了規(guī)范策略模型,將多車輛規(guī)劃任務(wù)交付給自動(dòng)化系統(tǒng),并在軍事駕駛團(tuán)隊(duì)中進(jìn)行了應(yīng)用驗(yàn)證,規(guī)劃策略模型的結(jié)構(gòu)見圖12b。Idris等[31]應(yīng)用Petri網(wǎng)對(duì)飛行員和駕駛艙的分離保證功能進(jìn)行了任務(wù)分析,基于各功能的三個(gè)行為級(jí)別:技能、規(guī)則和知識(shí)水平,將其劃分為相應(yīng)的自動(dòng)化等級(jí)。Wang等[32]在多無人機(jī)監(jiān)督系統(tǒng)中,設(shè)計(jì)了自主、跟隨和混合主動(dòng)行動(dòng)選擇三種人機(jī)協(xié)作模式,實(shí)驗(yàn)結(jié)果表明混合主動(dòng)行動(dòng)選擇模式優(yōu)于其他兩種模式,人- 無人機(jī)協(xié)同任務(wù)環(huán)境見圖12d。
除此之外,一些學(xué)者還綜合考慮了人的認(rèn)知狀態(tài)等因素,驗(yàn)證了分配方式對(duì)操作者態(tài)勢(shì)感知及任務(wù)執(zhí)行效率的影響。Hogenboom等[33]提出了船舶動(dòng)態(tài)定位系統(tǒng)的功能分配模型,分析了當(dāng)前控制功能的分配方式及其對(duì)操作員態(tài)勢(shì)感知的影響,最后針對(duì)控制功能分配提出了相關(guān)建議。Zhao等[34]提出了一種認(rèn)知模型,該模型使用情境模糊認(rèn)知圖并根據(jù)任務(wù)特性和人的認(rèn)知狀態(tài)來動(dòng)態(tài)調(diào)整人和無人機(jī)的自主水平,結(jié)果表明該模型能夠提高操作者的工作效率,適應(yīng)性學(xué)習(xí)的認(rèn)知模型見圖12c。
在國內(nèi),一些學(xué)者對(duì)無人機(jī)、艦艇等軍事系統(tǒng)的任務(wù)進(jìn)行了分析,實(shí)現(xiàn)了人機(jī)功能的動(dòng)態(tài)分配。崔波等[35]基于人機(jī)交互的Agent思想,提出了自適應(yīng)人機(jī)功能分配機(jī)制,并對(duì)無人機(jī)地面站進(jìn)行了應(yīng)用探索。汪匯川等[36]構(gòu)建了基于FAHP法的人機(jī)功能分配模型,分析了艦艇模擬系統(tǒng)中人和機(jī)各自適合的任務(wù)范圍,成功提升了模擬訓(xùn)練效果。李珍等[37]結(jié)合操作者和飛機(jī)的交互信息及認(rèn)知-感知特性,提出了人機(jī)功能權(quán)衡分配模型,有效地提高了作戰(zhàn)環(huán)境下的人機(jī)協(xié)作效率。付亞芝等[38]采用模糊聚類算法,提出了基于非合作博弈理論的人機(jī)功能動(dòng)態(tài)分配方法,驗(yàn)證了其在民航機(jī)執(zhí)行任務(wù)環(huán)境下的可靠性。
上述軍事領(lǐng)域中人機(jī)協(xié)作任務(wù)分配的大量研究表明,自動(dòng)化控制程度和人的認(rèn)知狀態(tài)是人機(jī)協(xié)作任務(wù)分配的重要理論依據(jù)。此外,分配方式會(huì)直接影響系統(tǒng)綜合性能及人的執(zhí)行效率。因此,國內(nèi)外學(xué)者關(guān)于人機(jī)協(xié)作任務(wù)分配的研究成果,為未來操作員和軍事系統(tǒng)的協(xié)同作業(yè)提供了理論參考,也為人機(jī)協(xié)作效率及作戰(zhàn)效能的提升提供了可靠依據(jù)。
人機(jī)交互是人類工效學(xué)、計(jì)算機(jī)和認(rèn)知心理學(xué)等多個(gè)學(xué)科交叉的重要研究領(lǐng)域,也是工程心理學(xué)重要的研究?jī)?nèi)容。人機(jī)交互的發(fā)展進(jìn)程大致經(jīng)歷了四個(gè)階段:手工作業(yè)階段、作業(yè)控制語言及命令交互語言階段、圖形用戶界面階段、網(wǎng)絡(luò)用戶界面階段。如今,人機(jī)交互正朝著多通道、多媒體的智能人機(jī)交互方向發(fā)展,比任何時(shí)期都更智能、更自然、更實(shí)體、更擬人化。
Kancler等[39]為考察語音頭部綜合控制(Voice Head Integrated Control,VHIC)硬件的頭部跟蹤功能和語音識(shí)別功能,以C-141空軍預(yù)備隊(duì)的飛機(jī)維修員為研究對(duì)象,通過驗(yàn)證語音命令詞匯,對(duì)VHIC硬件進(jìn)行評(píng)估。得出該硬件的用戶策略符合屏幕界面特征,符合用戶對(duì)計(jì)算機(jī)的體驗(yàn)水平,并且就VHIC系統(tǒng)在飛機(jī)維修環(huán)境中的戰(zhàn)略應(yīng)用提出了一系列建議。
Li等[40]對(duì)20名研究對(duì)象與系統(tǒng)的交互情況進(jìn)行了統(tǒng)計(jì)分析,把傳統(tǒng)顯示屏(Primary Flight Display,PFD)與增強(qiáng)可視化飛行顯示器交互功能相比較,如圖13。研究結(jié)果表明,最新的增強(qiáng)可視化飛行顯示器(PFD)可以提高飛行員的態(tài)勢(shì)感知能力,減少感知工作量,從而縮短認(rèn)知信息處理的響應(yīng)時(shí)間。
Cai等[41]提出了一種改進(jìn)的動(dòng)態(tài)時(shí)間規(guī)整(Improved Dynamic Time Warping,IDTW)算法來獲得最終的動(dòng)態(tài)手勢(shì)識(shí)別結(jié)果。實(shí)驗(yàn)結(jié)果表明,其提出的動(dòng)態(tài)手勢(shì)識(shí)別算法不僅實(shí)現(xiàn)了高于96.5%的平均識(shí)別率和更快的響應(yīng)時(shí)間,而且對(duì)非受控環(huán)境具有魯棒性。
Agarwal等[42]提出了一種結(jié)合遺傳算法、局部搜索技術(shù)和并行計(jì)算的混合結(jié)構(gòu)設(shè)計(jì)與優(yōu)化方法,目的是在能夠滿足用戶定義的設(shè)計(jì)標(biāo)準(zhǔn)的同時(shí),最大限度地減少所需的計(jì)算時(shí)間,得到較優(yōu)的桁架系統(tǒng)。
Sherry等[43]研究了飛行員人機(jī)交互的分析結(jié)果,該交互需要響應(yīng)有代表性的現(xiàn)代飛行管理系統(tǒng)的67條系統(tǒng)錯(cuò)誤消息,其中36%的信息需要飛行員迅速響應(yīng),且不受視覺提示的引導(dǎo)。研究證明需要精心設(shè)計(jì)消息來充分考慮人機(jī)交互的特性,并提出了優(yōu)化錯(cuò)誤消息的方法和設(shè)計(jì)指南。
Revels等[44]研究了一種經(jīng)濟(jì)高效的算法,以得到在與計(jì)算機(jī)系統(tǒng)交互時(shí)由免提控制的語音命令策略。研究以斯普林菲爾德、俄亥俄州空軍國民警衛(wèi)隊(duì)的飛機(jī)維修人員為研究對(duì)象。該算法適用于確定語音命令和頭部跟蹤設(shè)備的組合使用,并能作為訪問數(shù)字化飛機(jī)技術(shù)手冊(cè)的用戶界面。實(shí)驗(yàn)結(jié)果發(fā)現(xiàn),對(duì)Windows接口熟悉程度高的用戶容易出現(xiàn)點(diǎn)擊策略,而新手則可能更多地嘗試各種面向功能的語音命令,最后提出了一系列建議,解決了一個(gè)語音命令詞匯表對(duì)應(yīng)一個(gè)無人駕駛用戶界面的策略應(yīng)用問題。
Ke等[45]通過深度學(xué)習(xí)和機(jī)器視覺模型構(gòu)建了視覺人機(jī)交互系統(tǒng),基于Faster-RCNN-ResNET50-FPN模型結(jié)構(gòu)實(shí)現(xiàn)了人體手指檢測(cè),通過不同手指之間的關(guān)系實(shí)現(xiàn)了移動(dòng)鼠標(biāo)和鍵盤的功能。同時(shí)利用MediaPipe- BlazePose進(jìn)行人體姿態(tài)識(shí)別,通過人體動(dòng)作間的角度建立動(dòng)作分類模型,實(shí)現(xiàn)遠(yuǎn)程控制的控制功能。
圖13 傳統(tǒng)顯示器與增強(qiáng)顯示器交互功能的比較[40]
Jiang等[46]將傳感器和人機(jī)交互應(yīng)用到英語教學(xué)中,應(yīng)用卡爾曼濾波對(duì)傳感器信息進(jìn)行改進(jìn),結(jié)合傳感器定位算法對(duì)在線英語教學(xué)中的學(xué)生進(jìn)行跟蹤,通過骨架算法將內(nèi)核轉(zhuǎn)化為以腰部為坐標(biāo)原點(diǎn)的空間直角坐標(biāo)系的對(duì)應(yīng)坐標(biāo),得到了虛擬現(xiàn)實(shí)中的人機(jī)交互骨架模型。根據(jù)英語教學(xué)人機(jī)交互的實(shí)際需要,構(gòu)建了一個(gè)基于傳感器和人機(jī)交互的新型英語教學(xué)系統(tǒng),并對(duì)其性能進(jìn)行了測(cè)試。
Anishchenko等[47]開發(fā)了一個(gè)系統(tǒng),該系統(tǒng)包括三個(gè)基礎(chǔ)算法:分割、標(biāo)記點(diǎn)檢測(cè)和運(yùn)動(dòng)方向評(píng)估,可以從用戶的視頻圖像中直接估計(jì)其頭部位置。研究表明,連接眼角和鼻尖的直線所形成的角度變化具有變化動(dòng)力學(xué)特征,并且該系統(tǒng)能夠確保運(yùn)動(dòng)方向(= 0.95)的高精度。
綜上可知,現(xiàn)代智能人機(jī)交互是計(jì)算機(jī)和客戶之間信息交換的橋梁,根據(jù)已經(jīng)調(diào)研的資料可以看出,人機(jī)交互在發(fā)展過程中出現(xiàn)了不同類別的交互應(yīng)用,各個(gè)國家的研究者們更關(guān)注移動(dòng)式實(shí)物交互、3D交互以及人機(jī)之間協(xié)同式的交互應(yīng)用。其中,國內(nèi)研究者更加青睞手持顯示器、透明式顯示器或當(dāng)前流行的移動(dòng)設(shè)備。隨著移動(dòng)設(shè)備(如智能手機(jī)、智能平板)的普及,設(shè)備的觸控界面更加靈敏,觸屏也變成一種新興的人機(jī)交互方式。
在軍事領(lǐng)域中,人機(jī)交互界面設(shè)計(jì)研究的重要性不言而喻,良好的人機(jī)交互界面設(shè)計(jì)能夠提高作戰(zhàn)效率、降低作戰(zhàn)風(fēng)險(xiǎn)、增強(qiáng)軍隊(duì)?wèi)?zhàn)斗力。為了更加準(zhǔn)確地把握戰(zhàn)場(chǎng)的動(dòng)態(tài)變化,對(duì)人機(jī)交互界面顯示的直觀性和準(zhǔn)確性提出了更高的要求。隨著計(jì)算機(jī)技術(shù)的進(jìn)步,人機(jī)交互界面設(shè)計(jì)也得到了長(zhǎng)足的發(fā)展。軍用領(lǐng)域大量的人機(jī)交互界面也開始注重對(duì)用戶體驗(yàn)的提升,主要體現(xiàn)為引入多模態(tài)交互手段、不斷簡(jiǎn)化操作步驟、提高關(guān)鍵信息的可視化效率、降低用戶的學(xué)習(xí)時(shí)間與成本[48]。
信息化是當(dāng)前時(shí)代發(fā)展的主要特征,人機(jī)界面信息來源于各種不同渠道的復(fù)雜信息,為了優(yōu)化復(fù)雜系統(tǒng)人機(jī)界面設(shè)計(jì),許多研究正致力于提升界面設(shè)計(jì)的視覺美觀性以及信息的有序性和簡(jiǎn)潔性,以提高用戶獲取信息的效率。王黎文等[49]基于WIMP界面范式設(shè)計(jì)研究了一種多層級(jí)聯(lián)合任務(wù)規(guī)劃的人機(jī)交互界面,通過將聯(lián)合任務(wù)規(guī)劃流程及結(jié)果信息以界面中顯示元素的形式直觀地展示給用戶,降低了用戶對(duì)任務(wù)規(guī)劃操作命令和結(jié)果信息的認(rèn)知難度,提升了系統(tǒng)工作的準(zhǔn)確性。馬超民等[50]提出了一種面向智能化制造裝備的復(fù)雜信息系統(tǒng)人機(jī)交互界面設(shè)計(jì)模型,將傳統(tǒng)復(fù)雜系統(tǒng)界面設(shè)計(jì)的功能性與以人為中心的設(shè)計(jì)理念相結(jié)合,為工業(yè)制造領(lǐng)域中復(fù)雜智能系統(tǒng)的人機(jī)交互界面設(shè)計(jì)提供了支撐和參考。研究者們通過研究用戶行為、認(rèn)知和心理模型等方面來了解用戶的需求和習(xí)慣,進(jìn)而設(shè)計(jì)出更加易于理解和使用的界面。同時(shí),基于用戶習(xí)慣和操作流程,設(shè)計(jì)出更加簡(jiǎn)單直觀的界面結(jié)構(gòu)和布局,以提升用戶的使用體驗(yàn)。
人機(jī)交互過程中認(rèn)知負(fù)荷的有效控制對(duì)提高交互效率、安全性和用戶滿意度來說具有重要意義[51]。人的認(rèn)知能力是有限的,因此在設(shè)計(jì)人機(jī)交互界面時(shí)需要考慮用戶的認(rèn)知負(fù)荷,將信息呈現(xiàn)和交互操作盡可能簡(jiǎn)化,以提升界面易用性和用戶體驗(yàn)。Sevcenko等[52]提出了一種基于理論的認(rèn)知負(fù)荷測(cè)量新方法,通過眼動(dòng)追蹤眼睛注視頻率,實(shí)現(xiàn)現(xiàn)實(shí)情況下的認(rèn)知負(fù)荷測(cè)量。Tang等[53]使用事件相關(guān)電位(ERP)評(píng)估了界面復(fù)雜性對(duì)用戶決策的影響,發(fā)現(xiàn)界面復(fù)雜性具有適合決策的特定范圍,進(jìn)而提出了一種在所有設(shè)計(jì)階段快速、經(jīng)濟(jì)地評(píng)估核電廠接口的方法。
通過虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)、人工智能等技術(shù)來打造更加真實(shí)和智能的用戶體驗(yàn)是當(dāng)前研究的熱點(diǎn)方向,同時(shí),研究者們也在探索如何通過調(diào)整界面的顏色、圖標(biāo)、動(dòng)畫等元素,來增強(qiáng)用戶的感知和情感反應(yīng),提升用戶體驗(yàn)。張寶等[54]為了提升人機(jī)交互界面的視覺舒適性和高效性,提出了一種基于視覺感知強(qiáng)度的人機(jī)交互界面優(yōu)化設(shè)計(jì)方法,驗(yàn)證了該方法適用于人機(jī)交互界面優(yōu)化布置設(shè)計(jì)。Zhou等[55]通過在虛擬環(huán)境中進(jìn)行虛擬手點(diǎn)擊實(shí)驗(yàn),確定了虛擬點(diǎn)擊交互設(shè)計(jì)中的控件性能,提升了手部交互的可用性。用于多樣化應(yīng)用的人機(jī)界面,見圖14。
圖14 用于多樣化應(yīng)用的人機(jī)界面[56]
總的來說,人機(jī)交互界面設(shè)計(jì)的理論研究主要圍繞如何提升界面的易用性、用戶體驗(yàn)和信息獲取的可靠性等方面展開,這些研究成果對(duì)軍事領(lǐng)域中的人機(jī)協(xié)作研究來說也有重要的借鑒意義。
在軍事領(lǐng)域,人機(jī)協(xié)作多出現(xiàn)在無人機(jī)、無人車等智能集群作戰(zhàn)系統(tǒng)中,對(duì)其作戰(zhàn)效能評(píng)估的研究成果相對(duì)較少。受實(shí)際作戰(zhàn)環(huán)境復(fù)雜多變的影響,作戰(zhàn)效果的不確定因素較多,因此通過大量實(shí)驗(yàn)進(jìn)行人機(jī)協(xié)作效能評(píng)估所需的成本較高,所以往往采用一系列相關(guān)的評(píng)估方法對(duì)其效能進(jìn)行分析與評(píng)價(jià)[57]。
以美國為例,美軍自20世紀(jì)以來,以智能無人機(jī)集群作戰(zhàn)相關(guān)技術(shù)為核心,開展了多項(xiàng)研究項(xiàng)目,如何科學(xué)地評(píng)估無人系統(tǒng)的作戰(zhàn)效能顯得極為關(guān)鍵。20世紀(jì)中后期,美國Levis等[58]提出了SEA系統(tǒng)效能分析法,其本質(zhì)是比較系統(tǒng)運(yùn)行軌跡和使命軌跡,最后得出結(jié)論:重合率與系統(tǒng)性能正相關(guān);1995年,美國Brown[59]使用任務(wù)完成度來代表特定環(huán)境中作戰(zhàn)飛機(jī)的效能;21世紀(jì),在美國的《空軍2025》研究報(bào)告中,美國空軍大學(xué)提出有必要對(duì)未來空中武器裝備發(fā)展項(xiàng)目進(jìn)行評(píng)價(jià)[60]。
英語閱讀不僅僅是在閱讀中明白每個(gè)單詞的意思就可以了,很多情況下,有的學(xué)生即便認(rèn)識(shí)某個(gè)句子中的所有單詞,但仍不明白句子的意思,這是因?yàn)榫渥又写嬖谥罅康姆侵^語動(dòng)詞、各種復(fù)雜的句型等知識(shí)結(jié)構(gòu),如果不掌握英語句法,是很難理解長(zhǎng)句、難句的意思的。目前高職院校的很多學(xué)生在句法知識(shí)方面表現(xiàn)得比較薄弱,很多學(xué)生不懂句子結(jié)構(gòu)、句子成分等,甚至有些學(xué)生學(xué)了多年的英語還分不清主語、謂語、賓語、各種從句等。這些基本的句法知識(shí)在高中時(shí)候就已經(jīng)被老師重復(fù)了多少遍,步入高職院校的學(xué)生儼然成為英語學(xué)習(xí)中的“老手”,但是依然找不到英語的“春天”。
近年來,國內(nèi)對(duì)無人機(jī)集群作戰(zhàn)的評(píng)估也取得了一定的成果。屈高敏等[61]以對(duì)地攻擊型無人機(jī)群協(xié)同作戰(zhàn)為例,引入?yún)f(xié)同效能影響因子代表多載荷之間的關(guān)系,構(gòu)建了效能影響模型,如圖15所示。陳亮[62]建立了攻擊型無人機(jī)作戰(zhàn)效能評(píng)估指標(biāo)體系及綜合指標(biāo)模型。張陽等[63]基于OODA環(huán)分析了無人機(jī)協(xié)同作戰(zhàn)中每個(gè)階段的效能影響因素,研究了無人機(jī)協(xié)同作戰(zhàn)效能的評(píng)估體系,通過實(shí)驗(yàn)對(duì)其可靠性進(jìn)行了驗(yàn)證。陳俠等[64]以ADC模型為出發(fā)點(diǎn),引入保障度與突發(fā)因素,總結(jié)了適合體系作戰(zhàn)的偵察無人機(jī)作戰(zhàn)效能評(píng)估改進(jìn)模型。
綜合以上學(xué)者對(duì)無人機(jī)集群作戰(zhàn)效能的研究,必須采用恰當(dāng)?shù)男苤笜?biāo)對(duì)其進(jìn)行評(píng)價(jià),其往往需要專業(yè)人員的協(xié)商交流,并符合針對(duì)性、敏感性、可用性的原則。其中,針對(duì)性是指針對(duì)研究的特定問題,完成相應(yīng)軍事任務(wù)的能力;敏感性是指該指標(biāo)應(yīng)對(duì)作戰(zhàn)條件、作戰(zhàn)任務(wù)等相對(duì)敏感;可用性是指該指標(biāo)應(yīng)具有明確的物理意義,方便使用模型求解,便于計(jì)算[65]。
圖15 對(duì)地攻擊型無人機(jī)效能指標(biāo)體系[61]
目前國內(nèi)外學(xué)者在不同場(chǎng)景下構(gòu)建出了各種適用于軍事作戰(zhàn)的人機(jī)協(xié)作效能評(píng)估體系,為未來面對(duì)更加復(fù)雜的戰(zhàn)場(chǎng)局面提供了參考與借鑒。
人與計(jì)算機(jī)之間的任務(wù)分配是實(shí)現(xiàn)復(fù)雜人機(jī)系統(tǒng)控制的基礎(chǔ),當(dāng)前復(fù)雜人機(jī)任務(wù)分配的求解方法主要為集中式任務(wù)分配策略和分布式任務(wù)分配策略兩種。其中,集中式人機(jī)任務(wù)分配策略雖然能夠生成比分布式任務(wù)分配策略更優(yōu)、更精確的解,而且在相同條件下計(jì)算機(jī)的計(jì)算負(fù)荷比分布式任務(wù)分配策略更小,但是集中式任務(wù)分配策略產(chǎn)生的最優(yōu)解卻依賴于計(jì)算機(jī)中心節(jié)點(diǎn)的靈敏度及其與具體操作者之間是否進(jìn)行了有效的通信。因此,目前為了提高復(fù)雜人機(jī)任務(wù)分配求解效率,規(guī)避集中式任務(wù)分配策略求解框架中存在的中央節(jié)點(diǎn)計(jì)算機(jī)計(jì)算負(fù)荷大、人機(jī)系統(tǒng)的魯棒性差等缺陷,分布式人機(jī)任務(wù)分配策略正在逐漸成為學(xué)術(shù)界關(guān)注的熱點(diǎn)。
如今,越來越多的國內(nèi)外研究者會(huì)采用拍賣算法來協(xié)調(diào)考慮人員行為和任務(wù)時(shí)序的復(fù)雜人機(jī)任務(wù)分配,見圖16。研究者利用拍賣算法高精度的計(jì)算結(jié)果和高效率的計(jì)算時(shí)間,充分借助拍賣算法對(duì)不確定態(tài)勢(shì)感知的魯棒性以及一致性算法對(duì)網(wǎng)絡(luò)拓?fù)涞聂敯粜訹66],為復(fù)雜人機(jī)多任務(wù)分配問題提供了更加可行的、與實(shí)際沒有沖突的解。
圖16 拍賣算法計(jì)算框架[66]
隨著現(xiàn)代科學(xué)技術(shù)的發(fā)展,人機(jī)交互技術(shù)已經(jīng)不滿足于簡(jiǎn)單的命令字符和圖形畫面的點(diǎn)擊交互,逐漸進(jìn)入了多通道融合交互階段,在圖形界面的基礎(chǔ)上,逐漸引入虛擬顯示、語音交互、手勢(shì)交互、腦機(jī)接口等新型交互技術(shù),具備更加豐富的顯示輸出資源,極大地增強(qiáng)了控制輸入能力。相對(duì)于單人單機(jī)的交互,人與無人集群的交互往往更加復(fù)雜,為了保證人與大規(guī)模無人集群交互的安全性和成本要求,對(duì)交互效率和準(zhǔn)確性提出了更高的要求。而通過多通道融合能夠更加準(zhǔn)確高效地實(shí)現(xiàn)人機(jī)交互,彌補(bǔ)單通道識(shí)別的不足與缺陷。因此,越來越多的研究希望通過文字、視覺、動(dòng)作等多模態(tài)的人機(jī)交互方法來提高交互效率、提升交互準(zhǔn)確性。
基于手勢(shì)的自然交互系統(tǒng)是最直觀的系統(tǒng)類型。手勢(shì)識(shí)別技術(shù)提供了一個(gè)簡(jiǎn)單、快速、高效的人機(jī)交互環(huán)境,操作員可以通過簡(jiǎn)單的手勢(shì)向目標(biāo)系統(tǒng)發(fā)出指令;基于語音的自然交互系統(tǒng)則提供了更好的系統(tǒng)控制,語音識(shí)別功能讓用戶能夠通過口語與系統(tǒng)進(jìn)行自然交流。這些交互方法可以顯著提高人機(jī)交互的效率和舒適性。蘇翎菲等[67]構(gòu)建了基于語音和手勢(shì)的雙模型交互框架,提出了一種基于通道切換的通道融合機(jī)制,實(shí)現(xiàn)了人與無人機(jī)集群多模態(tài)交互,見圖17。Xiang等[68]融合了語音和手勢(shì)兩種輸入模式,實(shí)現(xiàn)了對(duì)無人機(jī)群的高效控制。Chen等[69]設(shè)計(jì)了一個(gè)基于增強(qiáng)現(xiàn)實(shí)的多通道HSI系統(tǒng),通過增強(qiáng)現(xiàn)實(shí)顯示通道、三維手勢(shì)交互通道、自然語言指令通道補(bǔ)充交互信息,有效降低了單個(gè)交互通道的負(fù)載,提高了人與群機(jī)器人的交互效率。
腦機(jī)接口(BCI)允許用戶通過解碼大腦信號(hào)來控制外部設(shè)備[70],未來腦電圖(EEG)可能成為識(shí)別并反映用戶意圖的重要工具,基于腦機(jī)接口和腦電圖的人機(jī)交互被廣泛應(yīng)用于機(jī)械臂、輪椅和無人機(jī)等機(jī)器中。2015年,Karavas等[71]通過從腦電圖信號(hào)中得出與事件相關(guān)的電位,驗(yàn)證了與大腦功能相關(guān)的群體行為的感知和表達(dá),為集群控制和認(rèn)知界面的設(shè)計(jì)提供了依據(jù)。2017年,Karavas等[72]設(shè)計(jì)了一種結(jié)合腦電信號(hào)和操縱桿輸入的混合腦機(jī)接口系統(tǒng),初步展示了使用腦電信號(hào)控制機(jī)器人群體行為的可能性。Lee等[73]通過運(yùn)動(dòng)意象、視覺意象和語音意象刺激大腦產(chǎn)生的特征性腦電信號(hào)初步實(shí)現(xiàn)了對(duì)無人機(jī)群的控制,見圖18。
多模態(tài)智能交互將成為未來人與無人集群交互的主流形態(tài),多通道結(jié)合的信息交流將改變操作員與指控系統(tǒng)互動(dòng)的方式,大幅度提升交互的準(zhǔn)確性、可靠性和便利性,重新定義操作員與指控系統(tǒng)的關(guān)系,實(shí)現(xiàn)人與無人集群的高效交互。
圖17 基于語音識(shí)別的無人機(jī)集群編隊(duì)實(shí)現(xiàn)機(jī)制整體算法[67]
圖18 獲取與無人機(jī)群任務(wù)控制相關(guān)的腦電數(shù)據(jù)的示例實(shí)驗(yàn)[73]
態(tài)勢(shì)認(rèn)知,是在多信息和態(tài)勢(shì)要素感知的基礎(chǔ)上對(duì)戰(zhàn)場(chǎng)態(tài)勢(shì)的感知、判斷與預(yù)測(cè)。態(tài)勢(shì)認(rèn)知是指揮控制活動(dòng)從信息域邁向認(rèn)知域的關(guān)鍵標(biāo)志。
彭文成等[74]分析了戰(zhàn)場(chǎng)態(tài)勢(shì)要素構(gòu)成,包括敵情態(tài)勢(shì)信息、我情態(tài)勢(shì)信息與戰(zhàn)場(chǎng)環(huán)境信息,并將每個(gè)要素進(jìn)行進(jìn)一步的劃分。Kokar等[75]分析了人機(jī)協(xié)作完成目標(biāo)任務(wù)的過程,并指出了提高態(tài)勢(shì)認(rèn)知與完成目標(biāo)任務(wù)能力的途徑。Mcguinness[76]提出了一種態(tài)勢(shì)認(rèn)知量化分析的評(píng)價(jià)方法,利用信號(hào)檢測(cè)理論對(duì)態(tài)勢(shì)認(rèn)知主體進(jìn)行評(píng)價(jià)。Saner等[77]提出了一種基于個(gè)體態(tài)勢(shì)認(rèn)知相似度的評(píng)分方法,給出了提升群體共享態(tài)勢(shì)認(rèn)知準(zhǔn)確性的方法。Stewart等[78]通過在空戰(zhàn)模擬場(chǎng)景中采集的數(shù)據(jù),構(gòu)建了用于識(shí)別關(guān)鍵智能對(duì)象的命題網(wǎng)絡(luò),證明了個(gè)體態(tài)勢(shì)認(rèn)知對(duì)系統(tǒng)整體認(rèn)知的關(guān)鍵作用。Gao等[79]結(jié)合無人機(jī)群協(xié)作參與的特點(diǎn),分析了群體分布式合作方法的本質(zhì),提出了基于態(tài)勢(shì)認(rèn)知共識(shí)的群體分布式合作方法,可進(jìn)一步分為情境感知共識(shí)和情境理解共識(shí),如圖19所示。
圖19 基于情境感知共識(shí)與情境理解共識(shí)的合作方法[79]
為應(yīng)對(duì)戰(zhàn)場(chǎng)中的智能態(tài)勢(shì)認(rèn)知挑戰(zhàn),應(yīng)以人機(jī)協(xié)作為基石,結(jié)合概率統(tǒng)計(jì)、現(xiàn)代控制理論、最優(yōu)化理論進(jìn)行智能態(tài)勢(shì)認(rèn)知研究,未來的研究方向主要包括基于人機(jī)交互的態(tài)勢(shì)認(rèn)知可視化以及基于人機(jī)協(xié)作的指揮員意圖理解與學(xué)習(xí)[80]。
在人工智能等高新技術(shù)飛速發(fā)展的科技現(xiàn)狀下,軍事領(lǐng)域的作戰(zhàn)系統(tǒng)逐步面向智能化、信息化發(fā)展。然而,也應(yīng)當(dāng)看到,目前的自動(dòng)化系統(tǒng)還未達(dá)到完全的自主化和智能化,人類仍是作戰(zhàn)體系中不可或缺的角色。因此,探尋科學(xué)可行的人機(jī)協(xié)作模式是相關(guān)研究領(lǐng)域的重要突破方向。本文從應(yīng)用視角出發(fā),梳理了無人系統(tǒng)中人機(jī)協(xié)作的應(yīng)用現(xiàn)狀;從理論視角出發(fā),分析了國內(nèi)外學(xué)者的研究方向和熱點(diǎn)問題;對(duì)軍事領(lǐng)域下人機(jī)協(xié)作的未來發(fā)展趨勢(shì)進(jìn)行了展望,以期為軍事人機(jī)協(xié)作系統(tǒng)的理論研究和轉(zhuǎn)型升級(jí)提供探索方向。
基于對(duì)當(dāng)前軍事領(lǐng)域人機(jī)協(xié)作研究現(xiàn)狀的分析,本文梳理了未來的發(fā)展趨勢(shì),并得出以下結(jié)論:(1)人機(jī)協(xié)作模式已廣泛應(yīng)用于無人機(jī)、無人車、無人艇等武器作戰(zhàn)平臺(tái),將人員行為和任務(wù)時(shí)序納入人機(jī)任務(wù)分配理論層面,對(duì)實(shí)現(xiàn)人機(jī)協(xié)作體系的資源合理利用及充分配置具有重要的推進(jìn)作用;(2)研究多模態(tài)智能交互技術(shù),實(shí)現(xiàn)虛擬顯示、語音交互、手勢(shì)交互、腦機(jī)接口等新型交互技術(shù)的多通道融合,是實(shí)現(xiàn)未來人與無人集群高效交互的重要手段;(3)智能態(tài)勢(shì)認(rèn)知是信息化戰(zhàn)場(chǎng)在指揮控制活動(dòng)中面臨的挑戰(zhàn),基于人機(jī)交互的態(tài)勢(shì)認(rèn)知可視化以及基于人機(jī)協(xié)作的指揮員意圖理解與學(xué)習(xí)是未來的重要研究方向。
[1] KLIEN G, WOODS D D, BRADSHAW J M, et al. Ten Challenges for Making Automation a "Team Player" in Joint Human-Agent Activity[J]. IEEE Intelligent Systems, 2004, 19(6): 91-95.
[2] LEWIS M, WANG J, SCERRI P. Teamwork Coordination for Realistically Complex Multi Robot Systems[C]. Proceedings of NATO Symposium on Human Factors of Uninhabited Military Vehicles as Force Multipliers, 2006.
[3] 賈凡. 面向多智能體的人機(jī)協(xié)同航跡規(guī)劃技術(shù)研究[D]. 長(zhǎng)沙: 國防科學(xué)技術(shù)大學(xué), 2016. JIA Fan. Research on Human-automation Collaborative Path Planning for Multi-agent[D]. Changsha: National University of Defense Technology, 2016.
[4] 單月暉. 智能化人機(jī)協(xié)同作戰(zhàn)發(fā)展研究[C]//第九屆中國指揮控制大會(huì)論文集. 北京, 2021: 219-223. SHAN Yue-hui. Research on the Development of Intelligent Man-Machine Cooperative Combat [C]// Proceedings of the 9th China Command and Control Congress. Beijing, 2012: 219-223.
[5] 徐文. 美國面向未來威脅的作戰(zhàn)無人機(jī)[J]. 飛航導(dǎo)彈, 2003(11): 1-4. XU Wen. American Combat Drones Facing Future Threats[J]. Winged Missiles Journal, 2003(11): 1-4.
[6] BARNES M J, CHEN J Y C, JENTSCH F. Soldier Interactions With Aerial and Ground Robotic Systems in Future Military Environments[C]. Proceedings of NATO Conference on the Human Factors of Uninhabited Military Systems, 2006.
[7] 胡月. 有人/無人機(jī)協(xié)同作戰(zhàn)任務(wù)分配與航跡規(guī)劃研究[D]. 南京: 南京航空航天大學(xué), 2020. HU Yue. Research on Mission Assignment and Flight Path Planning of Manned/unmanned Aerial Vehicles Cooperative Operations[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2020.
[8] 劉大學(xué), 殷廣川, 黃元浩. 基于人機(jī)混合智能的無人平臺(tái)設(shè)計(jì)[J]. 控制與信息技術(shù), 2018(6): 27-31, 43. LIU Da-xue, YIN Guang-chuan, HUANG Yuan-hao. Design of Ground Unmanned Platform Based on Human-Machine Hybrid Intelligence[J]. Control and Information Technology, 2018(6): 27-31, 43.
[9] 孫宇祥, 周獻(xiàn)中, 徐爽, 等. 智能指揮與控制系統(tǒng)人機(jī)混合模型研究[J]. 火力與指揮控制, 2020, 45(12): 80-86. SUN Yu-xiang, ZHOU Xian-zhong, XU Shuang, et al. Research on Man-Machine Hybrid Model of Intelligent Command and Control System[J]. Fire Control & Command Control, 2020, 45(12): 80-86.
[10] 南函池. 考慮工作勝任度的人機(jī)協(xié)同任務(wù)分配模型與人機(jī)協(xié)作策略研究[D]. 杭州: 杭州電子科技大學(xué), 2020. NAN Han-chi. Research on Human-machine Cooperative Task Assignment Model and Human-machine Cooperation Strategy Considering Job Competency[D]. Hangzhou: Hangzhou Dianzi University, 2020.
[11] 王耀南, 安果維, 王傳成, 等. 智能無人系統(tǒng)技術(shù)應(yīng)用與發(fā)展趨勢(shì)[J]. 中國艦船研究, 2022, 17(5): 9-26. WANG Yao-nan, AN Guo-wei, WANG Chuan-cheng, et al. Technology Application and Development Trend of Intelligent Unmanned System[J]. Chinese Journal of Ship Research, 2022, 17(5): 9-26.
[12] BARNHART R K, HOTTMAN S B, MARSHALL D M, et al. Introduction to Unmanned Aircraft Systems[J]. Photogrammetric Engineering & Remote Sensing, 2012, 82(2): 89-92.
[13] BLOM J D. Unmanned Aerial Systems: A Historical Perspective[M]. Kansas: Combat Studies Institute, 2010.
[14] EHRHARD T P. Airforce UAVs–the Secret History[M]. Washington: Mitchell Institute, 2010.
[15] BE?O V, ADAM?íK Jr F. Unmanned Combat Air Vehicle: Mq-9 Reaper[J]. Brasov, 2014(3): 22-24.
[16] 范彥銘. 無人機(jī)的自主與智能控制[J]. 中國科學(xué): 技術(shù)科學(xué), 2017, 47(3): 221-229. FAN Yan-ming. Autonomous and Intelligent Control of the Unmanned Aerial Vehicle[J]. Scientia Sinica (Technologica), 2017, 47(3): 221-229.
[17] KONERT A, BALCERZAK T. Military Autonomous Drones (UAVs)-from Fantasy to Reality. Legal and Ethical Implications[J]. Transportation Research Procedia, 2021, 59: 292-299.
[18] HERNANDEZ J. A Military Drone With A Mind Of Its Own Was Used In Combat[EB/OL]. (2021-06-01)[2023- 01-06]. https://www.npr.org/2021/06/01/1002196245/a- u-n-report-suggests-libya-saw-the-first-battlefield-killing- by-an-autonomous-d.
[19] MIZOKAMI K. The Army's Robotic Combat Vehicles Will Invoke WWII's 'Ghost Army[EB/OL]. (2021-08-03) [2023-01-06]. https://www.popularmechanics.com/mili-tary/weapons/a37202757/army-robotic-combat-vehicles- ghost-army/.
[20] Robotic Combat Vehicle–Light (RCV-L)[EB/OL]. (2022- 06-09)[2023-01-06]. https://www.army-technology.com/ projects/robotic-combat-vehicle-light-rcv-l/.
[21] CAMACHO M S. Innovative Israeli Robotic Combat Vehicle Could Be the Future Of Ground Warfare[EB/ OL]. (2022-07-29)[2023-01-06]. https://www.thein-fo-graphicsshow.com/medium-robotic-combat-vehicle/.
[22] ROQUE A. Us Army Conducts First RCV-M Live-Fire Testing[EB/OL]. (2021-08-06)[2023-01-06]. https://www. janes.com/defence-news/news-detail/us-army-conducts-first-rcv-m-live-fire-testing.
[23] BLOKHIN A, KOSHURINA A, KRASHENINNIKOV M, et al. The Analytical Review of the Condition of Heavy Class Military and Dual-Purpose Unmanned Ground Vehicle[J]. MATEC Web of Conferences, 2015, 26: 04002.
[24] UPPAL R. US Army’s Robotic and Autonomous System (RAS) Strategy for gaining overmatch in future high- intensity conflicts[EB/OL]. (2021-03-09)[2023-01-06]. https://idstch.com/military/army/us-armys-robotic-and-autonomous-systems-ras-strategy/.
[25] NJUS E. The Military'S Oregon-Built Drone Ship Is Headed To California[EB/OL]. (2016-04-07)[2023-01- 06]. https://www.oregonlive.com/business/2016/04/sea_ hunter_the_militarys_orego.html.
[26] TANAKITKORN K. A Review of Unmanned Surface Vehicle Development[J]. Maritime Technology and Research, 2019, 1(1): 2-8.
[27] ZHUANG Jia-yuan, ZHANG Lei, QIN Zi-he, et al. Motion Control and Collision Avoidance Algorithms for Unmanned Surface Vehicle Swarm in Practical Maritime Environment[J]. Polish Maritime Research, 2019, 26(1): 107-116.
[28] OZBERK T. Analysis: Ukraine Strikes With Kamikaze USVs – Russian Bases Are Not Safe Anymore[EB/OL]. (2022-10-31)[2023-01-06]. https://www.navalnews.com/ naval-news/2022/10/analysis-ukraine-strikes-with-kamikaze- usvs-russian-bases-are-not-safe-anymore/.
[29] BEVACQUA G, CACACE J, FINZI A, et al. Mixed- Initiative Planning and Execution for Multiple Drones in Search and Rescue Missions[J]. Proceedings of the International Conference on Automated Planning and Scheduling, 2015, 25: 315-323.
[30] SCHMITT F, SCHULTE A. Mixed-Initiative Mission Planning Using Planning Strategy Models in Military Manned-Unmanned Teaming Missions[C]//2015 IEEE International Conference on Systems, Man, and Cyber-netics. Hong Kong, China. IEEE, 2016: 1391-1396.
[31] IDRIS H, ENEA G, LEWIS T A. Function Allocation between Automation and Human Pilot for Airborne Separation Assurance[J]. IFAC-PapersOnLine, 2016, 49(19): 25-30.
[32] WANG Chang, WU Li-zhen, YAN Chao, et al. Coactive Design of Explainable Agent-Based Task Planning and Deep Reinforcement Learning for Human-UAVs Teamwork[J]. Chinese Journal of Aeronautics, 2020, 33(11): 2930-2945.
[33] HOGENBOOM S, ROKSETH B, VINNEM J E, et al. Human Reliability and the Impact of Control Function Allocation in the Design of Dynamic Positioning Systems[J]. Reliability Engineering & System Safety, 2020, 194: 106340.
[34] ZHAO Zhe, NIU Yi-feng, SHEN Lin-cheng. Adaptive Level of Autonomy for Human-UAVs Collaborative Surveillance Using Situated Fuzzy Cognitive Maps[J]. Chinese Journal of Aeronautics, 2020, 33(11): 2835- 2850.
[35] 崔波, 王崴, 瞿玨, 等. 無人機(jī)地面站自適應(yīng)人機(jī)功能分配機(jī)制探討[J]. 飛航導(dǎo)彈, 2016(4): 52-54, 88. CUI Bo, WANG Wei, QU Jue, et al. Discussion on Adaptive Man-Machine Function Allocation Mechanism of UAV Ground Station[J]. Aerodynamic Missile Journal, 2016(4): 52-54, 88.
[36] 汪匯川, 寧云暉, 陶偉, 等. 基于FAHP的艦艇模擬訓(xùn)練系統(tǒng)人機(jī)功能分配[J]. 指揮控制與仿真, 2018, 40(5): 37-40. WANG Hui-chuan, NING Yun-hui, TAO Wei, et al. Man-Machine Function Allocation of Naval Ships Simulation Training System Based on FAHP[J]. Command Control & Simulation, 2018, 40(5): 37-40.
[37] 李珍, 武恒州, 殷毅, 等. 一種戰(zhàn)斗機(jī)人機(jī)功能分配方法[J]. 飛機(jī)設(shè)計(jì), 2020, 40(4): 1-6, 34. LI Zhen, WU Heng-zhou, YIN Yi, et al. A Method of Human-Machine Function Allocation for Fighter Plane[J]. Aircraft Design, 2020, 40(4): 1-6, 34.
[38] 付亞芝, 郭進(jìn)利. 基于非合作博弈的動(dòng)態(tài)人機(jī)系統(tǒng)功能分配法[J]. 火力與指揮控制, 2021, 46(2): 30-34. FU Ya-zhi, GUO Jin-li. A Dynamic Method of Man- Machine System Function Allocation Based on Non- Cooperative Game Theory[J]. Fire Control & Command Control, 2021, 46(2): 30-34.
[39] KANCLER D E, GORMAN M E, REVELS A R. The Use of Voice and Head-Tracking for Hands-Free Human-Computer Interaction[J]. Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 2002, 46(23): 1915-1919.
[40] LI W C, HORN A, SUN Zhen, et al. Augmented Visualization Cues on Primary Flight Display Facilitating Pilot's Monitoring Performance[J]. International Journal of Human-Computer Studies, 2020, 135: 102377.
[41] CAI Lin-qin, CUI Shuang-jie, XIANG Min, et al. Dynamic Hand Gesture Recognition UsingRGB-D Data for Natural Human-Computer Interaction[J]. Journal of Intelligent & Fuzzy Systems, 2017, 32(5): 3495-3507.
[42] AGARWAL P, RAICH A M. Design and Optimization of Steel Trusses Using Genetic Algorithms, Parallel Computing, and Human-Computer Interaction[J]. Structural Engineering and Mechanics, 2006, 23(4): 325-337.
[43] SHERRY L, FENNELL K, FEARY M, et al. Human- Computer Interaction Analysis of Flight Management System Messages[J]. Journal of Aircraft, 2006, 43(5): 1372-1376.
[44] REVELS A R, KANCLER D E, QUILL L L, et al. Determining Voice Strategies for Hands-Free Human- Computer Interaction[J]. Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 2001, 45(24): 1704-1708.
[45] KE Zi-yi, CHEN Zi-qiang, WANG Huan-lei, et al. A Visual Human-Computer Interaction System Based on Hybrid Visual Model[J]. Security and Communication Networks, 2022, 2022: 1-13.
[46] JIANG Shuai, WANG Lei, DONG Yuan-yuan. Application of Virtual Reality Human-Computer Interaction Technology Based on the Sensor in English Teaching[J]. Journal of Sensors, 2021, 2021: 1-10.
[47] ANISHCHENKO S I, OSINOV V A, SHAPOSHNIKOV D G. Assessment of Human Head Pose in Human- Computer Interaction[J]. Pattern Recognition and Image Analysis, 2012, 22(4): 541-545.
[48] XU Jian-dong, LI Xiao-shi, CHANG Hao, et al. Electrooculography and Tactile Perception Collaborative Interface for 3D Human–Machine Interaction[J]. ACS Nano, 2022, 16(4): 6687-6699.
[49] 王黎文, 周同樂, 吳慶憲. 多層級(jí)聯(lián)合任務(wù)規(guī)劃人機(jī)交互界面設(shè)計(jì)研究[J]. 工業(yè)控制計(jì)算機(jī), 2021, 34(9): 25-27, 30. WANG Li-wen, ZHOU Tong-le, WU Qing-xian. Design of Human Computer Interaction Interface of Multi- Layer Joint Mission Planning[J]. Industrial Control Com-puter, 2021, 34(9): 25-27, 30.
[50] 馬超民, 趙丹華, 辛灝. 基于用戶體驗(yàn)的智能裝備人機(jī)交互界面設(shè)計(jì)[J]. 計(jì)算機(jī)集成制造系統(tǒng), 2020, 26(10): 2650-2660. MA Chao-min, ZHAO Dan-hua, XIN Hao. Human- Machine Interaction Interface Design of Intelligent Equipment Based on User Experience[J]. Computer Integrated Manufacturing Systems, 2020, 26(10): 2650- 2660.
[51] 賀孝梅, 何世杰, 邵將. 認(rèn)知負(fù)荷在人機(jī)交互中的研究現(xiàn)狀與發(fā)展趨勢(shì)[J/OL]. 計(jì)算機(jī)集成制造系統(tǒng)(2022- 10-11)[2023-01-06]. http://kns.cnki.net/kcms/detail/11. 5946.TP.20221011.1404.004.html. HE Xiao-mei, HE Shi-jie, SHAO Jiang. Current Research Status and Development Trend of Cognitive Load in Human-computer Interaction[J/OL]. Computer Integrated Manufacturing Systems(2022-10-11)[2023-01-06]. http://kns.cnki.net/kcms/detail/11.5946.TP.20221011.1404. 004.html.
[52] SEVCENKO N, APPEL T, NINAUS M, et al. Theory- Based Approach for Assessing Cognitive Load during Time-Critical Resource-Managing Human-Computer In-teractions: An Eye-Tracking Study[J]. Journal on Mu-ltimodal User Interfaces, 2023, 17(1): 1-19.
[53] TANG Wen-zhe, CHEN Shan-guang, XUE Cheng-qi, et al. Influence of Nuclear Power Plant Interface Com-plexity on User Decision-Making: An ERP Study[J]. Ergonomics, 2022: 1-19.
[54] 張寶, 丁敏, 李燕杰. 基于視覺感知強(qiáng)度的人機(jī)交互界面優(yōu)化設(shè)計(jì)[J]. 中國機(jī)械工程, 2016, 27(16): 2196- 2202. ZHANG Bao, DING Min, LI Yan-jie. Optimization Design of Human Machine Interaction Interface Based on Visual Perception[J]. China Mechanical Engineering, 2016, 27(16): 2196-2202.
[55] ZHOU Xiao-zhou, GUO Yi-bing, JIA Le-song, et al. A Study of Button Size for Virtual Hand Interaction in Virtual Environments Based on Clicking Performance[J]. Multimedia Tools and Applications, 2022, 82: 15903-15918.
[56] ZHU Ming-lu, SUN Zhong-da, ZHANG Zi-xuan, et al. Haptic-Feedback Smart Glove as a Creative Human- Machine Interface (HMI) for Virtual/Augmented Reality Applications[J]. Science Advances, 2020, 6(19): eaaz8693.
[57] 韓月明, 方丹, 張紅艷, 等. 智能無人機(jī)集群協(xié)同作戰(zhàn)效能評(píng)估綜述[J]. 飛航導(dǎo)彈, 2020(8): 51-56. HAN Yue-ming, FANG Dan, ZHANG Hong-yan, et al. Summary of Effectiveness Evaluation of Intelligent UAV Cluster Cooperative Operation[J]. Aerodynamic Missile Journal, 2020(8): 51-56.
[58] LEVIS A H, WAGENHALS L W. C4ISR Architectures: I. Developing a Process for C4ISR Architecture Design[J]. Systems Engineering, 2000, 3(4): 225-247.
[59] BROWN K W. Measuring the Effectiveness of Weapons Systems in Terms of System Attributes[J]. British Medical Journal, 1995, 1(4): 220-222.
[60] United States Department of Defense. Unmanned Sys-tems Integrated Roadmap: Fiscal Years 2017-2042[M]. Washington D.C., 2017.
[61] 屈高敏, 董彥非, 岳源. 對(duì)地攻擊型無人機(jī)作戰(zhàn)效能評(píng)估[J]. 火力與指揮控制, 2016, 41(4): 145-149. QU Gao-min, DONG Yan-fei, YUE Yuan. Operational Effectiveness Evaluation of Ground Attack UCAV[J]. Fire Control & Command Control, 2016, 41(4): 145- 149.
[62] 陳亮. 體系作戰(zhàn)條件無人機(jī)作戰(zhàn)效能評(píng)估模型[J]. 艦船電子工程, 2016, 36(7): 124-127, 160. CHEN Liang. UAV Operational Effectiveness Evaluation Model in System Combat[J]. Ship Electronic Engineering, 2016, 36(7): 124-127, 160.
[63] 張陽, 王艷正, 司光亞. 集群式電子戰(zhàn)無人機(jī)的OODA作戰(zhàn)環(huán)分析與建模[J]. 火力與指揮控制, 2018, 43(8): 31-36. ZHANG Yang, WANG Yan-zheng, SI Guang-ya. Analysis and Modeling of OODA Circle of Electronic Warfare Group UAV[J]. Fire Control & Command Control, 2018, 43(8): 31-36.
[64] 陳俠, 胡乃寬. 基于APSO-BP神經(jīng)網(wǎng)絡(luò)的無人機(jī)空地作戰(zhàn)效能評(píng)估研究[J]. 飛行力學(xué), 2018, 36(1): 88-92. CHEN Xia, HU Nai-kuan. Research on Effectiveness Evaluation of UAV Air-to-Ground Attack Based on APSO-BP Neural Network[J]. Flight Dynamics, 2018, 36(1): 88-92.
[65] 王光源, 孫濤, 毛世超, 等. 基于任務(wù)協(xié)同的有人機(jī)/無人機(jī)對(duì)海攻擊作戰(zhàn)效能評(píng)估研究[J]. 海軍航空工程學(xué)院學(xué)報(bào), 2017, 32(5): 491-495. WANG Guang-yuan, SUN Tao, MAO Shi-chao, et al. Research on Effectiveness Assessment for Attack Against Maritime Targets of Manned/Unmanned Vehicles Based on Mission Cooperative[J]. Journal of Naval Aeronautical and Astronautical University, 2017, 32(5): 491-495.
[66] 顏驥, 李相民, 劉波. 考慮時(shí)序約束的多智能體協(xié)同任務(wù)分配[J]. 控制與決策, 2015, 30(11): 1999-2003. YAN Ji, LI Xiang-min, LIU Bo. Multi-Agents Cooperative Task Allocation with Precedence Constrains[J]. Control and Decision, 2015, 30(11): 1999-2003.
[67] 蘇翎菲, 化永朝, 董希旺, 等. 人與無人機(jī)集群多模態(tài)智能交互方法[J]. 航空學(xué)報(bào), 2022, 43(S1): 727001. SU Ling-fei, HUA Yong-zhao, DONG Xi-wang, et al. Human-UAV Swarm Multi-Modal Intelligent Interaction Methods[J]. Acta Aeronautica et Astronautica Sinica, 2022, 43(S1): 727001.
[68] XIANG Xiao-jia, TAN Qin, ZHOU Han, et al. Multimodal Fusion of Voice and Gesture Data for UAV Control[J]. Drones, 2022, 6(8): 201.
[69] CHEN Ming-xuan, ZHANG Ping, WU Ze-bo, et al. A Multichannel Human-Swarm Robot Interaction System in Augmented Reality[J]. Virtual Reality & Intelligent Hardware, 2020, 2(6): 518-533.
[70] WOLPAW J R, BIRBAUMER N, HEETDERKS W J, et al. Brain-Computer Interface Technology: A Review of the First International Meeting[C]//IEEE Transactions on Rehabilitation Engineering. IEEE, 2002: 164-173.
[71] KARAVAS G K, ARTEMIADIS P. On the Effect of Swarm Collective Behavior on Human Perception: Towards Brain-Swarm Interfaces[C]//2015 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI). San Diego, CA, USA. IEEE, 2015: 172-177.
[72] KARAVAS G K, LARSSON D T, ARTEMIADIS P. A Hybrid BMI for Control of Robotic Swarms: Preliminary Results[C]//2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Vancouver, BC, Canada. IEEE, 2017: 5065-5075.
[73] LEE D H, JEONG J H, AHN H J, et al. Design of an EEG-Based Drone Swarm Control System Using Endogenous BCI Paradigms[C]//2021 9th International Winter Conference on Brain-Computer Interface (BCI). Gangwon, Korea (South). IEEE, 2021: 1-5.
[74] 彭文成, 郭東明, 李林希. 基于態(tài)勢(shì)描述的機(jī)步團(tuán)作戰(zhàn)仿真決策活動(dòng)模型研究[J]. 兵器裝備工程學(xué)報(bào), 2017, 38(1): 24-28. PENG Wen-cheng, GUO Dong-ming, LI Lin-xi. Research on Decision Activities Model of Operational Simulation of Mechanized Infantry Regiment Based on Situation Description[J]. Journal of Ordnance Equipment Engineering, 2017, 38(1): 24-28.
[75] KOKAR M M, ENDSLEY M R. Situation Awareness and Cognitive Modeling[J]. IEEE Intelligent Systems, 2012, 27(3): 91-96.
[76] MCGUINNESS B. Quantitative Analysis of Situational Awareness (quasa): Applying Signal Detection Theory to True/false Probes and Self-ratings [C]//2004 Command and Control Research and Technology Symposium. Bristol: Human Factor Department Advanced Technology Centre, 2004: 219—224.
[77] SANER L D, BOLSTAD C A, GONZALEZ C, et al. Measuring and Predicting Shared Situation Awareness in Teams[J]. Journal of Cognitive Engineering and Decision Making, 2009, 3(3): 280-308.
[78] STEWART R, STANTON N A, HARRIS D, et al. Distributed Situation Awareness in an Airborne Warning and Control System: Application of Novel Ergonomics Methodology[J]. Cognition, Technology & Work, 2008, 10(3): 221-229.
[79] GAO Yang, LI Dong-sheng. Unmanned Aerial Vehicle Swarm Distributed Cooperation Method Based on Situa-tion Awareness Consensus and Its Information Proces-sing Mechanism[J]. Knowledge-Based Systems, 2020, 188: 105034.
[80] 李婷婷, 刁聯(lián)旺, 王曉璇. 智能態(tài)勢(shì)認(rèn)知面臨的挑戰(zhàn)及對(duì)策[J]. 指揮信息系統(tǒng)與技術(shù), 2018, 9(5): 31-36. LI Ting-ting, DIAO Lian-wang, WANG Xiao-xuan. Challenges and Countermeasures of Intelligent Situation Awareness[J]. Command Information System and Tech-nology, 2018, 9(5): 31-36.
Human-machine Collaboration in the Military Field
NIU Jian-wei, AN Yue-qi, LI Han, GAO Wei-feng, YAN Zheng-quan, DONG Ming-yu
(School of Mechanical Engineering, University of Science and Technology Beijing, Beijing 100083, China)
The work aims to summarize and analyze the current application status and theoretical status of human-machine collaboration in the military field and point out the future development trend, so as to provide theoretical directions for the technical development and design research of human-machine collaborative military systems. The current application status of human-machine collaboration in the military field was analyzed with the practical application scenarios of unmanned aircraft systems, unmanned vehicles and unmanned boats as representatives. Then, the research progress of human-machine collaborative task allocation, human-machine interaction methods, human-machine interaction interface design and human-machine collaborative effectiveness evaluation in China and abroad was analyzed in the military context. The future research trends were summarized by synthesizing the current status of the previous research. From the current status, hotspots and trends of Chinese and international research, it is concluded that the task allocation of human-machine collaboration needs to take into account factors such as personnel behavior and task timing, with the goal of improving the efficiency of human-machine collaboration, and exploring a better allocation model. The multimodal intelligent interaction will become the mainstream form of human-unmanned cluster interaction in the future, and the combined multi-channel information exchange will change the way for operators to interact with the accusation system, realizing the efficient human-unmanned cluster interaction. The situational awareness is a challenge for the future intelligent battlefield, and human-machine collaboration has laid the foundation for research in the field of intelligent situational awareness.
military; human-machine collaboration; human-machine cooperation
TB472
A
1001-3563(2023)10-0024-16
10.19554/j.cnki.1001-3563.2023.10.003
2023–01–14
鈕建偉(1977—),男,博士,教授,主要研究方向?yàn)槿藱C(jī)混合智能、人機(jī)工程、人機(jī)協(xié)作。
責(zé)任編輯:馬夢(mèng)遙