蘇志東 楊觀賜 李楊 王懷豹
摘 要:針對(duì)現(xiàn)有服務(wù)機(jī)器人無(wú)法自主感知用戶(hù)膳食構(gòu)成的問(wèn)題,提出了基于服務(wù)機(jī)器人聽(tīng)覺(jué)的個(gè)體膳食構(gòu)成自主感知算法(AIDCPA)。首先,利用了基于梅爾頻率倒譜系數(shù)和矢量量化算法的聲紋識(shí)別方法識(shí)別出了說(shuō)話人身份,并運(yùn)用中文分詞、詞性標(biāo)注和依存句法分析工具獲取語(yǔ)音識(shí)別所得文本數(shù)據(jù)的語(yǔ)言特征;然后,給出了基于一階謂詞邏輯理論的推理定義和描述,提出了飲食組成獲取的推理算法,進(jìn)而形成了基于服務(wù)機(jī)器人聽(tīng)覺(jué)的個(gè)體膳食構(gòu)成自主感知算法。為了評(píng)估AIDCPA算法性能,在服務(wù)機(jī)器人平臺(tái)中實(shí)現(xiàn)了AIDCPA算法,并構(gòu)建了訓(xùn)練和測(cè)試數(shù)據(jù)集。測(cè)試結(jié)果表明:系統(tǒng)感知飲食組成的F1值、精確度與召回率的均值分別為0.9491,0.9679和0.9407,有較強(qiáng)的感知魯棒性。
關(guān)鍵詞:膳食構(gòu)成感知;機(jī)器人聽(tīng)覺(jué);文本信息抽取;服務(wù)機(jī)器人
中圖分類(lèi)號(hào):TP181
文獻(xiàn)標(biāo)識(shí)碼: A
隨著人口老齡化問(wèn)題的日益嚴(yán)重,越來(lái)越多的獨(dú)居老人需要照顧[1],護(hù)老、助老等家庭服務(wù)機(jī)器人深受?chē)?guó)內(nèi)外學(xué)者關(guān)注。為了識(shí)別老年人摔倒,Do等人提出了RiSH服務(wù)機(jī)器人平臺(tái),集成了服務(wù)機(jī)器人、智能家居設(shè)備和可穿戴設(shè)備,能對(duì)跌倒老人及時(shí)實(shí)施救助[2]。為了給老年人提供一種更便捷的人機(jī)交互方式,劉策等人提出了一種集成語(yǔ)音識(shí)別、遠(yuǎn)程控制、人臉識(shí)別、手勢(shì)識(shí)別等交互模式的人機(jī)交互方法,并提高了交互速度,消除了對(duì)網(wǎng)絡(luò)的依賴(lài)性[3]。為了應(yīng)對(duì)年齡增長(zhǎng)后記憶力衰退的情況,文獻(xiàn)[4]提出了一種基于家庭服務(wù)機(jī)器人的大腦訓(xùn)練方法。通過(guò)調(diào)查老年人的生理特征和心理特征,有研究從馬斯洛需求理論出發(fā),提出了一種側(cè)重于符合用戶(hù)感情需要的服務(wù)機(jī)器人系統(tǒng),讓機(jī)器人提供服務(wù)更加人性化[5]。為了增強(qiáng)老年人的體質(zhì),降低老年人摔倒的風(fēng)險(xiǎn),文獻(xiàn)[6]提出了利用機(jī)器人視覺(jué)系統(tǒng)識(shí)別和跟蹤用戶(hù)行為的方法,通過(guò)提供相關(guān)的練習(xí)和反饋來(lái)激勵(lì)用戶(hù)的訓(xùn)練。Zhou等人提出了一種基于服務(wù)機(jī)器人的遠(yuǎn)程醫(yī)療系統(tǒng),該系統(tǒng)將家庭成員和醫(yī)生建立連接,利用自動(dòng)健康數(shù)據(jù)采集技術(shù)和目標(biāo)檢測(cè)算法實(shí)現(xiàn)遠(yuǎn)程護(hù)理[7]。Fernandes等人構(gòu)建了老年人認(rèn)知評(píng)估服務(wù)機(jī)器人平臺(tái),通過(guò)分析使用者的答案,了解他們的認(rèn)知狀態(tài),為醫(yī)生診斷使用者的健康狀況提供依據(jù)[8]。
有研究表明[9]:科學(xué)合理的飲食不僅有利于保持身體健康,也對(duì)疾病的治療有著非常重要的作用。文獻(xiàn)[10,11]提供了一種方法來(lái)獲取用戶(hù)的飲食信息,該方法通過(guò)監(jiān)聽(tīng)進(jìn)食的聲音判斷當(dāng)前用戶(hù)是否吃食物以及所吃食物類(lèi)別。但是在家庭環(huán)境下,進(jìn)食聲音通常較小,麥克風(fēng)較難捕獲大多數(shù)的進(jìn)食聲音,并且多數(shù)進(jìn)食聲音較難分辨,例如喝水的聲音、喝牛奶的聲音、飲啤酒的聲音等。
整體上,當(dāng)前的服務(wù)機(jī)器人雖然能夠借助可穿戴設(shè)備等傳感器采集用戶(hù)的部分健康數(shù)據(jù),但通過(guò)機(jī)器人聽(tīng)覺(jué)或者視覺(jué)自主感知用戶(hù)飲食信息的研究有待深入研究。本文研究基于服務(wù)機(jī)器人聽(tīng)覺(jué)的個(gè)體膳食構(gòu)成自主感知算法,當(dāng)機(jī)器人聽(tīng)到用戶(hù)表達(dá)時(shí),自主對(duì)其表達(dá)內(nèi)容進(jìn)行處理,最終獲取相應(yīng)的飲食信息,從而實(shí)現(xiàn)對(duì)用戶(hù)膳食構(gòu)成的智能感知,為用戶(hù)醫(yī)療診斷、飲食干預(yù)和機(jī)器人的主動(dòng)服務(wù)等提供決策依據(jù)。
1 基于梅爾頻率倒譜系數(shù)與矢量量化算法的聲紋識(shí)別方法
考慮到家庭成員不止一個(gè),準(zhǔn)確地識(shí)別說(shuō)話人的身份是實(shí)現(xiàn)飲食信息準(zhǔn)確感知的前提。為了利用聲紋辨識(shí)說(shuō)話人的身份,本文采用39維的梅爾頻率倒譜系數(shù)[12](Mel Frequency Cepstrum Coefficient, MFCC)作為聲紋識(shí)別算法的特征向量,選取計(jì)算量較小、運(yùn)行速度快且識(shí)別效果較好的矢量量化模型[13] (Vector Quantization, VQ)作為聲紋分類(lèi)模型(MFCC-VQ)。
2 基于服務(wù)機(jī)器人聽(tīng)覺(jué)的個(gè)體膳食構(gòu)成自主感知算法
2.1 文本語(yǔ)言特征獲取與詞庫(kù)構(gòu)建
當(dāng)機(jī)器人通過(guò)聽(tīng)覺(jué)系統(tǒng)獲得聽(tīng)覺(jué)信息后,即可運(yùn)用語(yǔ)音識(shí)別方法獲得所聽(tīng)到內(nèi)容的文本信息。為了理解文本信息所表達(dá)的內(nèi)容,本文通過(guò)采用哈工大LTP[14]系統(tǒng)的中文分詞、詞性標(biāo)注和依存句法分析工具對(duì)文本數(shù)據(jù)進(jìn)行處理,獲取文本語(yǔ)言特征(最小語(yǔ)言單位、詞性、語(yǔ)言單位間的依存關(guān)系)作為下文個(gè)體膳食構(gòu)成自主感知算法的輸入特征。
考慮到用戶(hù)表達(dá)的飲食文本中存在著大量的水果、蔬菜、成品菜、奶類(lèi)、肉類(lèi)等專(zhuān)業(yè)詞匯,僅僅依靠分詞系統(tǒng)LTP中的通用詞典難以對(duì)食物名稱(chēng)準(zhǔn)確識(shí)別。因此本文參考《中華人民共和國(guó)國(guó)家標(biāo)準(zhǔn) GB 2760-2014》[15]中附錄E的食物分類(lèi)系統(tǒng)以及利用網(wǎng)絡(luò)爬蟲(chóng)技術(shù),構(gòu)建了具有1563個(gè)日常生活中常見(jiàn)的食物名詞庫(kù)。
之后,將新建的食物名詞庫(kù)與所用的中文分詞工具中的默認(rèn)詞典進(jìn)行融合并去除重復(fù)的名詞,構(gòu)成食物名詞相對(duì)完善的新分詞詞典Lexicon。
2.2 個(gè)體膳食構(gòu)成獲取方法
對(duì)于機(jī)器人監(jiān)聽(tīng)獲取的語(yǔ)音信息中關(guān)于膳食信息的描述主要分為兩個(gè)方面。一個(gè)方面,說(shuō)話者的表達(dá)內(nèi)容可能與“吃”相關(guān)但實(shí)際上并未攝入該食物,例如“我愛(ài)吃超市買(mǎi)的蘋(píng)果”、“喜歡吃蘋(píng)果”、“現(xiàn)在非常想吃蘋(píng)果”等,雖然這些表達(dá)都包含進(jìn)食動(dòng)作與相對(duì)應(yīng)的食物名稱(chēng),但是實(shí)際上說(shuō)話人只是表達(dá)了一種喜好或偏愛(ài),并沒(méi)有攝入該食物。另一個(gè)方面,說(shuō)話者表達(dá)的內(nèi)容是飲食信息之外的其它信息卻能間接反映食物攝入記錄。為了確定飲食組成,確定進(jìn)食行為是否真的發(fā)生是一個(gè)關(guān)鍵因素,因此首先需要確定進(jìn)食動(dòng)作是否真正發(fā)生,然后基于所發(fā)生的進(jìn)食動(dòng)作進(jìn)行食物信息抽取,從而獲得用戶(hù)的飲食信息。為了描述的直觀性和方便,我們引入一階謂詞邏輯理論描述推理計(jì)算邏輯。
2.2.1 面向謂詞邏輯推理的語(yǔ)言單元定義
令sentence={word1,word2,…,wordi,…,wordN}表示語(yǔ)言單元集合,該集合是單個(gè)用戶(hù)的飲食表達(dá)內(nèi)容的中文分詞結(jié)果,其中wordi為分詞后的語(yǔ)言單位,N為飲食表達(dá)內(nèi)容中語(yǔ)言單位的個(gè)數(shù)。
記Veat={“吃”,“喝”,“享用”,“品嘗”,“嘗”,“品”,“來(lái)”,“試”}為表示動(dòng)作特征詞單元集,其元素能夠表達(dá)進(jìn)食的含義。
記Vnegative={“想”,“喜歡”,“愛(ài)”,“喜愛(ài)”,“沒(méi)有”,“沒(méi)”,“不”,“討厭”,“厭惡”,“反感”}為進(jìn)食動(dòng)作否定詞集合,其元素表達(dá)喜歡、意愿、好惡等含義。當(dāng)一段句子中出現(xiàn)Veat中的元素,并且在該元素前出現(xiàn)Vnegative中的元素時(shí),根據(jù)語(yǔ)言表達(dá)習(xí)慣可以判定進(jìn)食動(dòng)作未發(fā)生。
記Venhance={“了”, ”的”}為表達(dá)動(dòng)作已經(jīng)完成的語(yǔ)言單元集合。
記Vcuisine ={“炒”, “爆炒”, “蒸”, “清蒸”, “煮”, “炸”, “油炸”,“燉”, “煎”, “油煎”,“醋溜”,“烤”, “燒”, “涼拌”,“拌”, “燜”}為表示烹飪方式的語(yǔ)言單元集合。
記Wcomment={“味道”, “好吃”, ”難吃”, ”有味”}為表示暗含進(jìn)食行為的語(yǔ)言單元集合。
記Wjump={“閉門(mén)羹”, “虧”,? “啞巴虧”}為表達(dá)可以與“吃”相配合出現(xiàn)的欺騙性語(yǔ)言單元集合。
同時(shí),假設(shè)Tword-1,Tword和Tword+1∈sentence為相鄰的語(yǔ)言單元?;谥形恼Z(yǔ)言表達(dá)模式,當(dāng)Tword∈Veat時(shí),可以判斷用戶(hù)的表達(dá)內(nèi)容可能具有吃了某種食物的含義。因此,通過(guò)判斷Tword-1與Vnegative之間的關(guān)系和Tword+1與Venhance之間的關(guān)系,我們可以判斷說(shuō)話人“吃”這個(gè)動(dòng)作是否真正發(fā)生,進(jìn)而判斷說(shuō)話人真實(shí)的進(jìn)食構(gòu)成。如果Tword∈sentence且Tword-1∈Vnegative,則可以判斷Tword并未表達(dá)真實(shí)吃這個(gè)動(dòng)作;如果Tword∈sentence,Tword-1∩Vnegative=且Tword+1∈Venhance,則可以判斷Tword真實(shí)表達(dá)了吃這個(gè)動(dòng)作。
2.2.2 基于一階謂詞邏輯理論的邏輯推理
根據(jù)上述定義和分析,利用一階謂詞邏輯理論,建立公式(1)所示的謂詞邏輯推理公式判斷“吃”這個(gè)動(dòng)作是否發(fā)生。
3 性能測(cè)試分析
3.1 服務(wù)機(jī)器人平臺(tái)
圖1為課題組搭建的服務(wù)機(jī)器人平臺(tái)(MAT)[16],包括Intel NUC主機(jī)、數(shù)據(jù)采集設(shè)備和機(jī)械支架等部分組成。用于顯示數(shù)據(jù)和圖像的顯示屏是7.9寸IPad mini 4顯示屏;聽(tīng)覺(jué)系統(tǒng)采用科大訊飛六麥環(huán)形麥克風(fēng)陣列板,其具有聲源定位、回聲消除、噪聲過(guò)濾等功能,用以實(shí)現(xiàn)對(duì)音頻信號(hào)的采集;視覺(jué)系統(tǒng)采用的是Microsoft Kinect V2深度攝像頭,用于采集RGB彩色圖像;服務(wù)機(jī)器人主機(jī)為Intel NUC mini主機(jī),配置i7-6770HQ處理器和Intel IRIS Pro顯卡;移動(dòng)底盤(pán)為EAI DashGO B1。服務(wù)機(jī)器人主機(jī)采用Ubuntu16.04操作系統(tǒng),并在系統(tǒng)中安裝了Kinect版本ROS(Robot Operation System)系統(tǒng)、TensorFlow CPU版本深度學(xué)習(xí)框架和OpenCV3.3.0。采用DELL TOWER 5810工作站降低服務(wù)機(jī)器人的運(yùn)算負(fù)荷,主要用于模型訓(xùn)練
圖1 服務(wù)機(jī)器人平臺(tái)
Fig.1 The used social robot platform
和數(shù)據(jù)分析。工作站采用Ubuntu16.04操作系統(tǒng),并在系統(tǒng)中安裝了Kinect版本ROS(Robot Operation System)系統(tǒng)、TensorFlow GPU版本深度學(xué)習(xí)框架和OpenCV3.3.0。服務(wù)機(jī)器人與工作站均具有無(wú)線通信模塊,用于端到端的通信。課題組運(yùn)用Python語(yǔ)言在此機(jī)器人平臺(tái)上實(shí)現(xiàn)了AIDCPA算法。
3.2 訓(xùn)練與測(cè)試數(shù)據(jù)集
3.2.1 聲紋識(shí)別系統(tǒng)的訓(xùn)練數(shù)據(jù)
為了使訓(xùn)練完成的聲紋識(shí)別模型在真實(shí)應(yīng)用場(chǎng)景下具有較好的表現(xiàn),本文直接利用MAT服務(wù)機(jī)器人的六麥環(huán)形麥克風(fēng)陣列收集訓(xùn)練語(yǔ)音數(shù)據(jù)。該訓(xùn)練數(shù)據(jù)集涉及20人,每人通過(guò)朗讀給定的文本信息,錄制收集30條語(yǔ)音數(shù)據(jù),每一條語(yǔ)音數(shù)據(jù)持續(xù)10 s。
3.2.2 膳食構(gòu)成感知算法的測(cè)試數(shù)據(jù)
為了測(cè)試算法的性能,建立了測(cè)試語(yǔ)音數(shù)據(jù)集。此數(shù)據(jù)集的文本內(nèi)容包括以下兩種類(lèi)型:
1)類(lèi)別a:依據(jù)中文語(yǔ)言表達(dá)習(xí)慣而設(shè)計(jì)的文本。此類(lèi)數(shù)據(jù)共100條樣本數(shù)據(jù),涉及六種情境,具體為:(a)直接說(shuō)明進(jìn)食內(nèi)容;(b)表達(dá)出想吃/打算吃/渴望吃某些食物;(c)混合了(a)與(b)的表達(dá)方式;(d)具有暗示性的進(jìn)食內(nèi)容表達(dá);(e)具有較多冗余表達(dá)的進(jìn)食表達(dá);(f)欺騙性的語(yǔ)言表達(dá)方式。
2)類(lèi)別b:在線收集的文本。30名參與者根據(jù)自己的說(shuō)話習(xí)慣,在線提交了表述用餐情況的數(shù)據(jù),共收集樣本120個(gè)。經(jīng)刪除無(wú)效數(shù)據(jù),保留了100條樣本數(shù)據(jù)。該類(lèi)數(shù)據(jù)體現(xiàn)了真實(shí)生活場(chǎng)景的表達(dá)情況,表達(dá)方式多樣,具有較大隨意性,主要用于考查算法的魯棒性。
之后,為了便于測(cè)試,從3.2.1節(jié)聲紋識(shí)別系統(tǒng)的20人中隨機(jī)選取3人,分別用普通話按平時(shí)說(shuō)話的方式說(shuō)出a和b兩類(lèi)數(shù)據(jù)的文本信息,從而錄制獲得測(cè)試語(yǔ)音數(shù)據(jù)。測(cè)試語(yǔ)音數(shù)據(jù)的總長(zhǎng)度為32 min 23 s,包括200個(gè)句子和1035個(gè)食物實(shí)體名詞。后文測(cè)試時(shí),模擬人說(shuō)話的方式播放測(cè)試數(shù)據(jù)。
3.3 評(píng)價(jià)標(biāo)準(zhǔn)
當(dāng)所獲取的食物名詞與人工標(biāo)注的標(biāo)簽相匹配,同時(shí)與相應(yīng)的身份信息相匹配時(shí),則判定該食物名詞被正確識(shí)別。本系統(tǒng)的識(shí)別結(jié)果中存在樣本中標(biāo)簽數(shù)目為零或者識(shí)別出來(lái)的食物名詞數(shù)目為零的情況,記Nt為一個(gè)樣本中手工標(biāo)注的標(biāo)簽食物數(shù)目,Nr為系統(tǒng)所識(shí)別出的食物構(gòu)成數(shù)目,Nc為系統(tǒng)所識(shí)別出的食物與手工標(biāo)注樣本的食物所匹配的食物數(shù)目。召回率R、精確度P與F1評(píng)價(jià)指標(biāo)[17]用于評(píng)價(jià)系統(tǒng)的性能。
觀察表1可知:1)a類(lèi)數(shù)據(jù)F1值均值為09505,方差為0.0118,具有較高的F1值均值,并且方差較小,說(shuō)明系統(tǒng)對(duì)本文所考慮的語(yǔ)言表達(dá)模式能夠以較大的概率正確識(shí)別出飲食信息;2)由于b類(lèi)測(cè)試數(shù)據(jù)收集于30名不同的大學(xué)生,具有較大的隨意性和不確定性,使得b類(lèi)測(cè)試數(shù)據(jù)對(duì)應(yīng)的測(cè)試結(jié)果比a類(lèi)測(cè)試數(shù)據(jù)稍微差一些, F1值均值下降了0.0028,F(xiàn)1值的方差值上升了0.0215,這表明不同的語(yǔ)言表達(dá)方式對(duì)系統(tǒng)的識(shí)別性能有一定的影響。但F1值均值與方差值變化幅度不大,這表明系統(tǒng)具有良好的魯棒性,在模擬真實(shí)生活場(chǎng)景的測(cè)試數(shù)據(jù)中仍然具有較好的識(shí)別效果; 3)a、b兩類(lèi)測(cè)試數(shù)據(jù)的平均F1值、精確率P和召回率R分別為0.9491,0.9679和0.9407,精確度P值比召回率R值高出0.0272,根據(jù)精確度和召回率的定義可以看出,系統(tǒng)所識(shí)別出的食物數(shù)目略少于所標(biāo)注的食物數(shù)目。由于不同說(shuō)話人口音、語(yǔ)音識(shí)別系統(tǒng)準(zhǔn)確率、中文分詞以及推理算法等因素的影響,會(huì)導(dǎo)致系統(tǒng)所識(shí)別出的食物數(shù)目少于所標(biāo)注的食物數(shù)目,進(jìn)而使得精確度P值高于召回率R值。
觀察圖2可知:1)圖2(a) 中F1值的統(tǒng)計(jì)盒圖中位線均處于1.0位置,a類(lèi)數(shù)據(jù)矩形面積較小,b類(lèi)數(shù)據(jù)矩形面積為零,說(shuō)明系統(tǒng)對(duì)這兩類(lèi)數(shù)據(jù)均具有較好的識(shí)別效果。同時(shí)兩類(lèi)數(shù)據(jù)的異常值的分布較為分散,大部分均分布在0.7以上,且b類(lèi)數(shù)據(jù)比a類(lèi)數(shù)據(jù)具有更多且更分散的異常值,這表明雖然系統(tǒng)在整體上具有良好的識(shí)別效果,但是由于語(yǔ)言表達(dá)的隨意性等特點(diǎn),對(duì)于少部分測(cè)試數(shù)據(jù),系統(tǒng)需要進(jìn)一步完善。2)從圖2(b)和圖2(c)可以看出,兩類(lèi)數(shù)據(jù)的P值和R值均存在少量的離群點(diǎn),但是大部分離群點(diǎn)處于0.6以上,其中a類(lèi)數(shù)據(jù)的大部分離群點(diǎn)處于0.8以上,b類(lèi)數(shù)據(jù)離群點(diǎn)分布比a類(lèi)數(shù)據(jù)具有更大的離散性,b類(lèi)數(shù)據(jù)來(lái)源的多樣性導(dǎo)致了這種離散性。但是這并未影響系統(tǒng)整體性能,兩類(lèi)數(shù)據(jù)的中位線均處于1.0位置,且矩形面積非常小,這表明即使測(cè)試數(shù)據(jù)存在較大的隨意性,系統(tǒng)仍然具有較好的識(shí)別性能。
綜上可知,對(duì)于所考慮的語(yǔ)言表達(dá)模式以及模擬真實(shí)場(chǎng)景隨機(jī)收集的語(yǔ)言表達(dá),AIDCPA算法的F1值、精確度與召回率的均值分別為0.9491,09679和0.9407,能以較高的準(zhǔn)確率感知用戶(hù)的飲食信息,具有良好的識(shí)別效果和魯棒性。
4 結(jié)束語(yǔ)
機(jī)器人智能的感知用戶(hù)膳食構(gòu)成,可為居家養(yǎng)老提供智能裝備支持。本文正是針對(duì)機(jī)器人所監(jiān)聽(tīng)到的語(yǔ)音信息,提出了基于服務(wù)機(jī)器人聽(tīng)覺(jué)的個(gè)體膳食構(gòu)成自主感知算法。通過(guò)運(yùn)用聲紋識(shí)別方法獲取說(shuō)話人身份后,可以利用所設(shè)計(jì)的食物獲取推理算法,就可以建立用戶(hù)的飲食信息數(shù)據(jù)庫(kù),這可為醫(yī)療診斷、飲食干預(yù)和機(jī)器人的主動(dòng)服務(wù)等提供決策依據(jù),有利于服務(wù)老年人生活。下一步工作將考慮環(huán)境以及說(shuō)話人口音等因素對(duì)算法性能的影響,進(jìn)一步提高算法的魯棒性和識(shí)別的準(zhǔn)確率。
參考文獻(xiàn):
[1]Jiaming Z, Xiaoyun L. The Status Quo of and Development Strategies for Healthcare Towns Against the Background of Aging Population[J]. Journal of Landscape Research, 2018(10):41-44.
[2]Do H M, Pham M, Sheng W, et al. RiSH: A robot ̄integrated smart home for elderly care[J]. ROBOT AUTON SYST,2018(101):74-92.
[3]劉策, 劉小峰. 助老服務(wù)機(jī)器人多模式友好交互系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J]. 電子測(cè)量與儀器學(xué)報(bào), 2019, 33(1):177-182.
[4]Ahn H, Seok S. Development of brain training games for a healthcare service robot for older people[J]. Lecture Notes in Computer Science, 2014(5): 1-10.
[5]王年文, 苑瑩. 老年人陪護(hù)機(jī)器人服務(wù)系統(tǒng)設(shè)計(jì)研究 [J]. 包裝工程, 2017, 38(18):72-76.
[6]Foukarakis M, Adami I, Ioannidi D, et al. A Robot ̄based Application for Physical Exercise Training [C]//Proc of International Conference on Information & Communication Technologies for Ageing Well & E ̄health. Heraklion,Greece: SciTePress, 2016:45-52.
[7]Zhou B, Wu K, Wang J, et al. A New Remote Health ̄Care System Based on Moving Robot Intended for the Elderly at Home[J]. Journal of Healthcare Engineering, 2018: 4949863.
[8]Francisco E F, Ha M D, Kiran M, et al. Cognitive orientation assessment for older adults using social robots [C]//Proc of IEEE International Conference on Robotics and Biomimetics. Macan, Macao: IEEE Press, 2017: 196-201.
[9] Zmora N, Suez J, Elinav E. You are what you eat: diet, health and the gut microbiota[J]. Nature Reviews Gastroenterology & Hepatology, 2019, 16(1): 35-56.
[10]Simone H, Felix W, Richard K, et al. I Hear You Eat and Speak: Automatic Recognition of Eating Condition and Food Type, Use ̄Cases, and Impact on ASR Performance [J]. PLOS ONE , 2016, 11(5):e0154486.
[11]Kaya H, Karpov A, Salah A A. Fisher vectors with cascaded normalization for paralinguistic analysis [C]//Pro of the 16th Annual Conference of the International Speech Communication Association Interspeech. Dresden, Germany:Research Gate,? 2015:909-913.
[12]Fang Z, Zhang G, Song Z. Comparison of Different Implementations of MFCC [J]. Journal of Computer Science and Technology, 2001(16):582-589.
[13]Gray R M. Vector Quantization[J]. Readings in Speech Recognition, 1990(1):75-100.
[14]Che W, Li Z, Liu T. LTP: A Chinese Language Technology Platform[C]//Proc of Proceedings of the Coling 2010:Demonstrations. Beijing:Association for Computational Linguistics, 2010:13-16.
[15]中華人民共和國(guó)國(guó)家衛(wèi)生和計(jì)劃生育委員會(huì).食品安全國(guó)家標(biāo)準(zhǔn)——食品添加劑使用標(biāo)準(zhǔn):GB 2760-2014[S]. 北京:中國(guó)標(biāo)準(zhǔn)出版社,2015.
[16]楊觀賜, 楊靜, 蘇志東, 等. 改進(jìn)的YOLO特征提取算法及其在服務(wù)機(jī)器人隱私情境檢測(cè)中的應(yīng)用[J]. 自動(dòng)化學(xué)報(bào), 2018, 44(12):2238-2249.
[17]Buckland M, Gey F. The relationship between Recall and Precision [J]. J. Am. Soc. Inf. Sci., 1994(45):12-19.
(責(zé)任編輯:曾 晶)