李 超
(1.銅陵職業(yè)技術(shù)學(xué)院 信息工程系,安徽 銅陵 244000;2.合肥工業(yè)大學(xué) 計(jì)算機(jī)與信息學(xué)院,安徽 合肥 230001)
隨著智能圖像數(shù)據(jù)庫的融合發(fā)展,需要設(shè)計(jì)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索方法,采用大數(shù)據(jù)信息分布式存儲技術(shù)實(shí)現(xiàn)對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的信息存儲結(jié)構(gòu)分析和檢索,建立分布式的數(shù)據(jù)存儲和檢索結(jié)構(gòu)模型,提高多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的特征分析和信息調(diào)度能力.結(jié)合分辨多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的稀疏性特征分析結(jié)果,通過混合編碼和參數(shù)分析,采用模糊信息融合方法,實(shí)現(xiàn)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索和特征分析[1].
對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索是建立在對視頻圖像的自適應(yīng)傳輸分析和優(yōu)化控制基礎(chǔ)上,在超分辨多媒體數(shù)據(jù)庫中,采用混合預(yù)編碼方法,實(shí)現(xiàn)視頻元數(shù)據(jù)的紋理分布區(qū)域檢測,結(jié)合數(shù)據(jù)庫檢索技術(shù)[2],進(jìn)行多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的信息檢索,通過建立多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的特征信息檢測模型,采用多維參數(shù)融合調(diào)度,進(jìn)行多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的個(gè)性化參數(shù)融合和量化碼元檢測[3],提高多媒體數(shù)據(jù)庫的自適應(yīng)匹配能力.傳統(tǒng)方法中,多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索方法主要有基于模糊度檢測的多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索方法、基于特征向量融合的多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索方法等[4],文獻(xiàn)[5]中提出基于深度卷積神經(jīng)網(wǎng)絡(luò)的多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索方法,構(gòu)建圖像的退化模型,進(jìn)行多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的稀疏性特征分解,設(shè)計(jì)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)采集模型,但該方法的計(jì)算負(fù)載較高.文獻(xiàn)[6]中提出基于小波特征分解的多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索方法,結(jié)合對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)分析和特征融合,采用小波多尺度分解,實(shí)現(xiàn)圖像量化碼元特征檢測和檢索,但該方法的模糊度較大,檢索的精準(zhǔn)度不高.
針對上述問題,本文提出基于支持向量機(jī)的視頻元數(shù)據(jù)信息快速檢索方法.首先構(gòu)建多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的像素大數(shù)據(jù)檢測模型,根據(jù)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的哈希編碼結(jié)果實(shí)現(xiàn)信息重組,根據(jù)信息重組結(jié)構(gòu),然后采用支持向量機(jī)算法,實(shí)現(xiàn)對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的信息融合聚類分析,建立視頻元數(shù)據(jù)信息快速檢索的像素通道,根據(jù)對視頻元數(shù)據(jù)信息的邊緣像素特征分布式融合和視頻序列重組方法,實(shí)現(xiàn)視頻元數(shù)據(jù)信息快速檢索.最后進(jìn)行仿真測試分析,展示了本文方法在提高多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索能力方面的優(yōu)越性能.
為了實(shí)現(xiàn)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索,結(jié)合語義特征分析和融合調(diào)度方法,構(gòu)建多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的特征匹配模型[7],令k(y)為多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的粗糙集特征量,根據(jù)特征層的信息融合匹配結(jié)果,采用深度Hash編碼算法,對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)進(jìn)行深度特征檢測,計(jì)算每個(gè)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的梯度值,利用數(shù)據(jù)的內(nèi)在稀疏性[8],得到深度Hash編碼收斂值為:
(1)
其中,m(t)表示多媒體數(shù)據(jù)庫混合預(yù)編碼特征集之間的相關(guān)性參數(shù),K為隨機(jī)像素的尺度,j(a,b)的混合預(yù)編碼視頻元數(shù)據(jù)的幀序列矩陣,根據(jù)混合預(yù)編碼視頻元數(shù)據(jù)的參數(shù)融合結(jié)果,當(dāng)(k≠1,y≠0,1≤j≤2),得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的聯(lián)合特征分布集表示為:
krd=[1-c(ra+va)]i
(2)
其中,ra為多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)語義分布的源信息,va為混合預(yù)編碼視頻元數(shù)據(jù)的聯(lián)合分布特征量,c為稀疏表示分類模型基函數(shù).設(shè)i∈1,2,3,讀入第一幀多媒體數(shù)據(jù)庫混合預(yù)編碼視頻,結(jié)合多媒體數(shù)據(jù)庫混合預(yù)編碼視頻編碼,得到輸出的模糊特征碼元序列為:
(3)
對采集的多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的像素信息進(jìn)行結(jié)構(gòu)重組,提取多視圖屬性編碼特征分布集,采用支持向量機(jī)算法實(shí)現(xiàn)對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索[9],根據(jù)深度特征加權(quán)訓(xùn)練,得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)加權(quán)聚合輸出函數(shù)表示為:
(4)
其中hc為多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)加權(quán)聚合的形態(tài)學(xué)函數(shù),i=0,1,…,N-1為像素點(diǎn)集合,tc為稀疏散亂點(diǎn)集,得到稀疏表達(dá)特征分布聚合輸出為G:
G=t{Fc(o,p,q)}s
(5)
其中:Fc(o,p,q)是多視圖屬性編碼圖像教學(xué)資源的第t幀的關(guān)聯(lián)像素值,s為輸出幅值,構(gòu)建多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的語義關(guān)聯(lián)分布模型,得到輸出檢索軌跡分布:
(6)
其中,ace表示多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的融合參數(shù),由此得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的迭代函數(shù)為:
(7)
其中:w(r,e)是訓(xùn)練視頻的幀分布集,得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索輸出聚類矩陣為:
(8)
其中:lcb(c)是多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的特征匹配系數(shù),lc(t)和lc(v)分別為不同聚合方向上多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的像素分量[10].
圖1 多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)支持向量機(jī)編碼模型
對采集的分辨多媒體數(shù)據(jù)庫混合預(yù)編碼進(jìn)行稀疏度特征分解,根據(jù)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的哈希編碼結(jié)果實(shí)現(xiàn)信息重組,根據(jù)信息重組結(jié)構(gòu),構(gòu)建支持向量機(jī)編碼模型,如圖1所示.
采用簇聚類分析方法,得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的聚類中心為rb與rc,采用復(fù)雜度表示數(shù)據(jù)的結(jié)構(gòu)稀疏度[11],得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的可靠性匹配度為md,提取多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的角點(diǎn)信息,由粗到精的層次化對齊機(jī)制表示為:
Ar=c2(c)-rb(cos-1α+sin-1β)
(9)
Br=d2(d)-rc(cos-1ε+sin-1β)sc1
(10)
其中,c2(c)為多媒體數(shù)據(jù)庫混合預(yù)編碼特征分量,d2(d)為高斯混合稀疏特征分布采集時(shí)間間隔,α為聯(lián)合分量,β為馬氏距離的核矩陣,ε為距離度量參數(shù),sc1為加權(quán)系數(shù).通過多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的語義信息檢測結(jié)果,根據(jù)多視圖屬性編碼圖像的不變矩特征分析結(jié)果,得到向量機(jī)回歸模型泛化模型參數(shù)為:
(11)
其中h(h1,h2,...,hn)為到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的離散序列,zb為最大似然估計(jì)迭代函數(shù).
對采集的多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的像素信息進(jìn)行結(jié)構(gòu)重組,根據(jù)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的哈希編碼結(jié)果實(shí)現(xiàn)信息重組,根據(jù)信息重組結(jié)構(gòu)[12],采用支持向量機(jī)算法,提取多媒體數(shù)據(jù)庫混合預(yù)編碼視頻的幀重組序列,得到魯棒多模態(tài)多變量稀疏特征量分別表示為:
Q=Tk(j1+w1)
(12)
(13)
其中,j1為多媒體數(shù)據(jù)庫混合預(yù)編碼視頻的采樣長度,w1為視頻序列的碼元分布間隔,Tk為最大采樣時(shí)長.
分析字典中的列向量,構(gòu)建多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的均值分割模型,表示為:
R=(wrt-v)2,v∈0,1
(14)
其中:v是混合特征分布式采樣序列,wrt為系數(shù)向量串聯(lián)構(gòu)成的時(shí)延參數(shù).
構(gòu)建多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的三維RGB信息重組模型,得到聯(lián)合量測分量為Nl,計(jì)算公式為:
(15)
其中,gmtcl(gm-gn)表示多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的Retinex角點(diǎn)參數(shù)值,oc為高斯混合稀疏特征量.建立視頻元數(shù)據(jù)信息快速檢索的像素通道,根據(jù)對視頻元數(shù)據(jù)信息的邊緣像素特征分布式融合和視頻幀序列重組方法[13],得到綜合特征參數(shù)為ko={0,1,…,n},ui≠0,多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢測輸出結(jié)果:
Tcg=(ko)ui+Z(zf,zt)bf
(16)
其中,Z(zf,zt)表示多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)融合的適應(yīng)度參量,bf表示最小化增廣拉格朗日函數(shù),bf>0,由此實(shí)現(xiàn)對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的融合檢索,實(shí)現(xiàn)流程如圖2所示.
為了驗(yàn)證本文方法在實(shí)現(xiàn)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索中的應(yīng)用性能,采用Matlab進(jìn)行仿真測試分析,設(shè)定多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的訓(xùn)練樣本數(shù)為2 800,測試集為480,模糊訓(xùn)練迭代步數(shù)為240,數(shù)據(jù)信息檢索的尺度為0.722,其它參數(shù)設(shè)定見表1.
圖2 算法優(yōu)化實(shí)現(xiàn)流程
根據(jù)上述參數(shù)設(shè)定,進(jìn)行多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索,取其中一組樣本,得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)樣本如圖3所示.
以圖3的視頻元數(shù)據(jù)信息為樣本對象,實(shí)現(xiàn)多媒體數(shù)據(jù)庫混合預(yù)編碼,輸出如圖4所示.檢索結(jié)果輸出如圖5所示.
圖3 視頻元數(shù)據(jù)信息檢索樣本
圖4 多媒體數(shù)據(jù)庫視頻元數(shù)據(jù)的混合預(yù)編碼
圖5 檢索結(jié)果輸出
分析上述仿真結(jié)果得知,采用本文方法能有效實(shí)現(xiàn)對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索,檢索輸出性能較好,測試多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的性能,以查準(zhǔn)率的對比結(jié)果見表2和圖6,分析表2和圖6結(jié)果得知,本文方法進(jìn)行多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的查準(zhǔn)率較高.
表2 多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)信息檢索性能對比
圖6 檢索精度對比
構(gòu)建優(yōu)化的多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索模型,結(jié)合多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)分布特征,實(shí)現(xiàn)對多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索和共享.提出基于支持向量機(jī)的視頻元數(shù)據(jù)信息快速檢索方法.構(gòu)建多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)的像素大數(shù)據(jù)檢測模型,讀入第一幀多媒體數(shù)據(jù)庫混合預(yù)編碼視頻,結(jié)合多媒體數(shù)據(jù)庫混合預(yù)編碼視頻編碼,根據(jù)深度特征加權(quán)訓(xùn)練,得到多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)加權(quán)聚合輸出.計(jì)算每個(gè)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)像素的梯度值,實(shí)現(xiàn)多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索.研究得知,本文方法進(jìn)行多媒體數(shù)據(jù)庫混合預(yù)編碼視頻元數(shù)據(jù)檢索的精度較高.