王上上 盛欣
摘 要:在數(shù)字媒體技術(shù)快速發(fā)展的背景下,可視媒體迎來(lái)新的發(fā)展機(jī)遇,其中可視媒體交互和合成技術(shù)是近年來(lái)的熱點(diǎn)問題。筆者將從交互編輯、畫質(zhì)增強(qiáng)與無(wú)縫合成三個(gè)角度討論可視媒體交互與合成技術(shù)的融合。
關(guān)鍵詞:可視媒體交互;交互編輯;畫質(zhì);無(wú)縫合成
0 前言
人類接受的信息有超過八成來(lái)自于視覺,因此基于圖像與視頻的可視媒體一直以來(lái)是信息傳播的重要載體。隨著可視媒體交互和合成技術(shù)的發(fā)展與融合,可以實(shí)現(xiàn)更加高效的交互編輯,考慮多種環(huán)境因素,完成高質(zhì)量合成目標(biāo)。
1 可視媒體交互編輯
目前可視媒體交互編輯主要采用圖像軟扣取、顯著性檢測(cè)等技術(shù)。其中軟扣取技術(shù)以三分圖的方式計(jì)算出未知區(qū)域透明度,從而實(shí)現(xiàn)精確提取。顯著性檢測(cè)技術(shù)基于視覺注意理論,以從下而上的估計(jì)方式自動(dòng)地提取出感興趣的對(duì)象。這些技術(shù)的應(yīng)用大大緩解人工交互的負(fù)擔(dān),降低編輯復(fù)雜程度,并可以達(dá)芙通提高提取精度,可視媒體交互編輯使資源處理更加高效。
1.1 混合式圖像軟摳取
軟摳取是從參數(shù)優(yōu)化角度實(shí)現(xiàn)感興趣對(duì)象精確提取的技術(shù),在此基礎(chǔ)上可以生產(chǎn)透明度信道,用于無(wú)縫合成。軟摳取技術(shù)屬于欠約束問題,由于求解時(shí)需要實(shí)現(xiàn)有效的估計(jì),因此軟摳取難度往往較大。目前國(guó)內(nèi)應(yīng)用較多的軟摳取方法包括閉形式與魯棒式兩類。前者基于局部平滑假設(shè),后者基于置信度評(píng)價(jià)。魯棒式軟摳取的關(guān)鍵性問題是解決平滑假設(shè)違背問題,顏色采樣錯(cuò)誤率高?;旌鲜綀D像軟處理是在上述兩種方式基礎(chǔ)上發(fā)展出的技術(shù),通過引進(jìn)優(yōu)化參數(shù),實(shí)現(xiàn)兩種方法優(yōu)勢(shì)的提取。三種軟摳取的結(jié)果對(duì)比如圖1所示??梢姴捎没旌鲜綋溉》椒ㄊ沟镁植科交`背問題和無(wú)效置信度評(píng)價(jià)均不再出現(xiàn)。
閉形式軟摳取的優(yōu)點(diǎn)在于連通誤差小,魯棒式軟摳取在絕對(duì)差和、平均平方誤差、梯度誤差與連通誤差四方面均表現(xiàn)較差,而混合式軟摳取絕對(duì)差和最小,且有更小的梯度誤差。
1.2 基于軟摳取相似度的圖像編輯傳播
圖像編輯傳播的方法得以為用戶提供直觀的交互接口,并進(jìn)行粗略編輯?;谙嗨贫饶P偷木庉媯鞑ゴ蠖嗖捎弥赶蛴诒粯?biāo)記的像素或者高相似度像素兩種編輯策略,而下文的基于軟摳取相似度的圖像編輯傳播能夠獲得完整的編輯圖,從而得到高水平表面特性調(diào)整,直觀上實(shí)現(xiàn)更佳亮度特性等。
基于軟摳取相似度的圖像編輯傳播的能量方程由數(shù)據(jù)項(xiàng)與傳播項(xiàng)兩項(xiàng)組成,分別對(duì)應(yīng)用戶標(biāo)記策略與高相似度策略。這種圖像編輯傳播方法可以處理界限模糊圖像,從而實(shí)現(xiàn)高質(zhì)量的圖像表面特性調(diào)整。
總而言之,交互編輯的最終目的是降低人工交互復(fù)雜程度,使媒體編輯的準(zhǔn)確度更高。
2 畫質(zhì)增強(qiáng)
可視媒體交互與合成技術(shù)融合下實(shí)現(xiàn)畫質(zhì)增強(qiáng)主要是基于銳度增強(qiáng)的,此技術(shù)的運(yùn)用能夠增加邊界區(qū)域?qū)Ρ榷?,還能夠加強(qiáng)細(xì)節(jié)的表現(xiàn)。利用去運(yùn)動(dòng)模糊技術(shù)可以估算得到模糊核,然后以反卷積技術(shù)實(shí)現(xiàn)結(jié)果的精確求解。提取可視媒體銳度特性和運(yùn)動(dòng)模糊并進(jìn)行相應(yīng)處理,能夠基本消除模糊去除問題,并改善調(diào)整問題,使媒體畫質(zhì)得到優(yōu)化。銳度增強(qiáng)技術(shù)與去運(yùn)動(dòng)模糊技術(shù)很好地滿足用戶的畫質(zhì)需求。
2.1 梯度域內(nèi)邊界保持的圖像銳度增強(qiáng)
所謂圖像銳度增強(qiáng)指的是使銳度特性得到提升的技術(shù),盡管銳度增強(qiáng)使所有像素均同步增強(qiáng),但是經(jīng)常受到噪聲的影響。Photoshop可以通過濾波器使銳度增強(qiáng),但是噪聲問題長(zhǎng)期困擾著用戶。本文提出的梯度域內(nèi)邊界保持的圖像銳度增強(qiáng)能夠緩解由于同步增強(qiáng)產(chǎn)生的噪聲,通過平滑的梯度變換保留邊界特征。此銳度增強(qiáng)流程分為銳度特征表示、梯度變換與圖像重構(gòu)三個(gè)步驟。第一部是將局部最大梯度像素作為特征像素,然而針對(duì)特征路徑上所有像素進(jìn)行初始化的梯度變換,最后通過構(gòu)建能量方程生成結(jié)果。系統(tǒng)流程最為關(guān)鍵的步驟是梯度變換過程,該過程直接影響邊界的質(zhì)量。
人們多以視覺的方式驗(yàn)證銳度增強(qiáng)效果,驗(yàn)證過程的準(zhǔn)確性很難保證。而基于銳度分布的評(píng)價(jià)模型客觀性更強(qiáng),通過此評(píng)價(jià)模型可以有效評(píng)價(jià)不同銳度增強(qiáng)方法的效果優(yōu)劣。第一步是根據(jù)計(jì)算特征路徑銳度的公式,估算出源圖像銳度特征,第二步計(jì)算不同銳度特征圖像銳度分布差異,最后一步是深入分析銳度分布差異。筆者曾對(duì)雙邊濾波器、拉普拉斯濾波器、顯著性濾波器進(jìn)行運(yùn)行性能的評(píng)測(cè),雙邊濾波器時(shí)間消耗最少。
2.2 面向高質(zhì)量圖像合成的銳度轉(zhuǎn)移
通常在圖像合成工作中,工作人員常常在消除源圖像和目標(biāo)圖像差異時(shí)遇到困難,其中邊界、銳度等因素差異的縮小可以大大提升合成質(zhì)量。通過實(shí)現(xiàn)銳度估計(jì)、梯度變換、圖像重建與無(wú)縫合成四個(gè)環(huán)節(jié)可以確保源圖像和目標(biāo)圖像銳度特征一致。
3 無(wú)縫合成
可視媒體交互與合成技術(shù)融合下的無(wú)縫合成可以借助于可視媒體克隆技術(shù)充分發(fā)揮邊界插值機(jī)制的作用,直接把感興趣的對(duì)象無(wú)縫合成至媒體中。無(wú)縫合成和黏貼合成技術(shù)有本質(zhì)差別,無(wú)縫合成更大程度地考慮周圍環(huán)境特征,從而實(shí)現(xiàn)風(fēng)格、畫質(zhì)、亮度、色調(diào)等方面的共同提升。
以往在進(jìn)行圖像無(wú)縫合成時(shí)常應(yīng)用泊松圖像克隆法,但是對(duì)場(chǎng)景要求高,否則光照與顏色差異大,除此之外,泊松克隆法還要求標(biāo)注邊界范圍的準(zhǔn)確性,因此基于顏色協(xié)調(diào)的無(wú)縫合成技術(shù)應(yīng)運(yùn)而生。這種圖像無(wú)縫合成方法第一步是摳取感興趣的對(duì)象,構(gòu)建過渡區(qū)域;第二步是通過梯度與軟摳取共同形成梯度;第三步把混合式引導(dǎo)向量以參數(shù)優(yōu)化的形式導(dǎo)入泊松克隆方程里?;旌蠀?shù)優(yōu)化是決定合成效果的重要因素,賦予混合參數(shù)0.4可以取得良好效果,同時(shí)提升源圖像與目標(biāo)圖像的顏色特性。通過軟摳取與泊松克隆的融合,可以有效解決失色現(xiàn)象,合成圖像過程中可以更好地與周圍環(huán)境相互匹配,從而表現(xiàn)更好的顏色特性,提高無(wú)縫合成質(zhì)量。在將可視媒體交互與合成技術(shù)融合的過程中,必須使源圖像與目標(biāo)圖像再畫質(zhì)、光照等特性方面實(shí)現(xiàn)統(tǒng)一性,基于均值坐標(biāo)克隆的框架可以避免出現(xiàn)邊界模糊的問題。
4 小結(jié)
目前可視媒體交互的發(fā)展仍然有許多瓶頸問題需要解決,本文通過對(duì)關(guān)鍵性技術(shù)的討論,對(duì)可視媒體交互和合成技術(shù)的融合理論完善與技術(shù)創(chuàng)新均有一定參考價(jià)值。
參考文獻(xiàn):
[1] GASTAL E S L,OLIVEIRA M M . Domain Transform for Edge-Aware Imageand Video Processing[J] . ACM TOG,2011,30(4).
[2] 張赟.可視媒體交互式編輯與融合研究[D].浙江大學(xué),2013.
[3] 趙懷棟.數(shù)字技術(shù)推動(dòng)下的后媒體時(shí)代探析[J].新聞知識(shí),2014(3):28-29,21.
[4] 劉飛彤.圖像變換與合成技術(shù)的研究[D].中國(guó)科學(xué)院研究生院,2012.