歐盟資助的SAPIR(Search In Audio Visual Content Using Peer-topeerInformation Retrieve,簡稱SAPIR)項(xiàng)目發(fā)明了一種新的基于P2P架構(gòu)的按例查詢(query-by-example)方法,可以提供對數(shù)據(jù)密集型內(nèi)容搜索的一種新途徑。
和傳統(tǒng)的搜索引擎通過文本關(guān)鍵字搜索不同,SAPIR按例查詢的技術(shù)通過內(nèi)容進(jìn)行查詢,例如通過一張建筑的照片查找這個(gè)建筑的相關(guān)信息,或者通過一段旋律查找完整的歌曲。研究人員說,通過按例查詢返回的結(jié)果更準(zhǔn)確,同時(shí)消除了對圖片、視頻手動標(biāo)記的需求。
實(shí)施基于內(nèi)容的大規(guī)模搜索將需要一種和傳統(tǒng)文本搜索不同的框架,Google這些傳統(tǒng)搜索引擎有一個(gè)中央處理系統(tǒng)的框架不再適用。I B M研究中心的Yosi Mass 說:“因?yàn)槲覀冋谔幚淼氖菆D像、視頻和音頻,基于內(nèi)容的搜索,其數(shù)據(jù)非常密集,而P 2 P架構(gòu)通過將數(shù)據(jù)分布在網(wǎng)絡(luò)中不同的點(diǎn)(PEER)上,來確保解決方案的擴(kuò)展性,防止單點(diǎn)失效問題的出現(xiàn)。”
SAPIR系統(tǒng)會自動分析照片、視頻或錄音,提取其中的語義特征,以及使用這些特征在不同的點(diǎn)(PEER)中查找相似的內(nèi)容。SAPIR還可以比較和新上載的圖片類似的圖像,自動使用和新圖像最相似的圖像的關(guān)鍵字來描述它。