本發(fā)明公開了一種基于深度融合的視頻顯著性檢測方法,本發(fā)明方法包括深度特征提取網(wǎng)絡(luò)、深度特征融合網(wǎng)絡(luò)和顯著性預(yù)測網(wǎng)絡(luò)。模型的輸入是當(dāng)前幀圖像和光流圖像。首先,深度特征提取網(wǎng)絡(luò)提取多級深度特征,產(chǎn)生深度空間特征和深度時間特征。然后,采用注意力模塊分別強(qiáng)化學(xué)習(xí)兩個分支中每級產(chǎn)生的深度特征,深度特征融合網(wǎng)絡(luò)分級方式融合多級深度特征。將融合得到的深度特征與邊界信息相結(jié)合并顯著性預(yù)測網(wǎng)絡(luò)進(jìn)行預(yù)測,產(chǎn)生當(dāng)前幀的最終顯著性圖。本發(fā)明方法提供的網(wǎng)絡(luò)模型可以充分有效地利用空間信息和時間信息來實(shí)現(xiàn)對視頻中顯著性目標(biāo)的預(yù)測。
聲明:
“基于深度融合的視頻顯著性檢測方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學(xué)習(xí)研究,如用于商業(yè)用途,請聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)