本發(fā)明通過網(wǎng)絡安全領(lǐng)域的方法,實現(xiàn)了一種基于雙注意力模型的圖像描述方法。采用“編碼器?解碼器”框架結(jié)構(gòu)完成圖像描述研究任務,將卷積神經(jīng)網(wǎng)絡+長短期記憶網(wǎng)絡+注意力機制結(jié)合的框架;首先構(gòu)建編碼器,借助ResNeXt?101網(wǎng)絡和目標檢測器Faster R?CNN來構(gòu)建新的編碼器模型以此獲取待測圖像的目標區(qū)域并進行特征提??;之后構(gòu)建解碼器,使雙注意力機制和雙層LSTM構(gòu)建新的解碼器來生成圖像的描述語句;最后對模型進行優(yōu)化,采用REINFORCE強化學習算法對模型進行優(yōu)化。本發(fā)明提供的方法能夠有效的提高圖像描述模型的準確率以及圖像描述內(nèi)容的豐富度,提高圖像描述模型的整體性能。
聲明:
“基于雙注意力模型的圖像描述方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學習研究,如用于商業(yè)用途,請聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)