注冊(cè)帳號(hào)丨忘記密碼?
1.點(diǎn)擊網(wǎng)站首頁右上角的“充值”按鈕可以為您的帳號(hào)充值
2.可選擇不同檔位的充值金額,充值后按篇按本計(jì)費(fèi)
3.充值成功后即可購買網(wǎng)站上的任意文章或雜志的電子版
4.購買后文章、雜志可在個(gè)人中心的訂閱/零買找到
5.登陸后可閱讀免費(fèi)專區(qū)的精彩內(nèi)容
打開文本圖片集
中圖分類號(hào):TP273文獻(xiàn)標(biāo)志碼:A
近年來,隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,尤其是卷積神經(jīng)網(wǎng)絡(luò)(CNN)的廣泛應(yīng)用,人體姿態(tài)估計(jì)(HPE)領(lǐng)域取得了顯著進(jìn)展。ResNet[1]及其變體[2-4]等深度CNN模型作為該領(lǐng)域的主流,展示了強(qiáng)大的特征提取能力。在此背景下,基于沙漏網(wǎng)絡(luò)[5-6]、級(jí)聯(lián)金字塔網(wǎng)絡(luò)(CPNs)[7-8以及高分辨率網(wǎng)絡(luò)(HRNet)[9]等新型架構(gòu)通過融合多尺度特征,顯著提升了姿態(tài)估計(jì)的準(zhǔn)確性。(剩余21907字)
登錄龍?jiān)雌诳W(wǎng)
購買文章
基于重參數(shù)化大核卷積的高分辨率姿態(tài)估計(jì)
文章價(jià)格:6.00元
當(dāng)前余額:100.00
閱讀
您目前是文章會(huì)員,閱讀數(shù)共:0篇
剩余閱讀數(shù):0篇
閱讀有效期:0001-1-1 0:00:00
違法和不良信息舉報(bào)電話:400-106-1235
舉報(bào)郵箱:longyuandom@163.com