基于深度學(xué)習(xí)的多模態(tài)手勢(shì)識(shí)別方法研究

打開文本圖片集
摘要:研究使用Kinect采集彩色(RGB)、深度(Depth)和骨骼坐標(biāo)點(diǎn)3種不同模態(tài)的數(shù)據(jù),通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)和模式識(shí)別,克服傳統(tǒng)單模態(tài)方法的局限性,提高模型在復(fù)雜環(huán)境下的適應(yīng)能力。結(jié)果顯示,在本研究所構(gòu)建的基于卷積神經(jīng)網(wǎng)絡(luò)手勢(shì)識(shí)別模型中,多模態(tài)融合方法的識(shí)別準(zhǔn)確率較單模態(tài)提高了13.957%,展現(xiàn)了模型的有效性以及多模態(tài)手勢(shì)識(shí)別技術(shù)在未來(lái)人機(jī)交互領(lǐng)域的應(yīng)用潛力。(剩余5306字)