摘要:針對(duì)基于花紋的奶牛個(gè)體識(shí)別中純色或花紋較少的奶牛識(shí)別準(zhǔn)確率較低的問(wèn)題,,本文提出一種基于步態(tài)特征的奶牛個(gè)體識(shí)別方法,。首先,將DeepLabv3+語(yǔ)義分割算法的主干網(wǎng)絡(luò)替換為MobileNetv2網(wǎng)絡(luò),,并引入基于通道和空間的CBAM注意力機(jī)制,,利用改進(jìn)后模型分割出奶牛的剪影圖。然后,,將三維卷積神經(jīng)網(wǎng)絡(luò)(3D CNN)和雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(BiLSTM)構(gòu)建為3D CNN-BiLSTM網(wǎng)絡(luò),,并進(jìn)一步集成自適應(yīng)時(shí)間特征聚合模塊(ATFA)生成3D CNN-BiLSTM-ATFA奶牛個(gè)體識(shí)別模型。最后,,在30頭奶牛的共1242條視頻數(shù)據(jù)集上進(jìn)行了奶牛個(gè)體識(shí)別實(shí)驗(yàn),。結(jié)果表明,改進(jìn)后DeepLabv3+算法的平均像素準(zhǔn)確率,、平均交并比,、準(zhǔn)確率分別為99.02%、97.18%和99.71%,。采用r3d_18作為3D CNN-BiLSTM-ATFA的主干網(wǎng)絡(luò)效果最優(yōu),。基于步態(tài)的奶牛個(gè)體識(shí)別平均準(zhǔn)確率,、靈敏度和精確度分別為94.58%,、93.47%和95.94%。奶牛軀干和腿部不同部位進(jìn)行加權(quán)特征融合的個(gè)體識(shí)別實(shí)驗(yàn)表明識(shí)別準(zhǔn)確率還可進(jìn)一步提高,。奶牛跛足對(duì)步態(tài)識(shí)別效果影響較為明顯,,實(shí)驗(yàn)期間由健康變?yōu)轷俗愫鸵恢滨俗愕哪膛€(gè)體識(shí)別準(zhǔn)確率分別為89.39%和92.61%。本文研究結(jié)果可為奶牛的智能化個(gè)體識(shí)別提供技術(shù)參考。