摘要:針對DeepLabV3+語義分割模型計算復(fù)雜度高,、內(nèi)存消耗大、難以在計算力有限的移動平臺上部署等問題,,提出一種改進(jìn)的輕量化DeepLabV3+深度學(xué)習(xí)語義分割算法,,用于實現(xiàn)無人機蕎麥苗期圖像的分割與識別。該算法采用RepVGG(Re-parameterization visual geometry group)與MobileViT(Mobile vision transformer)模塊融合的方式建立主干網(wǎng)絡(luò)實現(xiàn)特征提??;同時,在RepVGG網(wǎng)絡(luò)結(jié)構(gòu)中引入SENet(Squeeze-and-excitation networks)注意力機制,,通過利用通道間的相關(guān)性,,捕獲更多的全局語義信息,保證蕎麥分割的性能,。實驗結(jié)果表明,,與FCN(Fully convolutional networks)、PSPNet(Pyramid scene parsing network),、DenseASPP(Dense atrous spatial pyramid pooling),、DeepLabV3、DeepLabV3+模型相比,,本文提出的改進(jìn)算法在較大程度上降低了模型參數(shù)規(guī)模,,更適合在移動端部署,自建蕎麥苗期分割數(shù)據(jù)集上的語義分割平均像素準(zhǔn)確率(Mean pixel accuracy,,mPA)和平均交并比(Mean intersection over union,,mIoU)分別為97.02%和91.45%,總體參數(shù)量,、浮點運算次數(shù)(Floating-point operations,,F(xiàn)LOPs)和推理速度分別為9.01×106、8.215×1010,、37.83f/s,,綜合表現(xiàn)最優(yōu)。在全尺寸圖像分割中,,訓(xùn)練模型對不同飛行高度的蕎麥苗期分割的mPA和mIoU均能滿足要求,,也具有較好的分割能力和推理速度,該算法可為后期蕎麥補種,、施肥養(yǎng)護和長勢監(jiān)測等提供重要技術(shù)支持,,進(jìn)而促進(jìn)小雜糧產(chǎn)業(yè)智能化發(fā)展。