摘要:針對(duì)DeepLabV3+語義分割模型計(jì)算復(fù)雜度高,、內(nèi)存消耗大,、難以在計(jì)算力有限的移動(dòng)平臺(tái)上部署等問題,提出一種改進(jìn)的輕量化DeepLabV3+深度學(xué)習(xí)語義分割算法,,用于實(shí)現(xiàn)無人機(jī)蕎麥苗期圖像的分割與識(shí)別,。該算法采用RepVGG(Re-parameterization visual geometry group)與MobileViT(Mobile vision transformer)模塊融合的方式建立主干網(wǎng)絡(luò)實(shí)現(xiàn)特征提取,;同時(shí),,在RepVGG網(wǎng)絡(luò)結(jié)構(gòu)中引入SENet(Squeeze-and-excitation networks)注意力機(jī)制,通過利用通道間的相關(guān)性,,捕獲更多的全局語義信息,,保證蕎麥分割的性能。實(shí)驗(yàn)結(jié)果表明,,與FCN(Fully convolutional networks),、PSPNet(Pyramid scene parsing network)、DenseASPP(Dense atrous spatial pyramid pooling),、DeepLabV3,、DeepLabV3+模型相比,本文提出的改進(jìn)算法在較大程度上降低了模型參數(shù)規(guī)模,,更適合在移動(dòng)端部署,,自建蕎麥苗期分割數(shù)據(jù)集上的語義分割平均像素準(zhǔn)確率(Mean pixel accuracy,mPA)和平均交并比(Mean intersection over union,mIoU)分別為97.02%和91.45%,,總體參數(shù)量,、浮點(diǎn)運(yùn)算次數(shù)(Floating-point operations,F(xiàn)LOPs)和推理速度分別為9.01×106,、8.215×1010,、37.83f/s,綜合表現(xiàn)最優(yōu),。在全尺寸圖像分割中,,訓(xùn)練模型對(duì)不同飛行高度的蕎麥苗期分割的mPA和mIoU均能滿足要求,也具有較好的分割能力和推理速度,,該算法可為后期蕎麥補(bǔ)種,、施肥養(yǎng)護(hù)和長(zhǎng)勢(shì)監(jiān)測(cè)等提供重要技術(shù)支持,進(jìn)而促進(jìn)小雜糧產(chǎn)業(yè)智能化發(fā)展,。