摘要:針對two-stage網(wǎng)絡(luò)模型訓(xùn)練成本高,,無人機(jī)搭載的邊緣計算設(shè)備檢測速度低等問題,提出一種基于改進(jìn)YOLO v4模型的受災(zāi)樹木實時檢測方法,,以提高對落葉松毛蟲蟲害樹木的識別精度與檢測速度,。以黑龍江省大興安嶺地區(qū)呼瑪縣白銀納鄉(xiāng)受落葉松毛蟲侵害的落葉松無人機(jī)圖像為數(shù)據(jù),,利用LabelImg軟件標(biāo)注75~100m的無人機(jī)圖像,,構(gòu)建落葉松毛蟲蟲害樹木圖像數(shù)據(jù)集。將CSPNet應(yīng)用于YOLO v4模型的Neck架構(gòu),,重新設(shè)計Backbone的特征提取網(wǎng)絡(luò)——CSPDarknet53模型結(jié)構(gòu),,并在CSPNet進(jìn)行優(yōu)化計算前的卷積中加入SENet以增加感受野信息,使其改變網(wǎng)絡(luò)的深度,、寬度,、分辨率及網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)模型縮放,,提高檢測精度,。同時,在PANet中使用CSPConvs卷積代替原有卷積Conv×5,,最后經(jīng)過YOLO Head檢測輸出預(yù)測結(jié)果,。將YOLO v4-CSP網(wǎng)絡(luò)模型部署至GPU進(jìn)行訓(xùn)練,訓(xùn)練過程的內(nèi)存降低至改進(jìn)前的82.7%,。再搭載至工作站進(jìn)行測試,,結(jié)果表明:改進(jìn)的YOLO v4-CSP網(wǎng)絡(luò)模型在測試階段對蟲害樹木檢測的正確率為97.50%,相比于YOLO v4的平均正確率提高3.4個百分點(diǎn),,模型精度接近目前主流two-stage框架Faster R-CNN的98.75%,;將改進(jìn)的YOLO v4-CSP網(wǎng)絡(luò)模型搭載至Jetson nano邊緣計算設(shè)備,檢測速度達(dá)到4.17f/s,,高于YOLO v4模型的1.72f/s,。基于YOLO v4-CSP的檢測模型可實現(xiàn)對受災(zāi)樹木檢測速度與精度的平衡,,降低模型的應(yīng)用成本,,搭載至無人機(jī)可實現(xiàn)對森林蟲害的實時監(jiān)測。