摘要:為實(shí)現(xiàn)自動(dòng)導(dǎo)航農(nóng)機(jī)的避障,解決搭載在農(nóng)機(jī)頂部的全景相機(jī)獲取其周?chē)?60°的圖像信息并精確實(shí)時(shí)快速檢測(cè)出障礙物的問(wèn)題,,提出了一種改進(jìn)YOLO v3-tiny目標(biāo)檢測(cè)模型,,實(shí)現(xiàn)了田間行人和其他農(nóng)機(jī)的檢測(cè)與識(shí)別。為了提高全景圖像中小目標(biāo)的檢測(cè)效果,,以檢測(cè)速度快,、輕量級(jí)的網(wǎng)絡(luò)模型YOLO v3-tiny為基礎(chǔ)框架,通過(guò)融合淺層特征與第二YOLO預(yù)測(cè)層之前的拼接層作為第三預(yù)測(cè)層,,增加小目標(biāo)的檢測(cè)效果,;為了進(jìn)一步增加網(wǎng)絡(luò)模型對(duì)目標(biāo)特征的提取能力,借鑒殘差網(wǎng)絡(luò)的思想,,在YOLO v3-tiny主干網(wǎng)絡(luò)上引入殘差模塊,,增加網(wǎng)絡(luò)深度和學(xué)習(xí)能力,從而能夠較好地提高網(wǎng)絡(luò)的檢測(cè)能力,。為了驗(yàn)證模型的性能,,建立了農(nóng)田環(huán)境下1100幅行人與農(nóng)機(jī)兩類(lèi)障礙物圖像原始數(shù)據(jù)集,經(jīng)數(shù)據(jù)擴(kuò)增后得到2200幅圖像數(shù)據(jù)集,,按8∶1∶1將數(shù)據(jù)集劃分為訓(xùn)練集,、驗(yàn)證集和測(cè)試集,在Pytorch 1.8深度學(xué)習(xí)框架下進(jìn)行模型訓(xùn)練,,模型訓(xùn)練完后用220幅測(cè)試集圖像對(duì)不同模型進(jìn)行測(cè)試,。試驗(yàn)結(jié)果表明,基于改進(jìn)YOLO v3-tiny的農(nóng)田障礙物檢測(cè)模型,,平均準(zhǔn)確率和召回率分別為95.5%和93.7%,,相比于原網(wǎng)絡(luò)模型,分別提高了5.6,、5.2個(gè)百分點(diǎn),;單幅全景圖像檢測(cè)耗時(shí)為6.3ms,視頻流檢測(cè)平均幀率為84.2f/s,,模型內(nèi)存為64MB,。改進(jìn)后的模型,在保證檢測(cè)精度較高的同時(shí),能夠滿(mǎn)足農(nóng)機(jī)在運(yùn)動(dòng)狀態(tài)下實(shí)時(shí)障礙物檢測(cè)需求,。