摘要:針對(duì)采摘機(jī)器人對(duì)場(chǎng)景中目標(biāo)分布密集,、果實(shí)相互遮擋的檢測(cè)及定位能力不理想問(wèn)題,,提出一種引入高效通道注意力機(jī)制(ECA)和多尺度融合特征金字塔(FPN)改進(jìn)Faster R-CNN果實(shí)檢測(cè)及定位方法,。首先,利用表達(dá)能力較強(qiáng)的融合FPN的殘差網(wǎng)絡(luò)ResNet50替換原VGG16網(wǎng)絡(luò),,消除了網(wǎng)絡(luò)退化問(wèn)題,,進(jìn)而提取更加抽象和豐富的語(yǔ)義信息,提升模型對(duì)多尺度和小目標(biāo)的檢測(cè)能力,;其次,,引入注意力機(jī)制ECA模塊,使特征提取網(wǎng)絡(luò)聚焦特征圖像的局部高效信息,,減少無(wú)效目標(biāo)的干擾,,提升模型檢測(cè)精度;最后,,采用一種枝葉插圖數(shù)據(jù)增強(qiáng)方法改進(jìn)蘋果數(shù)據(jù)集,,解決圖像數(shù)據(jù)不足問(wèn)題?;跇?gòu)建的數(shù)據(jù)集,,使用遺傳算法優(yōu)化K-means++聚類生成自適應(yīng)錨框,提高模型定位準(zhǔn)確性,。試驗(yàn)結(jié)果表明,,改進(jìn)模型對(duì)可抓取和不可直接抓取蘋果的精度均值分別為96.16%和86.95%,平均精度均值為92.79%,,較傳統(tǒng)Faster R-CNN提升15.68個(gè)百分點(diǎn),;對(duì)可抓取和不可直接抓取的蘋果定位精度分別為97.14%和88.93%,較傳統(tǒng)Faster R-CNN分別提高12.53個(gè)百分點(diǎn)和40.49個(gè)百分點(diǎn),;內(nèi)存占用量減少38.20%,,每幀平均計(jì)算時(shí)間縮短40.7%,改進(jìn)后的模型參數(shù)量小且實(shí)時(shí)性好,,能夠更好地應(yīng)用于果實(shí)采摘機(jī)器人視覺系統(tǒng),。