欢迎您访问《智慧农业(中英文)》官方网站! English

基于YOLOv10n-CHL轻量化的蜜蜂授粉识别模型

  • 常戬 1 ,
  • 王冰冰 1 ,
  • 尹龙 1 ,
  • 李燕青 2 ,
  • 李兆歆 , 3 ,
  • 李壮 , 2
展开
  • 1. 辽宁工程技术大学,辽宁兴城 125100,中国
  • 2. 中国农业科学院果树研究所,辽宁兴城 125100,中国
  • 3. 中国农业科学院农业信息研究所,北京 100081,中国
李兆歆,博士,副研究员,研究方向为三维视觉感知。E-mail:
李壮,博士,研究员,研究方向为果树栽培。E-mail:

常 戬,博士,副教授,研究方向为数字图像处理、大数据。E-mail:

收稿日期: 2025-03-29

  网络出版日期: 2025-06-06

基金资助

中国农业科学院科技创新工程项目(CAAS-CSSAE-202401)

The Bee Pollination Recognition Model Based On The Lightweight YOLOv10n-CHL

  • CHANG Jian 1 ,
  • WANG Bingbing 1 ,
  • YIN Long 1 ,
  • LI Yanqing 2 ,
  • LI Zhaoxin , 3 ,
  • LI Zhuang , 2
Expand
  • 1. Liaoning Technical University, Xingcheng 125100, China
  • 2. Institute of Fruit Tree Research, Chinese Academy of Agricultural Sciences, Xingcheng 125100, China
  • 3. Institute of Agricultural Information, Chinese Academy of Agricultural Sciences, Beijing 100081, China
LI Zhaoxin, E-mail: ;
LI Zhuang, E-mail:

CHANG Jian, E-mail:

Received date: 2025-03-29

  Online published: 2025-06-06

Supported by

China Academy of Agricultural Sciences Science and Technology Innovation Engineering Project(CAAS-CSSAE-202401)

Copyright

copyright©2025 by the authors

摘要

【目的/意义】 蜜蜂授粉识别实验有助于评估蜂群的授粉效率,检测花朵是否授粉,从而为后期的疏花疏果提供科学依据,优化蜂群管理和农业生产。为应对蜜蜂授粉检测中目标小、背景复杂等挑战,本研究提出了一种基于YOLOv10n-CHL的轻量化蜜蜂授粉识别模型。 【方法】 本实验创建了草莓花、蓝莓花和菊花三种不同花朵的蜜蜂授粉数据集,并通过以下改进提升模型性能:首先,主干网络中用跨阶段多尺度边缘信息增强模块(Cross Stage Partial Network_Multi-Scale Edge Information Enhance, CSP_MSEE)模块替换C2f,融合跨阶段局部网络(Cross Stage Partial Network, CSPNet)跨阶段连接与多尺度边缘增强策略,强化特征提取能力;颈部模块引入多级特征融合金字塔Hierarchical Skip Feature Pyramid Network, HS-FPN,通过特征选择与融合策略,提升复杂背景下小目标检测精度并优化计算效率;在头部采用轻量化检测头(Lightweight Shared Detail-enhanced Convolutional Detection Head, LSDECD)替代原始检测头,增强细节捕捉能力的同时减少参数量,使模型更易于部署和应用于边缘设备。 【结果和讨论】 在三个不同数据集上的测试结果表明,与原YOLOv10n模型相比,改进后的模型在计算量和参数量上分别降低了3.1 GFLOPS和1.3 M。同时,草莓花、蓝莓花、菊花蜜蜂授粉数据集的召回率和mAP50(Mean Average Precision at IoU Threshold of 50%)分别达到了82.6%、84%、84.8%和89.3%、89.5%、88%,较原模型分别提升了2.1%、2.0%、2.1%和1.7%、2.6%、2.2%。 【结论】 这一改进显著增强了模型在蜜蜂授粉数据集上的检测精度,同时通过轻量化设计有效减轻了计算负担,提升了部署的可行性。这为蜜蜂授粉识别技术的实际应用奠定了坚实的技术基础。

本文引用格式

常戬 , 王冰冰 , 尹龙 , 李燕青 , 李兆歆 , 李壮 . 基于YOLOv10n-CHL轻量化的蜜蜂授粉识别模型[J]. 智慧农业, 2025 : 1 -14 . DOI: 10.12133/j.smartag.SA202502033

Abstract

[Objective] Bee pollination plays a crucial role in plant reproduction and crop yield, making its identification and monitoring highly significant for agricultural production. This study aimed to scientifically evaluate pollination efficiency, accurately detect the pollination status of flowers, and provide reliable data to guide flower and fruit thinning in orchards. Ultimately, it supports the scientific management of bee colonies and enhances agricultural efficiency. However, practical detection of bee pollination poses various challenges, including the small size of bee targets, their low pixel occupancy in images, and the complexity of floral backgrounds. To address these issues, the study proposed a lightweight recognition model capable of effectively overcoming these obstacles, thereby advancing the practical application of bee pollination detection technology in smart agriculture. [Methods] A specialized bee pollination dataset was constructed comprising three flower types: strawberry, blueberry, and chrysanthemum. Videos capturing the pollination process were recorded using high-resolution cameras and subjected to frame sampling to extract representative images. These initial images underwent manual screening to ensure quality and relevance. To address challenges such as limited data diversity and class imbalance, a comprehensive data augmentation strategy was employed. Techniques including rotation, flipping, brightness adjustment, and mosaic augmentation were applied, significantly expanding the dataset's size and variability. The enhanced dataset was subsequently split into training and validation sets at an 8:2 ratio to ensure robust model evaluation. The base detection model was built upon an improved YOLOv10n architecture. The conventional C2f module in the backbone was replaced with a novel Cross Stage Partial network_multi-scale edge information enhance (CSP_MSEE) module, which synergizes the cross-stage partial connections from cross stage partial network (CSPNet) with a multi-scale edge enhancement strategy. This design greatly improved feature extraction, particularly in scenarios involving fine-grained structures and small-scale targets like bees. For the neck, the researchers implemented a hybrid-scale feature pyramid network (HS-FPN), incorporating a channel attention (CA) mechanism and a Dimension Matching (DM) module to refine and align multi-scale features. These features were further integrated through a selective feature fusion (SFF) module, enabling the effective combination of low-level texture details and high-level semantic representations. The detection head was replaced with the lightweight shared detail enhanced convolutional detection head (LSDECD), an enhanced version of the Lightweight shared convolutional detection head (LSCD) detection head. It incorporated detail enhancement convolution (DEConv) from DEA-Net to improve the extraction of fine-grained bee features. Additionally, the standard convolution_groupnorm (Conv_GN) layers were replaced with detail enhancement convolution_ groupnorm (DEConv_GN), significantly reducing model parameters and enhancing the model's sensitivity to subtle bee behaviors. This lightweight yet accurate model design made it highly suitable for real-time deployment on resource-constrained edge devices in agricultural environments. [Results and Discussions] Experimental results on the three bee pollination datasets—strawberry, blueberry, and chrysanthemum—demonstrated the effectiveness of the proposed improvements over the baseline YOLOv10n model. The enhanced model achieved significant reductions in computational overhead, lowering the computational complexity by 3.1 GFLOPs and the number of parameters by 1.3 M. These reductions contribute to improved efficiency, making the model more suitable for deployment on edge devices with limited processing capabilities, such as mobile platforms or embedded systems used in agricultural monitoring. In terms of detection performance, the improved model showed consistent gains across all three datasets. Specifically, the recall rates reached 82.6% for strawberry, 84.0% for blueberry, and 84.8% for chrysanthemum flowers. Corresponding mAP50 (mean Average Precision at IoU threshold of 0.5) scores were 89.3%, 89.5%, and 88.0%, respectively. Compared to the original YOLOv10n model, these results marked respective improvements of 2.1% in recall and 1.7% in mAP50 on the strawberry dataset, 2.0% and 2.6% on the blueberry dataset, and 2.1% and 2.2% on the chrysanthemum dataset. [Conclusions] The proposed YOLOv10n-CHL lightweight bee pollination detection model, through coordinated enhancements at multiple architectural levels, achieved notable improvements in both detection accuracy and computational efficiency across multiple bee pollination datasets. The model significantly improved the detection performance for small objects while substantially reducing computational overhead, facilitating its deployment on edge computing platforms such as drones and embedded systems. This research provides a solid technical foundation for the precise monitoring of bee pollination behavior and the advancement of smart agriculture. Nevertheless, the model's adaptability to extreme lighting and complex weather conditions remains an area for improvement. Future work will focus on enhancing the model's robustness in these scenarios to support its broader application in real-world agricultural environments.

0 引 言

授粉和受精是植物繁衍与进化的关键环节,也是确保大多数粮食、棉花、油料作物,以及蔬菜丰产稳产的基础保障1。对于绝大多数果树而言,授粉和受精的质量至关重要,直接关系到果树的产量和品质,因此果树授粉成为水果生产者关注的关键环节。随着现代农业技术的发展,果树授粉方式逐渐多样化,以满足不同种植环境的需求。目前,果树授粉主要有三种方式:人工点授、机械喷雾(粉)和昆虫授粉。其中,人工点授虽然精准但效率较低,而机械授粉虽能提高效率却存在成本较高、操作复杂等问题。相比之下,蜜蜂授粉凭借其高效性、广泛适用性,以及低成本、节省劳力等多重优势,已成为最为普及和理想的授粉方式2
近年来,由于气候变化、环境污染,以及不合理使用农药等情况,蜜蜂种群数量下降,授粉访花行为异常,常常导致花卉、果树等授粉异常、花而不实等3。因此,蜜蜂访花不仅成为农业从业者关注的关键问题,也是科研人员研究的热点与焦点。
研究蜜蜂访花的关键在于记录蜂群数量和访花次数,而其高效授粉依赖于后腿花粉筐和体毛对花粉的吸附与收集,以及在访花过程中通过接触柱头实现的异花授粉,这一协同适应机制保障了花粉的高效转移。传统的记录方法依赖人工观察和手动记录,存在识别准确率低、计数误差大、实时性差等问题4,难以适应大规模农业生产的实际需求。随着人工智能、物联网和大数据技术的自动化识别和数据分析方法等技术方法的迭代升级,计算机视觉的目标检测技术的精度、效率日益提升为蜜蜂访花行为的快速精准观测提供新思路。
目标检测是计算机视觉的核心领域,主要包括两种方法:一种是基于图像特征的检测方法,另一种是基于深度学习的检测方法5。其中,基于图像特征的方法依赖于手工设计的特征和传统机器学习算法,而基于深度学习的方法通过自动学习图像中的深层特征,能够更好地应对各种环境变化。传统的昆虫图像识别技术通常包括三个步骤:图像预处理、特征提取和分类器分类6。为了解决图像识别过程中的复杂性,研究者们在不同阶段采用了多种技术来提高识别精度。Li等7提出了一种结合光谱残差模型和支持向量机(Support Vector Machine, SVM)的方法,用于自动检测温室粘虫板图像中的小型害虫(如白粉虱和蓟马),识别准确率分别达到93.9%和89.9%,有效解决了传统人工计数效率低的问题。刘子毅等运用光谱技术、计算机视觉及特征迁移方法,攻克了农业虫害检测中幼虫早期识别难、成虫定位精度低及数据集不均衡等难题,经过优化后的模型在14类稻田害虫数据集上的识别准确率达到了88.3%8。Yang等9通过数字化翅膀轮廓和椭圆傅里叶变换,结合SVM分类器进行模式识别,成功实现了昆虫的自动识别。这些方法在解决虫害识别的挑战方面取得了显著进展,为后续深度学习技术的应用奠定了基础。
随着人工智能和机器学习的迅猛发展,特别是深度学习算法的不断创新,昆虫图像的高效、快速和精准识别已成为可能10。尤其在小型目标昆虫识别领域,深度学习模型展现了显著的潜力。Wang等11通过提出一种优化残差结构、修改卷积核并引入特征混合模块(Feature Mixing Module, FMM)和注意力增强模块(Attention Enhancement Module, AEM)的S-ResNet模型,用于识别小型目标害虫,其最高识别准确率达到97.8%,在小型目标害虫识别中展现出显著优势。Zhang等12采用形态学无边缘主动轮廓算法和可变权重边缘增强算法,并结合DenseNet-121网络,有效提升了复杂背景下昆虫图像识别的准确率,最终实现了96.65%的识别效果。Ye等13改进了YOLOv8模型,结合切片感知混合集成(Slice-Aware Hybrid Integration, SAHI)、门控边缘学习注意力网络(Gated Edge Learning Attention Network, GELAN)、双向变换器(Bidirectional Transformer, BiFormer)注意力机制和最小点距离交并比损失函数(Minimum Point Distance Intersection over Union Loss, MPDIoU),提高了复杂背景下微小茶害虫的检测精度和速度,最终mAP50达98.17%,检测速度95 FPS。Yue等14提出GLU-YOLOv8算法,通过Scylla交并比损失函数(Scylla IoU,SIoU)、卷积块注意力模块(Convolutional Block Attention Module, CBAM)和局部敏感核注意力(Locality Sensitive Kernel, LSK)、门控线性单元卷积模块(Gated Linear Unit CONV, GLU-CONV)及小目标检测层,提高复杂场景下农作物病虫害小目标检测精度,mAP50达97.4%,较YOLOv8提升8.2%。薛勇等15利用浅层CNN(11层)和GoogleNet V1深度学习模型,实现了蜜蜂采集花粉行为的自动识别,模型的准确率达到90.36%的同时显著降低了计算需求,更适合实际应用场景。胡玲艳等16通过改进YOLOv5模型和泊松融合数据增强技术,改进后模型精度达96.6%,实现了温室蓝莓花期蜜蜂授粉次数的精准实时监测。
目前,尽管许多算法在农学领域已取得显著成果,但在蜜蜂授粉识别这一特定领域的研究仍相对匮乏。开展蜜蜂授粉识别研究对农业具有重要意义,不仅能够提升农作物产量与品质、优化精准农业管理、降低人工成本、推动农业智能化发展,还能为蜜蜂养殖管理提供科学依据17。通过蜜蜂授粉行为识别实验,能够快速筛选出未授粉花朵,为果树的疏花疏果提供科学依据;为了应对果园棚内蜜蜂因生命周期短而导致的种群数量不足问题,可以建立实时监测系统来进行蜜蜂授粉识别。该系统能够动态监测蜜蜂数量,并通过算法分析授粉频率与效率,从而构建蜜蜂数量与授粉效果之间的量化模型。这一方法不仅大幅减少了人工观察时间,还能维持适宜的蜜蜂种群规模,显著提升授粉效率,降低经济损失,为果园的可持续管理提供可靠的技术支持。然而,蜜蜂授粉识别在实际应用中面临诸多挑战,例如检测目标过小、复杂背景干扰、识别对象移动,以及难以部署于移动设备等问题。
为应对这些挑战,本研究提出了一种基于YOLOv10n-CHL的轻量化蜜蜂授粉识别模型。该模型通过引入跨阶段多尺度边缘信息增强模块(Cross Stage Partial Network_Multi-Scale Edge Information Enhance, CSP_MSEE)模块提升了对蜜蜂、花朵等小目标的识别精度;采用多级特征融合金字塔(Hierarchical Skip Feature Pyramid Network, HS-FPN)结构减少模型的参数量和计算量;同时,利用轻量化检测头(Lightweight Shared Detail-enhanced Convolutional Detection Head, LSDECD)来进一步增强模型的细节捕获能力和优化参数效率。这些改进措施共同提升了模型在蜜蜂授粉识别任务中的性能,兼顾了精度与效率,为农业智能化提供了有力的技术支持。

1 数据集构建

1.1 图像获取

本研究数据来源于三个种植基地,如图1所示:辽宁省葫芦岛市兴城市“天天花圃”种植基地、中国农业科学院果树研究所砬山农场草莓研究基地和葫芦岛南票蓝莓生产基地。拍摄仪器主要采用海康威视DS-2DE4423IW-D/GLT/XM摄像头和iPhone15手机(像素分辨率为3 840×2 160)拍摄了菊花、草莓花和蓝莓花蜜蜂授粉视频。对所有视频经过抽帧处理获取图像,图像像素分辨率为800×800,文件格式为JPG。通过人工筛选,获得清晰的授粉过程图像,包括菊花授粉图片1 497张,草莓花授粉图片1 240张,蓝莓花授粉图1 282张,保证各类样本数量相对均衡。在数据集中引入菊花蜜蜂授粉样本,可以显著增强数据的形态多样性和行为复杂性,迫使模型学习更具泛化性的特征,从而有效提升其在多变自然环境下的鲁棒性检测能力。
图1 蜜蜂授粉样本采集环境

Fig. 1 Bee pollination sample collection environment

1.2 数据集标注

所有图像均通过LabelImg软件进行人工标注,标注格式为TXT。数据集中的标注对象包括飞行状态的蜜蜂、授粉状态的蜜蜂、菊花和草莓花的花心,以及蓝莓花的花朵。授粉蜜蜂与飞行蜜蜂的区分标准如下:当蜜蜂与花朵花心空间位置重合时(即蜜蜂停落在花朵上),其体表携带的花粉与花朵柱头接触,完成授粉过程,此时标注为授粉蜜蜂;其余情况(如蜜蜂在空中飞行或停靠但未接触花心)均标注为飞行蜜蜂。由于蓝莓花的花朵较小且形态呈铃铛状,难以对其花心进行有效标注。此种标注方法考虑到了花朵形态的复杂性及尺寸问题,旨在提高数据集的标注精度与应用价值。

1.3 数据扩充

研究发现,原始数据集无法全面覆盖自然环境中所有花朵的多样性,这可能对模型训练过程中出现过拟合现象18。为缓解这一问题,本研究对标注后的原始数据集进行了扩充处理,具体方法如图2所示,包括水平翻转操作、随机亮度变化、高斯噪声,以及高斯模糊等数据增强策略。通过这些增强策略,可以生成多样化的训练样本,使模型更好地学习不同光照、角度和环境下的特征。通过数据扩充,不仅提升了模型对真实图像的适应性,还有效降低了过拟合风险,显著提高了目标检测和分类的准确性。特别是在样本数量有限的情况下,菊花、草莓花和蓝莓花的授粉数据集分别扩增至25 432、20 995和21 794张样本。三种数据集按8∶2的比例划分为训练集和验证集,为后续模型训练提供了坚实的数据支持。
图2 蜜蜂授粉数据集图像扩充

Fig. 2 Image augmentation of the honey bee pollination dataset

鉴于数据集中花朵、授粉蜜蜂和飞行蜜蜂三类目标样本数量存在显著不均衡现象,其中花朵类样本数量远多于授粉蜜蜂和飞行蜜蜂类,本研究对原始数据集进行了16倍的数据扩充,以显著增加授粉蜜蜂和飞行蜜蜂类样本的数量,从而确保各类别样本数量达到实验要求。
以草莓花蜜蜂授粉数据集为例,其经过数据增广前后目标样本数量分布详见表1
表1 草莓花蜜蜂授粉数据集类别目标数

Table 1 Analysis of target number categories in strawberry flower bee pollination dataset

目标类别 增强前训练集目标数/个 增强后训练集目标数/个
所有 1 092 18 564
花朵 832 14 144
授粉蜜蜂 168 2 856
飞行蜜蜂 92 1 564

2 YOLOv10n-CHL

YOLOv1019是一种先进的实时目标检测模型,其架构主要由增强型Darknet骨干网络、带有额外上采样层的路径聚合网络模块(颈部结构),以及轻量级分类头(头部结构)构成。该模型通过引入无需非极大值抑制(Non-Maximum Suppression Free, NMS-free)20的训练方法,显著减少了推理时间,同时保持了较高的检测精度。此外,YOLOv10采用了空间-通道解耦下采样方法Spatial-Channel Decoupled Downsampling, SCDown)、大核卷积(Large-Kernel Convolution),以及部分自注意力模块(Pyramid Squeeze Attention, PSA)等技术,显著减少了模型的参数量和计算复杂度,不仅大幅提升了推理速度,还增强了特征提取的能力。
本研究选择YOLOv10n作为蜜蜂授粉识别任务的基础模型,主要基于其在目标检测任务中的高精度和高效率的性能优势。YOLOv10n凭借其轻量级网络结构和高速推理性能,非常适合资源受限的环境进行实时授粉行为监测。同时,它在复杂背景下能够精准识别蜜蜂等小目标,提供高效且准确的检测结果。针对蜜蜂授粉数据中目标较小、复杂背景等挑战,本研究对YOLOv10n的主干网络,颈部和检测头分别进行了改进,改进后的YOLOv10n-CHL模型结构如图3所示。
图3 YOLOv10-CHL模型结构

Fig. 3 YOLOv10-CHL model structure

2.1 CSP_MSEE模块设计

CSP_MSEE是在跨阶段局部网络(Cross Stage Partial Network, CSPNet)21结构的基础上,引入了多尺度边缘信息增强(Multi-Scale Edge Information Enhance, MSEE)机制。该模块的核心思想在于结合CSPNet的特征处理优势与多尺度边缘增强的细节捕捉能力,通过跨阶段部分连接和多尺度边缘增强模块,进一步提升网络的特征表达能力。具体而言,该模块继承了CSPNet中的核心模块C2f,并充分发挥了CSPNet的跨阶段部分连接设计优势。该设计将输入特征图分为两部分,一部分经过多层卷积处理,另一部分则通过跳跃连接直接传递至后续阶段,从而提高了信息流动效率,有效缓解了梯度消失问题。
MSEE模块是一个融合多尺度特征提取与边缘信息增强的结构,如图4所示。该模块的设计旨在提升神经网络对细节和边缘信息的捕捉能力,特别适用于识别花朵、蜜蜂等对细节敏感的任务22。在本实验中,该模块通过自适应平均池化(AdaptiveAvgPool2d)操作,在多个尺度上提取图像特征,并结合卷积操作对特征空间进行映射,从而有效捕捉蜜蜂与花朵之间的局部细节和全局上下文信息。这种设计不仅增强了模型对复杂场景中小目标的识别能力,还显著提升了特征表达的丰富性和鲁棒性。
图4 Mutil-Scale Edge Information Enhance模块

Fig. 4 Mutil-Scale Edge Information Enhance module

此外,该模块还引入了EdgeEnhancer模块,其结构如图5所示。EdgeEnhancer模块首先通过对输入特征图进行平滑操作(nn.AvgPool2d),提取其低频信息。接着,通过将原始输入特征图与平滑后的特征图进行差值运算,提取出增强的边缘信息。这些增强的边缘特征经过卷积操作进一步处理后,与原始输入特征图相加,从而强化图像的边缘信息。这种设计有效提升了网络对细节和边缘的敏感度,使其能够更好地捕捉目标的关键特征,尤其适用于蜜蜂授粉识别等对细节要求较高的任务。
图5 EdgeEnhancer模块

Fig. 5 EdgeEnhancer module

最后,模块将通过多尺度特征提取和边缘增强得到的特征进行拼接,并利用卷积层对这些特征进行融合,输出包含丰富多尺度信息和细节特征的特征图。该模块通过有效结合多尺度信息捕捉与边缘信息增强,显著提升了网络在蜜蜂授粉识别任务中的性能表现,使其更精确地识别蜜蜂、花朵,以及它们之间的相互作用,同时增强了对小目标和细节边缘的识别能力。

2.2 HS-FPN

HS-FPN(Hierarchical Scale Feature Pyramid Network)是在多级特征融合与变形自注意力DETR(Multi-level Feature Fusion and Deformable Self-attention DETR, MFDS-DETR)23中提出的一种多级特征融合金字塔网络。作为一种基于传统FPN24的改进模型,HS-FPN旨在解决目标检测中的多尺度问题,通过引入特征选择模块和特征融合模块,显著提升了模型的特征表达能力。HS-FPN结构如图6所示。
图6 HS-FPN 结构

Fig. 6 HS-FPN module

2.2.1 特征选择模块

特征选择模块结合了通道注意力(Channel Attention, CA)和维度匹配(Dimension Matching, DM)机制,CA模块首先处理输入特征图 f i n R C × H × W,其中 C表示通道数, H表示特征图的高度, W表示特征图的宽度。首先,通过全局平均池化(Global Average Pooling, GAP)和全局最大池化(Global Max Pooling, GMP)操作,分别提取特征图的全局上下文信息和局部显著特征,将得到的结果特征进行结合,通过Sigmoid激活函数计算每个通道的权重值,从而为每个通道分配相应的权重 f C A R C × 1 × 1
经过过滤后的特征图通过将通道注意力权重与输入特征图按通道逐一相乘,生成加权特征表示。在特征融合之前,由于不同尺度的特征图具有不同的通道数,跨尺度特征图的DM变得尤为重要。为了实现这一点,DM模块对每个尺度的特征图应用一个1×1卷积操作,将其通道数统一减少到256,从而确保不同尺度特征图在通道维度上的一致性。这种维度匹配机制不仅简化了后续的特征融合过程,还减少了计算复杂度,同时保留了多尺度特征的关键信息,为高效的特征融合奠定了基础。

2.2.2 特征融合模块

图7所示,选择性特征融合(Selective Feature Fusion, SFF)是HS-FPN网络的核心组件,主要负责不同尺度特征图的融合。该模块通过筛选机制,将低级细节特征与扩展后的高级语义特征进行融合。为实现尺度对齐,高级特征通过双线性插值或转置卷积进行调整,从而增强模型的特征表达能力。
图7 SFF结构图

Fig. 7 SFF structure

给定一个输入的高级特征 f h i g h R C × H × W和一个低尺度特征 f l o w R C × H × W 1,首先对高级特征应用一个核大小3×3、步幅为2的转置卷积(T-Conv)进行上采样,得到特征大小 f h i g h ^ R C × 2 H × 2 W。为了确保高级特征与低尺度特征在空间维度上的一致性,采用了双线性插值(Bilinear Interpolation)方法对高级特征进行上采样或下采样操作,得到特征 f a t t R C × H 1 × W 1。通过CA模块,高级特征被转化为对应的注意力权重,这些权重随后用于加权筛选低尺度特征。
在完成这一操作后,获得了与高级特征维度一致的低尺度特征,从而实现了特征的有效过滤与对齐。最终,将经过CA筛选的低尺度特征与高级特征进行融合,从而提升模型的特征表达能力,并得到最终的特征输出, f o u t R C × H 1 × W 1。这一融合过程通过公式(1)和(2)进行了详细描述。
f a t t = B I T - C o n v f h i g h
f o u t = f l o w × C A f a t t + f a t t
式中: f h i g h为高级特征, f l o w为低尺度特征, T - C o n v 为转置卷积进行上采样, B I 为对上采样结果进行双线性插值操作,使其与低尺度空间维度; C A f a t t将处理后的高级特征转化为对应的注意力权重, f l o w × C A f a t t将低尺度特征通过转化后的注意力权重进行筛选, f l o w × C A f a t t + f a t t将经过CA筛选的低尺度特征与高级特征进行融合。
在蜜蜂授粉识别任务中,HS-FPN通过多层次特征融合和通道注意力机制,显著提高了在复杂背景下对小目标的检测精度。同时,其轻量化设计有效降低了计算开销,非常适合在资源受限的设备上部署。

2.3 LSDECD检测头

蜜蜂授粉识别实验面临蜜蜂花朵目标小、背景复杂、光照多变等挑战,传统的YOLOv10n检测头难以精准捕捉蜜蜂的细微特征和动态行为。为此,本实验基于LSCD(Local Surface Contour Detection)检测头25进行了创新性改进,提出了LSDECD检测头。在LSCD中,采用组归一化(GroupNorm, GN)代替批归一化(BatchNorm),利用其适应性强、能更好地保持通道间关系的优势,提升模型鲁棒性,并减少对批量大小的依赖26,但其细节捕获能力相对较弱。LSDECD检测头旨在通过大幅减少参数数量的同时,显著提升细节捕获能力,从而进一步优化检测精度,如图8所示,其中,彩色标注的模块表示参数共享机制。LSDECD检测头引入了细节增强注意力网络(Detail-enhanced Attention Network, DEA-Net)27中提出的细节增强卷积(Detail-enhanced Convolution, DEConv),将DEConv_GN替换了LSCD中的Conv_GN。
图8 LSCD和LSDECD结构图

a.LSCD结构图 b. LSDECD结构图

Fig. 8 LSCD and LSDECD structure

DEConv通过将先验信息融入普通卷积层,显著提高了细节捕捉能力和泛化性能,同时利用重参数化技术,在推理阶段无需额外计算开销,保持了高效性。将DEConv结合到LSCD检测头中,形成了LSDECD检测头,不仅继承了LSCD的轻量化和高效性优势,还进一步提升了细节特征提取能力,尤其是在小目标和复杂背景下的检测精度。通过Scale层的多尺度适应性和DEConv的细节增强机制,LSDECD检测头在保持低参数量、低计算成本的同时,能够更精准地应对多尺度目标和复杂场景的检测任务,蜜蜂行为研究提供了更高效、更精准的技术支持。

3 结果与分析

3.1 训练环境与方法

为了验证YOLOv10n-CHL模型在检测性能上的显著提升,在三种蜜蜂授粉行为样本数据集上进行了实验。实验所使用的硬件和软件环境配置如下:Python 3.8、PyTorch 2.0.0、CUDA 11.8、GPU vGPU-32 GB,运行内存90 GB。输入图片尺寸为800×800。初始学习率设为0.01,Batchsize设为64,训练轮数设为500次。优化器选择使用随机梯度下降优化器(Stochastic Gradient Descent, SGD)对模型的参数进行更新。
为保证实验结果的公平性,在相同的硬件环境和初始训练参数设置下,统一对所有模型进行了训练。最终结果表明,YOLOv10n-CHL模型在三种蜜蜂授粉行为样本上展现出显著的检测性能提升,同时验证了模型卓越的泛化能力。

3.2 评级指标

该模型的性能评估涵盖多个关键指标,包括召回率(Recall, R)、平均精度均值(Mean Average Precision, mAP)、浮点数精度和模型大小。召回率反映了模型在识别蜜蜂授粉行为方面的覆盖能力,而mAP50则用于评估模型在交并比(Intersection over Union, IoU)阈值为50%时的综合表现。浮点数精度影响模型的计算精度和推理效率,较高的浮点数精度意味着更精确的计算。模型的大小直接影响其部署时的存储需求和推理速度。通常,模型越小,部署和推理速度越快,但可能会在一定程度上牺牲性能。综合考虑这些指标,可以全面评估YOLOv10在蜜蜂授粉行为检测中的表现,权衡精度、速度与资源消耗。
精确度(Precision, P)表示正确预测的蜜蜂授粉行为的比例,如公式(3)所示。
P = T P T P + F P
式中:TP(True Positives)为真正例;FP(False Positives)为假正例。高精度表示模型能够准确地识别蜜蜂授粉行为。
R表示模型检测到的蜜蜂授粉行为占所有真实蜜蜂授粉行为的比例,如公式(4)所示。
R = T P T P + F N
式中:FN(False Negatives)为假负例。高召回率意味着模型能够覆盖到更多的真实蜜蜂行为,尽管可能会误识别其他类别(例如飞行蜜蜂误识为授粉蜜蜂)。
AP是单个类别(例如授粉蜜蜂、飞行蜜蜂或花朵)的平均精确度,通常计算为精度-召回曲线(Precision-Recall Curve)下的面积。在目标检测中,通过不同的置信度阈值(Confidence Threshold)生成不同的精度和召回率对,并计算出这些对的平均值,如公式(5)所示。
A P = 0 1 P R d R
式中:P(R)为在召回率R下的精度。AP值越高,表示模型的性能越好,能够平衡精确度与召回率。
mAP是所有类别平均的AP值,通常用于评估多类别目标检测模型的整体性能,如公式(6)所示。
m A P = 1 N i = 1 N A P i
式中:N表示类别数量; A P i是第i类的平均精确度。对于多类别的蜜蜂授粉行为检测,mAP越高,表示该模型在所有类别上的检测性能越好。

3.3 消融实验

为了系统评估不同改进模块对YOLOv10n-CHL模型性能的影响,本研究针对三种数据集设计了3组消融实验,结果表明,各改进模块对模型性能的影响存在显著差异。
图9展示了草莓花、蓝莓花和菊花蜜蜂授粉数据集在各改进模块上的性能雷达图。从三组雷达图中可以看出,随着CSP_MSEE、HS-FPN和LSDECD模块的逐步引入,YOLOv10n-CHL模型的计算量和参数量分别达到了5.1 GFLOPS和1.3 M,累计减少了3.1 GFLOPS和1.3 M,满足了轻量化需求。性能方面,最终的 YOLOv10n-CHL模型在草莓花、蓝莓花、菊花蜜蜂授粉数据集的召回率和mAP50分别达到了82.6%、84.0%、84.8%和89.3%、89.5%、88.0%,较原模型分别提升了2.1%、2.0%、2.1%和1.7%、2.6%、2.2%。该结果表明,多模块协同优化既有效降低了模型复杂度,又显著提升了检测精度。为了更直观地评估不同改进模块对检测性能的影响,本研究基于不同数据集,绘制了各模块在mAP50指标上的可视化折线图,结果如图10所示。综上所述,本研究提出的YOLOv10n-CHL模型在显著降低计算量和参数量的同时,进一步提升了检测精度,为实际应用提供了更高效的解决方案。
图9 不同改进模块在不同花蜜蜂授粉数据集上的性能雷达图

Fig. 9 Performance radar chart of different improvement modules on the different flower bee data

图10 不同数据在不同改进模块中mAP50结果可视化

Fig. 10 Visualization of mAP50 results for different data in different improvement modules

3.4 对比实验

3.4.1 YOLOv10n-CHL与其他模型性能对比

为了验证本研究提出的YOLOv10n-CHL模型的性能优势,在相同的实验参数和数据集设置下,将其与当前主流的轻量级目标检测模型进行了全面对比,包括经典的更快的区域卷积神经网络(Faster Region-based Convolutional Neural Network,Faster-RCNN)和单次多框检测器(Single Shot MultiBox Detector, SSD)、YOLOv7tiny、YOLOv8n、YOLOv11n和YOLOv12n。通过严格的对比实验,YOLOv10n-CHL在检测精度和模型复杂度等关键指标上均展现出显著优势,具体对比结果详见表2
表2 不同数据集的蜜蜂授粉识别研究对比实验结果

Table 2 Comparative experimental results of bee pollination recognition studies across different datasets

模型 召回率 mAP50/% 计算效率/G 参数量/M
草莓 蓝莓 菊花 草莓 蓝莓 菊花
YOLOv7tiny 81.9 83.6 84.3 86.4 88.1 85.7 13.2 6.0
YOLOv8n 82.4 83.1 83.7 86.4 87.6 86.1 8.2 3.0
YOLOv11n 82.2 82.9 84.1 88.7 86.3 84.4 6.3 2.5
YOLOv12n 78.4 83.3 81.6 87.3 86.4 85.2 6.3 2.5
Faster-Rcnn 76.2 71.9 75.1 80.7 78.3 79.6 141.3 41.3
SSD 70.9 66.5 69.5 74.8 73 70.6 90.8 23.8
YOLOv10n-CHL 82.6 84 84.8 89.3 89.5 88 5.1 1.3

注:加粗数据表示最优结果。

综上所述,本研究提出的YOLOv10n-CHL模型与其他主流的轻量化模型相比,在多个方面展现了显著的优势。尽其在R、mAP50、计算效率和模型参数量上均表现出色。改进后的YOLOv10n-CHL模型在草莓花、蓝莓花和菊花数据集上的平均精度均值分别达到了89.3%、89.5%和88%,同时其计算复杂度仅为5.1 GFLOPS,参数量也控制在1.3 M。通过该模型的高精度检测能力,可以实时识别蜜蜂在花朵上的活动,帮助农户监测授粉效率,优化种植管理策略。同时,低计算复杂度和参数量使得该模型能够在边缘设备(如无人机或嵌入式设备)上运行,进一步降低了部署成本,为智慧农业提供了可靠的技术支持。

3.4.2 YOLOv10n改进前后性能对比

为评估YOLOv10n-CHL模型在蜜蜂授粉检测任务中的性能提升,本研究对模型改进前后的关键指标进行了系统性对比分析。表3为改进前后模型对三种数据集的总体检测性能进行对比,在草莓花、蓝莓花和菊花三种蜜蜂授粉数据集中,改进后的模型在R和mAP50两个核心指标上均表现出显著提升。在实现检测性能优化的同时,模型的计算复杂度得到有效降低,具体体现在GFLOPs和参数量的大幅减少。这一改进使得模型不仅提升了对小尺度目标的检测精度,同时显著降低了计算资源需求,从而为模型在移动设备等边缘计算平台的高效部署提供了技术可行性。
表3 YOLOv10n改进前后在蜜蜂授粉检测任务中的对比分析

Table 3 A comparative study of improved and baseline YOLOv10n on bee pollination detection pollination detection task

模型 召回率(Recall) mAP50/% FLOPs/G 参数量/M
草莓 蓝莓 菊花 草莓 蓝莓 菊花
YOLOv10n 80.5 82 82.7 87.6 86.9 85.8 8.2 2.6
YOLOv10n-CHL 82.6 84 84.8 89.3 89.5 88 5.1 1.3
图11展示了改进前后的YOLOv10n模型在蜜蜂授粉场景中对飞行蜜蜂类和授粉蜜蜂类的检测性能对比。实验结果表明,改进后的YOLOv10n-CHL模型在草莓花数据集上的检测性能显著提升,能够更准确地检测两类目标。然而,在蓝莓花数据集中授粉蜜蜂的R、菊花数据集中飞行蜜蜂的R和mAP出现小幅下降。这一现象可能归因于两个关键因素:一是蓝莓花和菊花场景中目标尺寸相对较小,增加了检测难度;二是复杂的花卉背景纹理对特征提取造成干扰。这些结果说明,虽然模型整体性能得到提升,但在特定复杂场景下仍存在优化空间,未来研究需要进一步关注小目标检测和复杂背景干扰问题。
图11 模型优化前后对飞行状态与授粉状态蜜蜂的检测性能对比研究

Fig. 11 Detection performance comparison of flying vs. pollinating bees before and after model optimization

3.4.3 数据类别不平衡实验

针对草莓花、蓝莓花和菊花蜜蜂授粉数据集中存在的类别不平衡问题(即飞行蜜蜂和授粉蜜蜂的样本量显著低于花朵样本量),本研究采用Focal Loss28损失函数与数据增强两种方法进行对比分析,以确定更适合该数据特征的解决方案。
Focal Loss是一种专门针对类别不平衡问题设计的损失函数,其通过引入两个关键参数实现样本平衡:α参数用于调节正负样本的权重分布,以缓解负样本主导损失函数的问题;γ参数则通过降低易分类样本的损失权重,使模型更加关注难分类样本(在本研究中特指数量较少的蜜蜂样本)。实验重点通过系统调节γ参数(γ=1.5)来优化模型对少数类(蜜蜂样本)的学习能力。
以草莓花数据集样本为例,从表4中的实验结果可以看出,经过对原始数据集进行16倍的数据增强后,基线模型在目标检测性能上相较于未增强数据集表现出一定程度的提升。具体而言,在授粉蜜蜂类别中,R由87.5%提升至87.9%,mAP50值由90.1%提升至92.4%,表明模型对该类别目标的识别能力得到了进一步加强。同时,在飞行蜜蜂类别中,mAP50值由72.2%提高至74.7%,也体现出模型在少样本类别上的检测效果有所改善。
表4 不同数据平衡策略下草莓花数据集目标检测模型性能对比

Table 4 Performance comparison of object detection models for strawberry flower datasets under different data balancing strategies

目标类别 R(原数据) R(Focalloss) R(增广16倍) mAP50/%(原数据) mAP50/%(Focalloss) mAP50/%(增广16倍)
飞行蜜蜂类 66.6 63.9 59.4 72.2 68.8 74.7
授粉蜜蜂类 87.5 73.2 87.9 90.1 84.1 92.4
然而,当少数类样本极为稀缺时,Focal Loss难以充分放大其训练信号,同时对易分类样本的损失抑制也会整体降低梯度强度,导致模型学习变“迟钝”。此外,Focal Loss无法优化目标框的位置和大小,对于如授粉蜜蜂这类小尺度、姿态多变且易被遮挡的目标,单纯依赖分类损失的优化难以显著提升整体检测性能。
综上所述,通过16倍数据增强,不仅提升了模型在主要类别上的检测精度,也在一定程度上缓解了少数类样本识别中的类别不平衡问题,验证了合理的数据增强策略在小样本和类间分布不均等复杂场景下对于提高目标检测模型鲁棒性的积极作用。

3.5 可视化实验分析

3.5.1 检测结果可视化

为系统评估YOLOv10n-CHL模型在不同拍摄距离下的蜜蜂授粉检测性能,本研究将草莓花、菊花和蓝莓花的蜜蜂授粉数据集按目标像素大小划分为两组:像素小于32 px的数据集和像素在32~96 px范围内的数据集,以模拟不同拍摄距离的检测场景。图12展示了三种数据集在不同像素范围内改进前后的检测效果可视化结果。
图12 不同目标尺寸下蜜蜂授粉检测模型改进前后的可视化对比结果

Fig. 12 Visual comparison results of bee pollination detection models before and after improvement under different target sizes

为量化分析改进模型对误检和漏检情况的优化效果,本研究在不同像素范围的数据集中统计了真阳性(TP)、假阳性(FP)和假阴性(FN)指标。如表5所示,在像素小于32 px的蓝莓花蜜蜂授粉数据集中,原始YOLOv10n模型存在1个漏检目标和6个误检目标;改进后的YOLOv10n-CHL模型则完全消除了漏检目标,并将误检目标减少至4个。由表6可见,像素在32~96 px范围内的菊花蜜蜂授粉数据中,原始模型出现1个漏检目标,而改进模型不仅消除了漏检现象,同时实现了零误检。这些结果表明,改进模型在不同尺度目标检测任务中均展现出更优越的性能。
表5 改进前后模型在像素小于32 px目标尺寸下的检测结果

Table 5 Detection results of original and improved models for targets less than 32 pixels in size

数据类别 YOLOv10n YOLOv10n-CHL
All TP FN FP All TP FN FP
草莓花 7 7 0 0 7 7 0 0
蓝莓花 45 38 1 6 45 41 0 4
菊花 27 26 0 1 27 26 0 1
表6 改进前后模型像素在32~96 px目标尺寸下的检测结果

Table 6 Detection results of original and improved models for targets of 32 to 96 pixels in size

数据类别 YOLOv10n YOLOv10n-CHL
All TP FN FP All TP FN FP
草莓花 4 4 0 0 4 4 0 0
蓝莓花 10 9 0 1 10 9 0 1
菊花 29 28 1 0 29 29 0 0
为评估模型改进对远距离拍摄蜜蜂和花朵这种小目标检测性能的影响,本研究选取了目标像素小于16 px的蜜蜂授粉数据集进行验证,通过APtiny29指标(专门用于评估像素小于16 px目标的检测性能)对比分析模型改进前后的检测效果,如表7所示。改进后的模型在APtiny指标上表现出显著提升,表明所提出的方法有效增强了模型对远距离拍摄场景下蜜蜂、花朵等微小目标的检测能力。
表7 改进前后模型在目标像素小于16 px尺寸下的检测结果

Table 7 Detection results of original and improved models for targets less than 16 px in size

数据类别 APtiny/%(YOLOv10n) APtiny/%(YOLOv10n-CHL)
草莓花 70 71.2
蓝莓花 55.2 59.6
菊花 68.5 70.4
实验结果表明,YOLOv10n-CHL模型不仅能够有效识别原始模型漏检的小目标,还显著降低了误检和漏检的发生率。这些发现充分验证了模型改进的有效性,表明所提出的改进方法在提升检测准确性和鲁棒性的同时,增强了模型在复杂环境下的适应能力,为蜜蜂授粉行为的精准监测提供了更可靠的技术支持。

3.5.2 CAM可视化分析

为了验证本研究提出的YOLOv10n-CHL模型在蜜蜂授粉识别任务中的有效性,采用了可视化热力图实验进行验证。具体而言,本研究引入了HiResCAM30这一改进的类别特定解释方法。与传统的Grad-CAM31相比,HiResCAM在梯度平均过程中消除了可能导致误导性高亮区域的因素,从而确保仅突出模型实际用于预测的关键区域,显著提高了解释的准确性与可信度。如图13所示,基于不同目标像素数据集的HiResCAM热力图分析结果表明,改进后的YOLOv10n-CHL模型展现出三个显著优势。首先,在目标定位方面,模型能够精准聚焦于花朵、飞行蜜蜂及授粉蜜蜂等关键区域;其次,在尺度适应性方面,对远景拍摄的小像素目标(如飞行蜜蜂、花朵等)表现出更强的聚焦能力;最后,在复杂场景处理方面,不仅有效区分了检测目标与背景干扰,还能准确识别蜜蜂的不同行为状态。这些可视化证据共同验证了该模型在蜜蜂授粉检测任务中的优越性能,特别是在小目标捕捉和复杂背景鲁棒性方面的突破。
图13 面向蜜蜂与花朵目标的不同像素级数据集在模型改进前后的热力图分析结果

Fig. 13 Heatmap analysis of model performance before and after improvement on datasets with different object pixel sizes for bee and flower targets

4 讨论与结论

花朵是否授粉是建立疏花模型的一个重要参数,蜜蜂授粉是花朵自然授粉的主要形式,因此使用深度学习方法准确且自动地识别蜜蜂访花行为不但可为建立精准疏花模型提供视觉维度信息,而且该成果还可进一步应用于设施农业的花卉、果树生产,实现授粉蜂群的动态监测与科学配置,同时为科研工作者研究蜜蜂授粉行为提供先进的智慧监测手段。
为解决蜜蜂授粉识别实验中面临的目标尺寸小、背景复杂,以及模型参数量大、难以部署等问题,本研究提出了一种基于YOLOv10n的轻量化模型YOLOv10n-CHL。该模型在主干网络部分采用CSP_MSEE模块替换了原有的C2f结构,通过多尺度边缘特征提取机制增强了模型对微小目标的特征捕获能力,同时有效降低了复杂背景对检测性能的干扰。在颈部网络设计中,引入了HS-FPN模块,该模块通过多层次特征选择融合与通道注意力机制相结合,显著提升了对小目标在复杂背景下的检测精度,同时大幅减少了计算开销,使其更适合部署在资源受限的边缘设备中。此外,在检测头部分,采用了LSDECD轻量化检测头,该结构在保证轻量化的同时进一步增强了模型的特征提取能力,实现了检测精度与计算效率的平衡。实验结果表明,在草莓花、蓝莓花、菊花蜜蜂授粉的三种数据集上,改进后的YOLOv10n-CHL模型与原基线模型相比R和mAP50分别提高了2.1%和1.7%、2.0%和2.6%、2.1%和2.2%,其GFLOPS与参数量也分别降低了3.1 GFLOPS和1.3 M。与主流轻量化模型相比,改进后的模型在保持轻量化的同时,显著提升了检测精度。
尽管改进后的YOLOv10n-CHL模型在轻量化方面取得了显著成效,但仍存在一些不足。首先,模型对授粉蜜蜂和飞行蜜蜂的检测效果仍有提升空间,尤其是在目标尺寸较小、运动状态复杂的情况下;其次,当前研究尚未充分考察不同光照条件(如强光、弱光)和天气变化(如阴天、雨天)对蜜蜂授粉检测性能的影响,这限制了模型在实际农业环境中的适用性。针对这些问题,后续研究将重点优化模型对小目标的识别能力,通过引入更高效的特征提取机制和多尺度融合策略,进一步提升检测精度。同时,将系统性地评估模型在不同环境条件下的性能表现,通过数据增强和自适应学习策略提高模型的泛化性和鲁棒性。最终目标是使蜜蜂授粉识别模型能够更好地服务于农业领域,减少人力成本,提升农业生产效率,并为精准农业的发展提供可靠的技术支持。

利益冲突声明

本研究不存在研究者以及与公开研究成果有关的利益冲突。

1
欧阳芳, 王丽娜, 闫卓, 等. 中国农业生态系统昆虫授粉功能量与服务价值评估[J]. 生态学报, 2019, 39(1): 131-145.

OUYANG F, WANG L N, YAN Z, et al. Evaluation of insect pollination and service value in China's agricultural ecosystems[J]. Acta ecologica sinica, 2019, 39(1): 131-145.

2
张旭凤, 王锋, 曹嵌, 等. 不同授粉方式下砀山酥梨早期受精生理特性与授粉效果分析[J]. 山西农业科学, 2025, 53(1): 119-128.

ZHANG X F, WANG F, CAO Q, et al. Analysis of physiological characteristics of early fertilization and pollination effects of pear(Pyrus bretschneideri cv. dangshansu) under different pollination methods[J]. Journal of Shanxi agricultural sciences, 2025, 53(1): 119-128.

3
朱兴赛, 袁斌, 袁德义, 等. 地熊蜂在油茶园中的访花行为与授粉效果[J]. 昆虫学报, 2025, 68(3): 311-320.

ZHU X S, YUAN B, YUAN D Y, et al. Flower visiting behavior and pollination effect of Bombus terrestris (Hymenoptera: Apidae) in Camellia oleifera plantation[J]. Acta entomologica sinica, 2025, 68(3): 311-320.

4
BILIK S, ZEMCIK T, KRATOCHVILA L, et al. Machine learning and computer vision techniques in continuous beehive monitoring applications: A survey[J]. Computers and electronics in agriculture, 2024, 217: ID 108560.

5
周中奎. 基于机器学习的智能汽车目标检测与场景增强技术研究[D]. 重庆: 重庆邮电大学, 2020.

ZHOU Z K. Research on machine learning based object detection and augmented reality technology for intelligent vehicle[D]. Chongqing: Chongqing University of Posts and Telecommunications, 2020.

6
秦放. 基于深度学习的昆虫图像识别研究[D]. 成都: 西南交通大学, 2018.

QIN F. Research on insect image recognition based on deep learning[D]. Chengdu: Southwest Jiaotong University, 2018.

7
LI W Y, YANG Z K, LV J W, et al. Detection of small-sized insects in sticky trapping images using spectral residual model and machine learning[J]. Frontiers in plant science, 2022, 13: ID 915543.

8
刘子毅. 基于图谱特征分析的农业虫害检测方法研究[D]. 杭州: 浙江大学, 2017.

LIU Z Y. Detection of agricultural pest insects based on imaging and spectral feature analysis[D]. Hangzhou: Zhejiang University, 2017.

9
YANG H P, MA C S, WEN H, et al. A tool for developing an automatic insect identification system based on wing outlines[J]. Scientific reports, 2015, 5: ID 12786.

10
杨万里, 段凌凤, 杨万能. 基于深度学习的水稻表型特征提取和穗质量预测研究[J]. 华中农业大学学报, 2021, 40(1): 227-235.

YANG W L, DUAN L F, YANG W N. Deep learning-based extraction of rice phenotypic characteristics and prediction of rice panicle weight[J]. Journal of Huazhong agricultural university, 2021, 40(1): 227-235.

11
WANG P, LUO F, WANG L H, et al. S-ResNet: An improved ResNet neural model capable of the identification of small insects[J]. Frontiers in plant science, 2022, 13: ID 1066115.

12
ZHANG X R, CHEN G. An automatic insect recognition algorithm in complex background based on convolution neural network[J]. Traitement du signal, 2020, 37(5): 793-798.

13
YE R, GAO Q, QIAN Y, et al. Improved YOLOv8 and SAHI model for the collaborative detection of small targets at the micro scale: A case study of pest detection in tea[J]. Agronomy, 2024, 14(5): ID 1034.

14
YUE G B, LIU Y Q, NIU T, et al. GLU-YOLOv8: An improved pest and disease target detection algorithm based on YOLOv8[J]. Forests, 2024, 15(9): ID 1486.

15
薛勇, 王立扬, 张瑜, 等. 基于卷积神经网络的蜜蜂采集花粉行为的识别方法[J]. 河南农业科学, 2020, 49(8): 162-172.

XUE Y, WANG L Y, ZHANG Y, et al. Recognition method of bee collecting pollen behavior based on convolutional neural network[J]. Journal of Henan agricultural sciences, 2020, 49(8): 162-172.

16
胡玲艳, 孙浩, 徐国辉, 等. 基于机器视觉的温室蓝莓花期蜜蜂授粉监测[J]. 华中农业大学学报, 2023, 42(3): 105-114.

HU L Y, SUN H, XU G H, et al. Machine vision-based monitoring honeybee pollination of blueberry in greenhouse[J]. Journal of Huazhong agricultural university, 2023, 42(3): 105-114.

17
孙逸飞, 丁桂玲, 路运才,等. 深度学习在蜜蜂研究中的应用[J]. 环境昆虫学报, 2023, 45(5): 1150-1160.

SUN Y F, DING G L, LU Y C, et al. Application of deep learning in honeybee researches[J]. Journal of Enwironmental entomology, 2023,45(5):1150-1160.

18
WANG J X, LIU M, DU Y R, et al. PG-YOLO: An efficient detection algorithm for pomegranate before fruit thinning[J]. Engineering applications of artificial intelligence, 2024, 134: ID 108700.

19
WANG A, CHEN H, LIU L H, et al. YOLOv10: Real-time end-to-end object detection[EB/OL]. arXiv: 2405.14458, 2024.

20
NEUBECK A, VAN GOOL L. Efficient non-maximum suppression[C]// 18th International Conference on Pattern Recognition (ICPR'06). Piscataway, New Jersey, USA: IEEE, 2006: 850-855.

21
WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Piscataway, New Jersey, USA: IEEE, 2020: 390-391.

22
XIE Y J, FEI Z N, DENG D, et al. MEEAFusion: Multi-scale edge enhancement and joint attention mechanism based infrared and visible image fusion[J]. Sensors, 2024, 24(17): ID 5860.

23
CHEN Y F, ZHANG C Y, CHEN B, et al. Accurate leukocyte detection based on deformable-DETR and multi-level feature fusion for aiding diagnosis of blood diseases[J]. Computers in biology and medicine, 2024, 170: ID 107917.

24
LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, New Jersey, USA: IEEE, 2017: 936-944.

25
殷波. 基于改进YOLOv8的轻量化火灾检测算法[J]. 计算机科学与应用, 2024, 14(9): 47-55.

YIN B. Lightweight fire detection algorithm based on an improved YOLOv8[J]. Computer science and application, 2024, 14(9): 47-55.

26
WU Y X, HE K M, ORTIZ A, et al. Group normalization[EB/OL]. arXiv: 1803.08494, 2018.

27
CHEN Z X, HE Z W, LU Z M. DEA-net: Single image dehazing based on detail-enhanced convolution and content-guided attention[J]. IEEE transactions on image processing, 2024, 33: 1002-1015.

28
LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]// Proceedings of the IEEE International Conference on Computer Vision. Piscataway, New Jersey, USA: IEEE, 2017: 2980-2988.

29
WANG J, YANG W, GUO H, et al. Tiny object detection in aerial images[C]// 2020 25th International Conference on Pattern Recognition (ICPR). Piscataway, New Jersey, USA: 2021: 3791-3798.

30
DRAELOS R L, CARIN L. Use HiResCAM instead of Grad-CAM for faithful explanations of convolutional neural networks[EB/OL]. arXiv: 2011.08891, 2020.

31
SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: Visual explanations from deep networks via gradient-based localization[C]// 2017 IEEE International Conference on Computer Vision (ICCV). Piscataway, New Jersey, USA: IEEE, 2017: 618-626.

文章导航

/