欢迎您访问《智慧农业(中英文)》官方网站! English
信息处理与决策

基于改进YOLOv8的小麦叶片病虫害检测轻量化模型

  • 杨锋 ,
  • 姚晓通
展开
  • 兰州交通大学 电子与信息工程学院,甘肃 兰州 730070,中国
姚晓通,博士,副教授,研究方向为物联网与智能测控、机器人与视觉控制、大数据与人工智能等。E-mail:

杨 锋,研究方向为基于深度学习的目标检测算法。E-mail:

YANG Feng, E-mail:

收稿日期: 2023-09-09

  网络出版日期: 2024-02-05

Lightweighted Wheat Leaf Diseases and Pests Detection Model Based on Improved YOLOv8

  • YANG Feng ,
  • YAO Xiaotong
Expand
  • School of Electronic and Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China
YAO Xiaotong, E-mail:

Received date: 2023-09-09

  Online published: 2024-02-05

Supported by

National Natural Science Foundation of China(51567014)

Gansu Provincial Science and Technology Plan Project(17CX2JA022)

Copyright

copyright©2024 by the authors

摘要

目的/意义 针对小麦叶片病虫害在自然环境下形态和颜色特征较为复杂、区分度较低等特点,提出一种高质量高效的病虫害检测模型,即YOLOv8⁃SS(You Only Look Once Version 8-SS),为病虫害的预防与科学化治理提供准确的依据。 方法 基于YOLOv8算法,采用改进的轻量级卷积神经网络ShuffleNet V2作为主干网络提取图像特征即YOLOv8-S,在保持检测精度的同时,减少模型的参数数量和计算负载;在此基础上增加小目标检测层和注意力机制SEnet(Squeeze and Excitation Network),对YOLOv8-S进行改进,在不降低检测速度和不损失模型轻量化程度的情况下提高检测精度,提出YOLOv8-SS小麦叶片病虫害检测模型。[结果与讨论] YOLOv8-SS模型在实验数据集上的平均识别精度和检测准确率分别达89.41%和91.00%,对比原模型分别提高10.11%和7.42%。因此,本研究所提出的方法可显著提高农作物病虫害的检测鲁棒性,并增强模型对小目标图像特征的提取能力,从而高效准确地进行病虫害的检测和识别。 结论 本研究使用的方法具有广泛适用性,可应用于大规模农作物病虫害检测的实际场景中。

本文引用格式

杨锋 , 姚晓通 . 基于改进YOLOv8的小麦叶片病虫害检测轻量化模型[J]. 智慧农业, 2024 , 6(1) : 147 -157 . DOI: 10.12133/j.smartag.SA202309010

Abstract

Objective To effectively tackle the unique attributes of wheat leaf pests and diseases in their native environment, a high-caliber and efficient pest detection model named YOLOv8-SS (You Only Look Once Version 8-SS) was proposed. This innovative model is engineered to accurately identify pests, thereby providing a solid scientific foundation for their prevention and management strategies. Methods A total of 3 639 raw datasets of images of wheat leaf pests and diseases were collected from 6 different wheat pests and diseases in various farmlands in the Yuchong County area of Gansu Province, at different periods of time, using mobile phones. This collection demonstrated the team's proficiency and commitment to advancing agricultural research. The dataset was meticulously constructed using the LabelImg software to accurately label the images with targeted pest species. To guarantee the model's superior generalization capabilities, the dataset was strategically divided into a training set and a test set in an 8:2 ratio. The dataset includes thorough observations and recordings of the wheat leaf blade's appearance, texture, color, as well as other variables that could influence these characteristics. The compiled dataset proved to be an invaluable asset for both training and validation activities. Leveraging the YOLOv8 algorithm, an enhanced lightweight convolutional neural network, ShuffleNetv2, was selected as the basis network for feature extraction from images. This was accomplished by integrating a 3×3 Depthwise Convolution (DWConv) kernel, the h-swish activation function, and a Squeeze-and-Excitation Network (SENet) attention mechanism. These enhancements streamlined the model by diminishing the parameter count and computational demands, all while sustaining high detection precision. The deployment of these sophisticated methodologies exemplified the researchers' commitment and passion for innovation. The YOLOv8 model employs the SEnet attention mechanism module within both its Backbone and Neck components, significantly reducing computational load while bolstering accuracy. This method exemplifies the model's exceptional performance, distinguishing it from other models in the domain. By integrating a dedicated small target detection layer, the model's capabilities have been augmented, enabling more efficient and precise pest and disease detection. The introduction of a new detection feature map, sized 160×160 pixels, enables the network to concentrate on identifying small-targeted pests and diseases, thereby enhancing the accuracy of pest and disease recognition. Results and Discussion The YOLOv8-SS wheat leaf pests and diseases detection model has been significantly improved to accurately detect wheat leaf pests and diseases in their natural environment. By employing the refined ShuffleNet V2 within the DarkNet-53 framework, as opposed to the conventional YOLOv8, under identical experimental settings, the model exhibited a 4.53% increase in recognition accuracy and a 4.91% improvement in F1-Score, compared to the initial model. Furthermore, the incorporation of a dedicated small target detection layer led to a subsequent rise in accuracy and F1-Scores of 2.31% and 2.16%, respectively, despite a minimal upsurge in the number of parameters and computational requirements. The integration of the SEnet attention mechanism module into the YOLOv8 model resulted in a detection accuracy rate increase of 1.85% and an F1-Score enhancement of 2.72%. Furthermore, by swapping the original neural network architecture with an enhanced ShuffleNet V2 and appending a compact object detection sublayer (namely YOLOv8-SS), the resulting model exhibited a heightened recognition accuracy of 89.41% and an F1-Score of 88.12%. The YOLOv8-SS variant substantially outperformed the standard YOLOv8, showing a remarkable enhancement of 10.11% and 9.92% in accuracy, respectively. This outcome strikingly illustrates the YOLOv8-SS's prowess in balancing speed with precision. Moreover, it achieves convergence at a more rapid pace, requiring approximately 40 training epochs, to surpass other renowned models such as Faster R-CNN, MobileNetV2, SSD, YOLOv5, YOLOX, and the original YOLOv8 in accuracy. Specifically, the YOLOv8-SS boasted an average accuracy 23.01%, 15.13%, 11%, 25.21%, 27.52%, and 10.11% greater than that of the competing models, respectively. In a head-to-head trial involving a public dataset (LWDCD 2020) and a custom-built dataset, the LWDCD 2020 dataset yielded a striking accuracy of 91.30%, outperforming the custom-built dataset by a margin of 1.89% when utilizing the same network architecture, YOLOv8-SS. The AI Challenger 2018-6 and Plant-Village-5 datasets did not perform as robustly, achieving accuracy rates of 86.90% and 86.78% respectively. The YOLOv8-SS model has shown substantial improvements in both feature extraction and learning capabilities over the original YOLOv8, particularly excelling in natural environments with intricate, unstructured backdrops. Conclusion The YOLOv8-SS model is meticulously designed to deliver unmatched recognition accuracy while consuming a minimal amount of storage space. In contrast to conventional detection models, this groundbreaking model exhibits superior detection accuracy and speed, rendering it exceedingly valuable across various applications. This breakthrough serves as an invaluable resource for cutting-edge research on crop pest and disease detection within natural environments featuring complex, unstructured backgrounds. Our method is versatile and yields significantly enhanced detection performance, all while maintaining a lean model architecture. This renders it highly appropriate for real-world scenarios involving large-scale crop pest and disease detection.

0 引 言

小麦产业发展对国家粮食安全和社会稳定具有直接且深远的影响1。根据初步统计数据,2022年全国小麦病虫害累计发生面积达到4 166万公顷次,同时防治工作也累计覆盖了7 148万公顷次。从整体角度来看,全国小麦病虫害的发生情况属于中等水平,但部分病虫害在局部地区的发生情况却显得较为严重,尤其是以西北地区最严重,发生种类主要有黄锈病、褐锈病、黑穗病、秆锈病、小麦蚜虫等2。计算机图像处理技术的迅速发展,为农作物病虫害的识别提供了新的科学途径。例如,在农业生产过程中,使用基于深度学习算法能准确地分析农作物病虫害现状,并做出迅速且准确的反应,在受影响的区域进行精确的农药喷洒,提高农药使用效率3。综观农作物病虫害检测方法的发展历程,可以得出:基于人工的检测方法具有主观性强、效率低且检测准确率低的弊端;基于仪器的检测方法具有自动化及智能化偏低与结果受外界环境等因素影响的局限;基于数理统计的检测方法具有工作量大、使用范围小和需要专业的统计学及农业学相关知识的局限。基于深度学习的检测方法能够自动、高效、准确地从大量农作物病虫害图像中提取病虫害目标特征,代替传统检测方法、辅助农业人员完成农作物预防与治理的潜力。目前,深度学习算法在识别农作物病虫害的准确度和速度方面具有显著优势,众多学者在不断优化和改进这些深度学习算法模型,并尝试将其应用于农作物的病虫害分类检测与识别研究中。Sladojevic等4采用AlexNet5卷积网络开发了一种基于农作物图像分类识别病虫害的新方法,在单独类别测试中,精度达到91%~98%,模型最终总体准确率达到96.3%。张航等6提出了一种面向大规模多类别病虫害检测识别方法,采用卷积神经网络(Convolutional Neural Network, CNN)并利用随机梯度下降法进行优化,通过样本学习获取特征集,并通过该特征集对小麦图片进行病害识别,可有效识别小麦常见的病虫害,综合识别率超过90%。贾少鹏等7提出了一种将CNN与胶囊网络(Capsule Network, CapsNet)8相结合的病虫害检测新模型。该模型在农作物病虫害图像识别准确率达到93.75%,相比传统的CNN模型提高3.55%。Xue等9提出了一种基于改进YOLOv5的茶叶病虫害检测模型YOLO-Tea,用于在自然环境下拍摄的茶树叶片病虫害检测,与YOLOv5s、Faster R-CNN和SSD(Single Shot MultiBox Detector)等模型相比,YOLO-Tea在所有测试数据上提高0.3%~15.0%。Huang等10提出了一种基于知识蒸馏的植物病害检测方法来提高模型检测性能,以实现多种农作物的多种病害的高效诊断,在模型参数较小的PlantDoc数据集中实现了60.4%的mAP@.5,优于现有方法。总体而言,多级知识蒸馏技术可以使模型更轻,同时保持高精度。Jiang等11提出了一种基于多任务学习思想的VGG16(Visual Geometry Group 16)模型,进行改进后再利用ImageNET上的预训练模型进行迁移学习和交替学习。通过对比实验证明,该方法在迁移学习中的效果优于单任务模型、Reuse-Model方法、ResNet50模型和DeneNet121模型,也表明提出的改进VGG16模型和多任务迁移学习方法可以同时识别多种植物叶病害。Dong等12提出了一系列常用的基于植物病害图像的预训练模型PDDD-PreTrain,模型能够以更少的训练时间实现比现有预训练模型更高的准确率。
虽然这些针对农作物病虫害检测与识别的研究取得了较大的进展,但依旧存在一些问题亟待解决。首先,农作物病虫害数据集样本质量是导致检测识别准确率降低的主要因素。例如,数据集标注信息不完整;低分辨率的样本会使病虫害的外观不易辨别;背景复杂与光照不足条件下,农作物病虫害的外观特征发生变化,会使算法将背景等误判为病虫害。其次,对于复杂、非结构背景下的小目标病虫害的检测研究较少。最后,研究者采用模型融合的方法,虽然保证检测的准确率,但增加了计算量。因此,比对了诸多文献与深度学习算法之后,本研究使用改进YOLOv8算法对自然状态下的小麦病虫害进行检测研究,其优势为:(1)YOLOv8采用先进的训练方法和技巧,模型的训练时间更短、收敛速度快、模型泛化能力强。同时,YOLOv8还提供了更加丰富的超参数和模型结构选项,使得用户可以更加方便地进行模型调整和优化。(2)原生支持自定义构建的数据集训练,这对于需要针对特定场景(如农作物病虫害检测等)进行目标检测来说非常有用。(3)YOLOv8相比之前的版本,将推理速度提升了数倍之多,在速度提升的同时,依旧保持更高的检测精度。

1 试验材料

1.1 小麦叶片病虫害数据集采集

数据集采集以甘肃省兰州市榆中县各农田为主,使用华为手机拍摄,采集时间为2023年3月10日和2023年6月22日。为保证采集的数据集完整性,分别选择晴天、阴天和雨后的不同天气采集图像。如图1所示,小麦病虫害数据集共5种病虫害,包括小麦黄锈病(Wheat Yellow Rust)、小麦褐锈病(Wheat Brown Rust)、小麦黑穗病(Wheat Smut)、小麦秆锈病(Wheat Stem Rust)、小麦蚜虫(Wheat Aphids),以及健康小麦(Wheat Healthy)的高分辨率的照片。由于采集的图像是在各农田复杂的环境下随机拍摄的,对光照不充足、逆光、病虫害遮挡严重及模糊的照片予以删除,整理保留共计3 639张。此外,为保证将算法应用于实际场景中,对有些样本照片中出现非病虫害类的物体,仅裁剪去掉多余的部分,之后用黑色背景补充完整,使所有样本像素大小一致。
图1 小麦病虫害图像

Fig. 1 Images of wheat diseases and pests

1.2 小麦叶片病虫害数据集构建

选用LabelImg软件对以上的3 639张小麦叶片病虫害图像进行目标标注。在构建数据集时,为更有效地评估模型的泛化能力,将数据集按照8∶2的比例划分为训练集和测试集观察并记录小麦叶片的外观、纹理、颜色等特征,以及各种可能影响这些特征的因素。随后,对这些数据进行预处理和标注,最终形成可用于训练和测试的完整数据集。这个数据集的构建过程具有严格的可重复性。小麦病虫害数据集如表1所示。
表1 小麦病虫害数据集

Table1 Data set of wheat diseases and pests

小麦病虫害类别

训练集样本

数量/张

测试集样本

数量/张

样本总数量/张
健康小麦 230 58 288
黄锈病 550 138 688
褐锈病 578 144 722
黑穗病 647 162 809
秆锈病 496 124 620
小麦蚜虫 410 102 512

2 算法模型及评价指标

2.1 SEnet注意力机制

SEnet(Squeeze-and-Excitation Network)13注意力机制通过自学习的方式,自动推断每个特征通道的重要性,并利用这些重要性对特征进行提升或抑制,从而提高当前任务的相关性特征14。这一功能的实现主要归功于Squeeze模块和Exciation模块的协同作用15。SEnet注意力机制模块结构如图2所示。
图2 SEnet注意力机制模块结构

Fig. 2 Modular structure of SEnet attention mechanism

在保持计算负担最小化的基础上,使用SEnet注意力机制模块,旨在提升模型的精确度,分别在YOLOv8的Backbone端、Neck端添加。其中,在Backbone端的1×1的卷积核后添加SEnet模块,在下文中将详细叙述,在Neck端的PAN-FPN(Path Aggregation Network-Feature Pyramid Network)上采样的upsample结构后添加SEnet注意力机制模块,作用就是让不同尺度的目标特征融合,为后续的检测做基础,所以加强后的Neck端的网络结构再次提升算法的性能。在YOLOv8模型中使用该注意力机制可以帮助模型更准确地捕捉和定位病虫害在图像中的位置。

2.2 ShuffleNetv2网络及改进

ShuffleNet是一种轻量化网络结构,主要思路是使用Group Convolution和Channel Shuffle改进ResNet。与MobileNetv216、Faster R-CNN17、AlexNet18等网络相比, ShuffleNet利用了分组点卷积来降低参数量,利用通道重排操作来增强不同通道之间的交互和融合,在保留了模型精度的同时极大减少了计算开销。ShuffleNetV219解决了ShuffleNet V120中的4个技术问题。因此,本研究选用ShuffleNet V2网络,该网络在保证精度的同时,极大地减少了计算量,并更高效地利用逐点分组卷积、通道重排策略及深度可分离卷积等技术。ShuffleNet V2模型结构主要由基础单元(Basic Unit)和下采样单元(Down-sampling Unit)构建21。改进的ShuffleNet V2网络如图3所示。
图3 ShuffleNet V2网络改进流程图

(a) Basic unit (b) Down-sampling unit

Fig. 3 Improvement flow chart of ShuffleNet V2 network

本研究旨在以改进的ShuffleNet V2网络作为骨干网络,即在原模型的基础上进行结构优化(图3)。首先,增加1组3×3的DWConv卷积核22,组成2组3×3的DWConv卷积核可以提高感受野,对特征提取阶段进行优化;其次,在最后的一个阶段中加入SEnet注意力机制;最后,使用h-swish激活函数23代替原来的Relu激活函数23,与SEnet注意力机制组合使用。这一改进显著弱化了模型内在的跨通道关联性和空间相关性,从而优化了模型对图像通道信息的识别效果。

2.3 小目标检测层

本研究模型接受640×640像素的输入图像。在最小检测尺度为80×80像素的情况下,模型对每个网格进行检测,并获得8×8像素的感受野。然而,原YOLOv8检测尺寸分别为:特征图像素为80×80,用于检测像素大小在8×8以上的目标;特征图像素为40×40,用于检测像素大小在16×16以上的目标;特征图像素为20×20,用于检测像素大小在32×32以上的目标。如果目标的高度和宽度均小于8像素,则原始模型可能无法准确识别网格内的目标特征信息。
因此,通过增加小目标检测层,即在原来的模型中新增像素为160×160的检测特征图,可以让网络更加关注小目标病虫害的检测,提高检测效果。具体见YOLOv8-SS网络框架中的小目标检测层。首先,将Backbone端的80×80尺度特征层与Neck端的上采样特征层累积到起来。其次,通过C2f、SEnet和Upsample操作,得到包含小目标特征信息的深层语义特征层。再次,将这个深层语义特征层与Backbone中的浅层位置特征层进行累积,从而完善160×160像素融合特征层对小目标语义特征及位置信息的表达能力。最后,将结果送至Head中的一个额外的解耦头。

2.4 小麦叶片病虫害识别算法模型

为增进小麦叶片病虫害检测的精确度,本研究提出了一种改进优化的网络架构——YOLOv8-SS,算法模型框架如图4所示。
图4 小麦叶片病虫害检测模型框架

Fig. 4 Frame of wheat leaf disease and insect pest detection model

模型主要以YOLOv8算法为基础,并在其上进行改进优化,具体如图5所示。
图5 YOLOv8-SS网络架构图

Fig. 5 Architecture diagram of YOLOv8-SS network

具体来说,YOLOv8-SS相对原模型改进了以下几点。
(1)Backbone:以改进的轻量级的卷积神经网络ShuffleNet V2作为主干网络进行特征提取,进一步实现了轻量化。此外,保留使用原架构中的SPPF(Spatial Pyramid Pooling Fusion)模块,可以解决卷积神经网络对图像重复特征提取时产生的问题,生成候选框的速度加快且节省计算成本。
(2)Neck:保留使用PAN-FPN结构,在其上采样的upsample结构后添加SEnet注意力机制,配合增加的小目标检测层,使模型变得高效、快速。
(3)Head:保留使用解耦头结构,将分类和检测头分离,有效地提升检测精度。其使用4个输出分支,但每一个输出分支又分为两部分,分别为分类和回归边框。最后,模型还结合YOLOv8原有的数据增强、特征融合、损失函数、样本匹配和模块机制。这种结合既保证了网络轻量化,又确保了检测精度,还显著降低模型的参数量和计算复杂度,从而提高了模型的实用性和可扩展性。
总之,对原有算法的改进,在不损失检测速度和模型轻量化程度的情况下提高检测精度。这种设计方法可以提高检测的鲁棒性,能提升模型对病虫害小目标的特征提取能力,且快速有效地识别各类病虫害。在移动端场景中可广泛运用于大规模的农作物病虫害的识别任务。YOLOv8-SS算法流程如图6所示。
图6 小麦叶片病虫害检测模型YOLOv8-SS流程图

Fig. 6 Flow chart of wheat leaf disease and insect pest detection model YOLOv8-SS

2.5 模型训练与评价指标

2.5.1 算法模型训练环境

本研究使用的算法模型的训练环境如表2所示。
表2 小麦病虫害检测研究的计算机训练环境

Table 2 Computer training environment for wheat disease and pest detection

配置 配置名称 详细信息
硬件配置 CPU Intel(R)Core(TM)i7-11700
运行内存大小 32 GB
GPU 英伟达 GTX 3080TI
显存大小 12 GB
软件配置 操作系统 Windows 11
Python版本 3.7
深度学习框架 Pytorch 1.8.0
CUDA 11.1

2.5.2 实验环境参数设置

实验中输入图像的像素被缩放至大小为640×640,并配合使用Mosaic数据增强24,但仅在训练前50%中使用Mosaic。在模型训练的过程中,初始学习率(Learning Rate, LR)是0.000 1,配合优化器Adam25调整学习率,batch_size与epoch分别设置为64与100。在进行性能测试时,设置IoU26阈值为0.5,预测的结果采用非极大值抑制(Non-maximum Suppression, NMS)25,并且NMS的IoU阈值同为0.5。

2.5.3 评价指标

通过召回率(Recall)、精准率(Precision)、F 1分数(F 1 Score)、检测速度、参数量与运算量等相关参数对本研究网络模型的性能进行评价。其中模型检测速度以单幅图像检测耗时作为评价指标,模型检测各类小麦叶片病虫害的准确度采用精度AP(Average Precision)作为评价指标,mAP则表示数据集中所有类别AP的均值。

3 试验结果与分析

3.1 主干网络对比实验

以YOLOv8模型为基础,通过使用不同主干网络的实验比较,验证用改进ShuffleNet V2代替原DarkNet-53网络的优点,实验结果如表3所示。从表3中可知,首先,采用轻量级网络ShuffleNet V2代替原YOLOv8的DarkNet-53网络,检测精确率提升0.91%,但是检测速度没有变化;将改进的ShuffleNetv2代替DarkNet-53网络,精确率提升4.53%。因此,改进的ShuffleNet V2网络提升了YOLOv8模型的检测性能。
表3 YOLOv8不同主干网络对比实验

Table 3 Comparison experiments of different backbone networks of YOLOv8

网络模型 主干网络 精确率/% 召回率/% mAP_0.5/% F 1分数/% 检测速度/s
YOLOv8 DarkNet-53 79.30 79.11 79.56 78.20 0.77
YOLOv8 ShuffleNetv2 80.21 80.16 80.61 80.07 0.77
YOLOv8 改进ShuffleNetv2 83.83 83.75 83.69 83.11 0.75

3.2 消融实验

在消融实验中,为保证对比合理性,所有模型均使用相同的数据集,并在相同的参数环境下进行训练。为对比使用改进ShuffleNet V2网络模块、SEnet注意力机制模块和小目标检测层模块对原YOLOv8模型带来的性能提升表现,进行模型消融实验,对比结果如表4所示。由表4可知,首先,在YOLOv8中使用改进的ShuffleNet V2网络代替原骨干网络,与原模型相比,识别精确率和F 1分数分别提高4.53%和4.91%;在提升精度的同时,模型的参数量与运算量减少约1/3。在此基础上,通过添加小目标检测层,虽然模型的参数量与运算量有小幅度的增加,但模型的精确率和F 1分数又分别提高2.31%和2.16%。其次,通过添加SEnet注意力机制模块,与原YOLOv8模型对比,检测精确率增加1.85%,F 1分数增加2.72%。最后,使用改进的ShuffleNet V2网络代替原骨干网络、添加SEnet注意力机制模块和小目标检测层后的YOLOv8,即YOLOv8-SS,模型识别精确率是89.41%,F 1分数是88.12%。与原YOLOv8相比,分别提高10.11%和9.92%。
表4 自建数据集的YOLOv8-SS模型的消融实验

Table 4 Ablation experiment of YOLOv8-SS model with self-built dataset

序号 改进ShuffleNetV2网络 SEnet注意力机制模块 小目标检测层 精确率/% F 1分数/% 参数量/G 运算量/G
1 × × × 79.30 78.20 3.011 8.20
2 × × 83.83 83.11 2.115 5.76
3 × × 81.15 80.92 3.012 8.20
4 × 85.54 85.27 2.123 5.81
5 89.41 88.12 2.124 5.82

注:√表示使用该模块;×表示没有使用该模块。

YOLOv8-SS在数据集上的可视化实验结果如图7所示。从图7中可看出,本研究提出的模型收敛速度较快,在40次epoch左右就趋于收敛,并且能够在短时间内训练出较优的模型。同时,模型对各类小麦病虫害的识别较好,其中对秆锈病的识别精度最高;对黄锈病的识别精度最差;但平均识别精度较好。
图7 小麦叶片各类病虫害检测结果

Fig.7 Detection results of various diseases and pests of wheat leaves

3.3 不同网络模型性能对比实验

为验证本研究提出模型的有效性,选择Faster R-CNN、MobileNetv2、SSD、YOLOv5、YOLOX、YOLOv8及本研究提出的YOLOv8-SS共7种网络模型在相同的训练环境下用自建的数据集进行对比实验。选择评价指标从准确率、召回率、mAP_0.5、F 1分数和检测速度得到对比实验结果,表中所有数据均使用平均值。实验结果如表5所示。从表5中得出,对于小麦叶片病虫害目标检测场景,一般的卷积神经网络Faster R-CNN、MobileNetv2和SSD的检测效果差,而YOLOv8-SS模型检测效果较优秀,其中比Faster R-CNN、MobileNetv2和SSD的平均精确率分别提高23.01%、15.13%和11%;相比最差的YOLOX模型提高27.52%;相比YOLOv5提高25.21%;相比原YOLOv8模型提高10.11%。
表5 不同网络模型的小麦病虫害检测性能对比结果表

Table 5 Comparison of detection performance of wheat diseases and insect pests with different network models

对比模型名称 精确率/% 召回率/% mAP_0.5/% F 1分数/% 检测速度/s
Faster R-CNN 66.40 60.30 63.40 61.22 0.49
MobileNetv2 74.28 74.13 74.8 74.08 0.63
SSD 78.41 78.27 78.21 78.14 1.37
YOLOv5 64.80 61.28 65.24 61.67 0.82
YOLOX 61.89 61.50 60.78 63.54 0.51
YOLOv8 79.30 79.11 79.56 78.20 0.77
YOLOv8-SS 89.41 89.20 91.24 88.12 0.78

3.4 模型泛化性试验

为验证所改进的YOLOv8-SS算法模型的泛化性,在AI Challenger 201827、Plant-Village和LWDCD 202028小麦病害公开数据集上,开展与自建数据集的比较试验。其中,数据集LWDCD 2020选择4类小麦叶片进行病害检测,鉴于AI Challenger 2018与Plant-Village数据集农作物种类多、数量大,并且有很多图像存在标签交叉,以及只有根据不同的病害程度来划分种类的现象。因此,从AI Challenger 2018中选择玉米的6种病虫害样本图像进行重新整理与病虫害标注且格式为沿着玉米的矩形标注框,命名为AI Challenger 2018-6。同时,从Plant-Village选择植物叶片的5种不同疾病图像仅选取进行重新整理与疾病标注且格式为矩形标注框,命名为Plant-Village-5。试验结果如表6所示。
表6 4种数据集的YOLOv8-SS的检测结果对比表

Table 6 Comparison table of detection results of YOLOv8-SS for 4 datasets

数据集名称 精确率/% 召回率/% mAP_0.5/% F 1分数/% 检测速度/s
AI Challenger 2018-6 86.90 86.30 86.93 86.22 0.79
Plant-Village-5 86.78 86.13 86.80 86.08 0.73
LWDCD 2020 91.30 90.87 91.61 90.74 0.82
自建数据集 89.41 89.24 90.10 88.12 0.78
表6可以得出,在使用同一网络模型YOLOv8-SS下,LWDCD 2020数据集检测精确为91.30%,比自建数据集提高1.89%,然而AI Challenger 2018-6与Plant-Village-5数据集表现较差,精确率分别仅有86.90%与86.78%。
为探究LWDCD 2020数据集的检测精确率高的原因,取自建数据集中的4类病害做数据集标注文件统计并可视化实验,结果如图8所示。其中,图8(a)~图8(d)为自建数据集的可视化结果,图8(e)~图8(h)为LWDCD 2020数据集可视化结果,统计训练集数据每个类别数量直方图(图8(a)和图8(e))、把所有框的xy中心值设置在相同位置看每个训练集数据每个标签框的长宽情况(图8(b)图8(f))、绘制xy变量直方图来显示数据集的分布(图8(c)图8(g))、绘制width,height变量直方图来显示数据集的分布(图8(d)图8(h))。可以得出,LWDCD 2020对易检测病害的样本数量比自建数据集较多且病害数量分布不均等;LWDCD 2020在病害的矩形标注框位置较清晰;LWDCD 2020的数据集分布相对集中。因此,本研究提出的方法具有广泛适用性,可应用于大规模农作物病虫害检测的实际场景中。
图8 数据集标注文件统计并可视化图

Fig. 8 Dataset annotation file statistics and visualization

4 讨论与结论

4.1 讨论

针对复杂、非结构背景的自然环境下,深度学习网络模型在提取特征与学习的能力会受到一定的限制。为降低影响,本研究以YOLOv8算法为基础,采用改进优化的ShuffleNet V2替换原模型的DarkNet-53网络,在保持检测精度的同时,减少模型的参数量与计算负载。邓洁29与张航等6使用基于卷积神经网络与胶囊网络联合的小麦病虫害识别方法,对小麦病虫害进行分类检测,平均准确率在80%以上,使用这种方法在样本数量少的情况下,可以提高网络分类模型的识别效率。借鉴这种创新方法,可以将本研究的ShuffleNet V2网络与胶囊网络组合使用,借助胶囊网络对图像特征的保留能力强的特征,提高网络模型的学习能力,从而提高模型的识别效率。国内外对于病虫害小目标的研究较少。韩强30在针对小目标标注框分辨率低、分布密集易重叠等问题,提出使用可变形卷积 (Deformable Convolutional Networks, DCN)模块,旨在增强模型学习复杂目标不变形的能力。对比本研究中增加小目标检测层的思想,前者能够灵活处理小目标对应检测点感受不足的问题,从而改善漏检误检的情况,提升检测精度。本研究通过增加小目标检测层,即在原来的模型中新增160×160像素的检测特征图,可以让网络更加关注小目标病虫害的检测,提高检测效果。

4.2 结论

本研究针对小麦叶片病虫害形态和颜色特征较为复杂、区分度较低等特点,提出了一种改进的小麦叶片病虫害检测模型YOLOv8⁃SS,使用自主拍摄的小麦叶片病虫害图像构建数据集,主要研究结论如下。
(1)自定义完成自然环境下的小麦病虫害数据集,保证其数据完整性与可靠性。
(2)使用改进轻量级的卷积神经网络ShuffleNet V2为基础网络架构作为主干网络提取特征,可以在保持较高精度的同时,减少模型的参数数量和计算负载。增加SEnet注意力机制模块,在不损失检测速度和模型轻量化程度的情况下提高检测精度。此外,添加小目标检测层可以提高小目标缺陷检测的精确度,对特征提取阶段进行进一步的优化,并结合原YOLOv8其余的核心模块,提出YOLOv8-SS小麦叶片病虫害检测模型,完成小麦叶片病虫害的精准检测。
(3)改进后的YOLOv8-SS模型在自建的数据集上的平均准确率为89.41%,模型的平均准确率和平均F 1分数分别提高10.11%和9.92%。
综上所述,该模型以较高的识别精度为前提,同时占用较少的存储空间,相较于常见的检测模型,本研究改进的模型在检测精度和速度方面表现优越,具有较高的应用价值。该模型在复杂、非结构化背景的自然环境下进行农作物病虫害检测研究提供了参考。下一步将研究中需要进一步增加病虫害的种类与样本数量,以提高模型的精确度和识别种类数;组合使用各种网络模型及优化改进,继续提升训练时间与精确度。

利益冲突声明

本研究不存在研究者以及与公开研究成果有关的利益冲突。

1
曾圣然, 尚禹. 分子生物学在小麦栽培方面的研究和未来方向[J]. 种子科技, 2021, 39(15): 22-23.

ZENG S R, SHANG Y. Research and future direction of molecular biology in wheat cultivation[J]. Seed science & technology, 2021, 39(15): 22-23.

2
李跃, 刘万才, 赵中华. 2022年全国小麦病虫害发生防治概况及对策思考[J]. 中国植保导刊, 2023, 43(1): 52-54, 92.

LI Y, LIU W C, ZHAO Z H. The occurrence and management of wheat insect pests and diseases in China in 2022 and reflections on pest control measures[J]. China plant protection, 2023, 43(1): 52-54, 92.

3
兰玉彬, 王天伟, 陈盛德, 等. 农业人工智能技术:现代农业科技的翅膀[J]. 华南农业大学学报, 2020, 41(6): 1-13.

LAN Y B, WANG T W, CHEN S D, et al. Agricultural artificial intelligence technology: Wings of modern agricultural science and technology[J]. Journal of South China agricultural university, 2020, 41(6): 1-13.

4
SLADOJEVIC S, ARSENOVIC M, ANDERLA A, et al. Deep neural networks based recognition of plant diseases by leaf image classification[J]. Computational intelligence and neuroscience, 2016, 2016: ID 3289801.

5
KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

6
张航, 程清, 武英洁, 等. 一种基于卷积神经网络的小麦病害识别方法[J]. 山东农业科学, 2018, 50(3): 137-141.

ZHANG H, CHENG Q, WU Y J, et al. A method of wheat disease identification based on convolutional neural network[J]. Shandong agricultural sciences, 2018, 50(3): 137-141.

7
贾少鹏, 高红菊, 杭潇. 基于深度学习的农作物病虫害图像识别技术研究进展[J]. 农业机械学报, 2019, 50(S1): 313-317.

JIA S P, GAO H J, HANG X. Research progress on image recognition technology of crop pests and diseases based on deep learning[J]. Transactions of the Chinese society for agricultural machinery, 2019, 50(S1): 313-317.

8
DENG F, PU S L, CHEN X H, et al. Hyperspectral image classification with capsule network using limited training samples[J]. Sensors, 2018, 18(9): ID 3153.

9
XUE Z Y, XU R J, BAI D, et al. YOLO-tea: A tea disease detection model improved by YOLOv5[J]. Forests, 2023, 14(2): ID 415.

10
HUANG Q D, WU X C, WANG Q, et al. Knowledge distillation facilitates the lightweight and efficient plant diseases detection model[J]. Plant phenomics, 2023, 5: ID 0062.

11
JIANG Z C, DONG Z X, JIANG W P, et al. Recognition of rice leaf diseases and wheat leaf diseases based on multi-task deep transfer learning[J]. Computers and electronics in agriculture, 2021, 186: ID 106184.

12
DONG X Y, WANG Q, HUANG Q D, et al. PDDD-PreTrain: A series of commonly used pre-trained models support image-based plant disease diagnosis[J]. Plant phenomics, 2023, 5: ID 0054.

13
HU J, SHEN L, ALBANIE S, et al. Squeeze-and-Excitation Networks[J]. IEEE trans pattern anal mach intell, 2020, 42(8): 2011-2023.

14
TANG Z Y, LIU X L, LI Y, et al. Multi-atlas brain parcellation using squeeze-and-excitation fully convolutional networks[J]. IEEE transactions on image processing, 2020, 29: 6864-6872.

15
REDMON J, FARHADI A. YOLOv3: An Incremental Improvement[J]. arXiv e-prints, 2018.DOI:10.48550/arXiv.1804.02767 .

16
SANDLER M, HOWARD A, ZHU M L, et al. MobileNetV2: Inverted residuals and linear bottlenecks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, New Jersey, USA: IEEE, 2018: 4510-4520.

17
REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137-1149.

18
ALOM M Z, TAHA T M, YAKOPCIC C,et al. The history began from AlexNet: A comprehensive survey on deep learning approaches[EB/OL]. arXiv:1803.01164 [cs.CV], 2018.

19
MA N N, ZHANG X Y, ZHENG H T, et al. ShuffleNet V2: Practical guidelines for efficient CNN architecture design[C]// European conference on computer vision. Cham, Switzerland: Springer, 2018: 122-138.

20
ZHANG X Y, ZHOU X Y, LIN M X, et al. ShuffleNet: An extremely efficient convolutional neural network for mobile devices[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, New Jersey, USA: IEEE, 2018: 6848-6856.

21
LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, New Jersey, USA: IEEE, 2015: 3431-3440.

22
LIU S, QI L, QIN H F, et al. Path aggregation network for instance segmentation[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, New Jersey, USA: IEEE, 2018: 8759-8768.

23
SIMONYAN K, ZISSERMAN A.Very deep convolutional networks for large-scale image recognition[EB/OL]. arXiv:1409.1556 [cs.CV], 2014.

24
JIAO L C, ZHANG F, LIU F, et al. A survey of deep learning-based object detection[J]. IEEE access, 2019, 7: 128837-128868.

25
CAI D L, ZHANG Z Y, ZHANG Z. Corner-point and foreground-area IoU loss: Better localization of small objects in bounding box regression[J]. Sensors, 2023, 23(10): ID 4961.

26
SHEPLEY A J, FALZON G, KWAN P, et al. Confluence: A robust non-IoU alternative to non-maxima suppression in object detection[J]. IEEE transactions on pattern analysis and machine intelligence, 2023, 45(10): 11561-11574.

27
HUGHES D P, SALATHE M. An open access repository of images on plant health to enable the development of mobile disease diagnostics[EB/OL]. arXiv: 1511.08060, 2015.

28
GOYAL L, SHARMA C M, SINGH A, et al. Leaf and spike wheat disease detection & classification using an improved deep convolutional architecture[J]. Informatics in medicine unlocked, 2021, 25: ID 100642.

29
邓洁. 基于深度学习的小麦病虫害图像识别系统的开发与应用[D]. 太谷: 山西农业大学, 2022.

DENG J. Development and application of an image recognition system for wheat diseases and insect pests based on deep learning[D]. Taigu: Shanxi Agricultural University, 2022.

30
韩强. 面向小目标检测的改进YOLOv8算法研究[D]. 长春: 吉林大学, 2023.

HAN Q. Research on improved YOLOv8 algorithm for small target detection[D]. Changchun: Jilin University, 2023.

文章导航

/