Welcome to Smart Agriculture 中文
Special Issue--Agricultural Information Perception and Models

Shrimp Diseases Detection Method Based on Improved YOLOv8 and Multiple Features

  • XU Ruifeng 1, 2, 3, 4 ,
  • WANG Yaohua 1, 3, 4 ,
  • DING Wenyong 1, 3, 4 ,
  • YU Junqi 1, 3, 4 ,
  • YAN Maocang , 1, 3, 4 ,
  • CHEN Chen , 1, 3, 4
Expand
  • 1. Zhejiang Mariculture Research Institute, Wenzhou 325000, China
  • 2. Shanghai Ocean University, Shanghai 201306, China
  • Zhejiang Key Lab of Exploitation and Preservation of Coastal Bio-Resource, Wenzhou 325000, China
  • 4. Wenzhou Key Laboratory of Marine Genetics and Breeding, Wenzhou 325000, China
YAN Maocang, E-mail: ;
CHEN Chen, E-mail:

XU Ruifeng, E-mail:

Received date: 2023-11-09

  Online published: 2024-02-29

Supported by

Zhejiang Key Science and Technology Project(2021C02025)

Key Scientific and Technological Innovation Projects of Wenzhou(ZN2021001)

Zhejiang Province San-Nong-Jiu-Fang Science and Technology Cooperation Project(2023SNJF077)

National Key Research and Development Program of China(2020YFD0900801)

Copyright

copyright©2024 by the authors

Abstract

[Objective] In recent years, there has been a steady increase in the occurrence and fatality rates of shrimp diseases, causing substantial impacts in shrimp aquaculture. These diseases are marked by their swift onset, high infectivity, complex control requirements, and elevated mortality rates. With the continuous growth of shrimp factory farming, traditional manual detection approaches are no longer able to keep pace with the current requirements. Hence, there is an urgent necessity for an automated solution to identify shrimp diseases. The main goal of this research is to create a cost-effective inspection method using computer vision that achieves a harmonious balance between cost efficiency and detection accuracy. The improved YOLOv8 (You Only Look Once) network and multiple features were employed to detect shrimp diseases. [Methods] To address the issue of surface foam interference, the improved YOLOv8 network was applied to detect and extract surface shrimps as the primary focus of the image. This target detection approach accurately recognizes objects of interest in the image, determining their category and location, with extraction results surpassing those of threshold segmentation. Taking into account the cost limitations of platform computing power in practical production settings, the network was optimized by reducing parameters and computations, thereby improving detection speed and deployment efficiency. Additionally, the Farnberck optical flow method and gray level co-occurrence matrix (GLCM) were employed to capture the movement and image texture features of shrimp video clips. A dataset was created using these extracted multiple feature parameters, and a Support Vector Machine (SVM) classifier was trained to categorize the multiple feature parameters in video clips, facilitating the detection of shrimp health. [Results and Discussions] The improved YOLOv8 in this study effectively enhanced detection accuracy without increasing the number of parameters and flops. According to the results of the ablation experiment, replacing the backbone network with FasterNet lightweight backbone network significantly reduces the number of parameters and computation, albeit at the cost of decreased accuracy. However, after integrating the efficient multi-scale attention (EMA) on the neck, the mAP0.5 increased by 0.3% compared to YOLOv8s, while mAP0.95 only decreased by 2.1%. Furthermore, the parameter count decreased by 45%, and FLOPs decreased by 42%. The improved YOLOv8 exhibits remarkable performance, ranking second only to YOLOv7 in terms of mAP0.5 and mAP0.95, with respective reductions of 0.4% and 0.6%. Additionally, it possesses a significantly reduced parameter count and FLOPS compared to YOLOv7, matching those of YOLOv5. Despite the YOLOv7-Tiny and YOLOv8-VanillaNet models boasting lower parameters and Flops, their accuracy lags behind that of the improved YOLOv8. The mAP0.5 and mAP0.95 of YOLOv7-Tiny and YOLOv8-VanillaNet are 22.4%, 36.2%, 2.3%, and 4.7% lower than that of the improved YOLOv8, respectively. Using a support vector machine (SVM) trained on a comprehensive dataset incorporating multiple feature, the classifier achieved an impressive accuracy rate of 97.625%. The 150 normal fragments and the 150 diseased fragments were randomly selected as test samples. The classifier exhibited a detection accuracy of 89% on this dataset of the 300 samples. This result indicates that the combination of features extracted using the Farnberck optical flow method and GLCM can effectively capture the distinguishing dynamics of movement speed and direction between infected and healthy shrimp. In this research, the majority of errors stem from the incorrect recognition of diseased segments as normal segments, accounting for 88.2% of the total error. These errors can be categorized into three main types: 1) The first type occurs when floating foam obstructs the water surface, resulting in a small number of shrimp being extracted from the image. 2) The second type is attributed to changes in water movement. In this study, nanotubes were used for oxygenation, leading to the generation of sprays on the water surface, which affected the movement of shrimp. 3) The third type of error is linked to video quality. When the video's pixel count is low, the difference in optical flow between diseased shrimp and normal shrimp becomes relatively small. Therefore, it is advisable to adjust the collection area based on the actual production environment and enhance video quality. [Conclusions] The multiple features introduced in this study effectively capture the movement of shrimp, and can be employed for disease detection. The improved YOLOv8 is particularly well-suited for platforms with limited computational resources and is feasible for deployment in actual production settings. However, the experiment was conducted in a factory farming environment, limiting the applicability of the method to other farming environments. Overall, this method only requires consumer-grade cameras as image acquisition equipment and has lower requirements on the detection platform, and can provide a theoretical basis and methodological support for the future application of aquatic disease detection methods.

Cite this article

XU Ruifeng , WANG Yaohua , DING Wenyong , YU Junqi , YAN Maocang , CHEN Chen . Shrimp Diseases Detection Method Based on Improved YOLOv8 and Multiple Features[J]. Smart Agriculture, 2024 , 6(2) : 62 -71 . DOI: 10.12133/j.smartag.SA201311014

0 引 言

对虾养殖是水产养殖业的重要组成部分。据统计,2022年中国南美白对虾海水养殖产量达134.03万吨。然而近年来,对虾病害的发病率和死亡率逐年上升,各类急性病害在全国范围内蔓延,对对虾养殖业造成了较大影响。对虾病害具有发病迅速、传染性强、难以控制和死亡率高等特点1, 2。传统人工检查依赖于查看对虾的外部特征、摄食情况和行为活动,存在效率低、时效性差以及严重依赖个人经验的问题。随着对虾工厂化养殖规模的不断扩大,人工检查已经无法满足当前需求。因此,迫切需要一种能够自动化检测对虾发病的方法,以实现对虾发病的及时预警,提前采取措施,减少生产损失。
目前,基于计算机技术的对虾发病检测研究主要可以分为两类方法:一类是基于机器学习的预测方法,即利用发病时的养殖环境数据和对虾性状构建算法模型,通过监测相关数据进行预测。例如,蔡欣欣3建立了基于深度森林算法的虾体细菌总数、虾体弧菌占比、水体细菌、盐度的4维向量预警预报模型,可对对虾急性肝胰腺坏死病(Acute Hepatopancreatic Necrosis Disease, AHPND)的发生进行预警。Khiem等4除水质因素与对虾性状外,利用地理信息系统(Geographic Information System, GIS)引入地理信息作为检测数据,基于机器学习方法实现预测对虾病害。Tuyen等5考虑养殖环境的空间因素,基于决策树构建了对虾病害与水质因素和养殖场地空间因素的模型,用以预测对虾白斑病的发病。这类方法简单易实现,但是由于各养殖场地的环境差异较大,对方法的泛化性能有很大的影响。而且,在工厂化养殖条件下,病害的早期水质数据变化不明显6,因此这类方法的效果不太好。另一类方法是基于计算机视觉的检测方法。该类方法利用计算机视觉技术对对虾图像进行处理,从而获取对虾发病情况。例如,Ramachandran和Mohan7使用灰度共生矩阵(Gray Level Co-occurrence Matrix, GLCM)提取对虾图像特征,并结合简单的人工神经网络(Artificial Neural Network, ANN)模型来进行对虾变异性的分割,从而获得了对白斑病较好的检测效果。Wang等8则提出了一种基于LeNet网络框架的卷积神经网络(Convolutional Neural Networks, CNN)模型,实现了对发病对虾的快速且精确的检测,有助于对虾病害的早期预警。刘子豪等9以深度卷积神经网络(Deep Convolutional Neural Networks, DCNN)作为识别框架的基础,有效提高了对不同来源染病虾的泛化效果。这类方法具有较高的精度,但要求采集高质量的图像进行检测,并对设备配置有一定要求,因此在实际生产中的应用不易。
目前,对虾常见病害主要包括病毒性疾病和细菌性疾病。发病虾的行为与健康虾明显不同,表现为体弱、游动缓慢,常离群漫游于水面或池边。烂眼病和烂鳃病等发病时,虾除了行动无力外,还会在水面上翻滚1, 2。因此,可以考虑运用行为检测方法来进行虾的病害检测。
计算机视觉技术的发展为行为检测提供了新的方法。此前,已在畜牧业中进行了一些相关研究,如奶牛的跛行行为10、猪的分娩行为11、鸡的啄羽行为12以及绵羊的斗殴行为13等。与之相比,水产养殖业的相关研究主要集中在异常行为检测和摄食强度评估方面。位威14、周超等15和刘朝阳16选择从养殖鱼的摄食图像中提取图像纹理特征作为数据集,然后使用支持向量机(Support Vector Machine, SVM)来评估摄食强度。刘世晶等17利用帧间光流特征数据训练循环神经网络(Recurrent Neural Network, RNN),以实现草鱼摄食状态的分类。汪峰18利用YOLO(You Only Look Once)-Deep SORT(Deep Simple Online and Realtime Tracking)级联网络绘制虾苗活动轨迹,并结合图像纹理特征实现判断虾苗的活力。Zhao等19利用光流法提取鱼类运动片段的时空特征构建数据集训练改进RNN,实现了对循环水系统中鱼类异常行为的检测。Han等20使用光流法提取光流能量图,将鱼群分布的空间信息与能量图融合,使用融合图像训练CNN,有效地识别了鱼群的不同行为状态。Li等21使用Faster R-CNN检测图像中的鱼类,通过贪婪算法和匈牙利算法将关联各帧检测结果,实现了游动鱼类跟踪。Li等22提出了一种JDE(Jointly Learns the Detector and Embedding)范式的CMFTNet视频跟踪模型,并使用无锚框方法解决了鱼群相互阻碍的问题,最终实现了对游动鱼类的高精度多目标跟踪。Xu等23使用基于YOLOv8的目标跟踪算法,配合双目相机进行运动轨迹三维重建,实现了氨氮胁迫下鱼类行为检测。Perez-Escudero等24提出了一种idTracker算法,可实现多目标稳定跟踪的同时获得每条鱼的加速度等运动参数,进而将行为检测实时精确到个体。
目前,基于计算机视觉的对虾发病检测方法存在设备要求高、使用不便的问题,不适用于工厂化养殖实际生产。本研究目的是研究一种能在成本和检测效果之间取得平衡的基于改进YOLOv8和多元特征相的对虾发病检测方法。首先,利用改进的YOLOv8网络从对虾夜间红外视频中提取前景。其次,利用光流法和GLCM提取对虾视频片段的运动特征和图像纹理特征,并构建数据集。最后,训练SVM分类器用于检测对虾视频片段,实现对正常和发病对虾视频片段的分类。

1 实验方法

1.1 算法流程

实验流程如图1所示。首先,采集夜间水面红外视频后,对视频片段的图像帧进行高斯滤波处理,并将其转化为灰度图。其次,利用改进的YOLOv8网络进行目标检测,提取出仅含有对虾的图像前景。然后,使用Farneback光流算法25与GLCM分别提取运动特征与图像纹理特征。对当前片段所有帧的特征参数求平均,得到该片段的特征参数。利用提取的参数构建数据集训练SVM分类器。最后,使用分类器对视频片段的多元特征参数进行分类,以检测片段中的对虾是否发病。
图1 对虾发病检测方法的流程图

Fig. 1 Flow chart of shrimp disease detection method

1.2 对虾图像采集

对虾夜间红外视频采集于浙江省海洋水产养殖研究所永兴基地。采集时间为2023年7月20日—9月30日。由于水面反射和对虾体色等因素的影响,在养殖池的日间水面图像中很难观察到对虾。然而,夜间对虾活动频繁且具有明显的浮游现象,因此在夜间水面红外图像中可以明显地观察到对虾活动,如图2所示。图像采集系统由摄像头和计算机组成,两者使用千兆双绞线连接,采集的图像保存在计算机本地。摄像头型号为海康威视iDS-2DC7423MW-A/S5球机,球机安装于养殖车间顶部中央,位于两排养殖水池中间过道的正上方,如图3所示。摄像头可旋转和调整镜头方向,以便拍摄不同区域的养殖水池。对虾的养殖模式为工厂化循环水养殖,品种为南美白对虾,养殖水池的规格为9 m×9 m,养殖密度为400尾/m2
图2 对虾养殖池水面图像

Fig. 2 Image of the surface of the shrimp culture pond

图3 对虾图像采集系统

Fig. 3 Image acquisition system of shrimp

为保证摄像头红外模式的正常工作,采集选取时间段为每日夜间19∶00~次日凌晨4∶00。在录制过程中,人工调整摄像头参数以确保视频清晰流畅。所采集的视频包含了对虾患急性肝胰腺坏死病、白斑病、烂鳃病、烂眼病和虹彩病毒病等发病视频以及对虾正常视频。视频的分辨率像素为1 280×720,帧率为25帧/s,储存格式为*.mp4。经过剪辑处理后,质量不佳的片段被去除,最终获得了1 500个时长为5 s的视频片段。

1.3 基于改进YOLOv8的图像前景提取

在对虾养殖池中,水面上常有大量浮沫。夜间红外图像中,浮沫的灰度与对虾的灰度相似。此外,浮沫会随水流在水面上移动,严重干扰了对虾图像前景的提取。目标检测方法能够从图像中仅找出感兴趣的目标,并确定它们的类别和位置。为了有效消除浮沫的干扰,本研究采用改进的YOLOv8网络对水面对虾进行目标检测,并提取检测框内的区域作为图像前景。
YOLOv8是2023年提出的一种基于PyTorch框架的新型CNN目标检测网络。它包括YOLOv8-n、s、m、l、x 5种模型结构。随着模型深度和宽度的增加,每个模型的参数量和计算量也会增加。考虑到实际生产条件下平台算力的限制,改进网络应该具有较低的参数量和计算量,以提高网络在低算力平台上的检测速度和部署性能。为了实现检测精度和速度之间的平衡,选择基于YOLOv8s网络进行改进。在YOLOv8s主干网络中添加了FasterNet26模块以实现轻量化,并引入跨空间学习的高效多尺度27(Efficient Multi-Scale Attention, EMA)注意力机制来弥补轻量化主干网络的精度损失。传统注意力机制中的通道降维操作可能会对特征提取产生副作用。EMA注意力机制通过设计一个多尺度并行子网络来建模特征之间的关系,避免了通过卷积进行降维。这样可以保留各个通道上的信息,并将通道维度分组为多个子特征,使得空间语义特征能够更均匀地分布。EMA注意力机制的结构如图4所示。
图4 EMA注意力机制结构图

Fig. 4 Structure of of efficient multi-scale attention attention mechanism

Fasternet网络是一种新型的轻量化网络。它使用部分卷积(Partial Convolution, PConv)层来进行特征提取,从而大大减少了计算量和参数量。在网络中的每个FasterNet模块中,都包含一个PConv层,后面跟着两个逐点卷积(Pointwise Convolution, PWConv)层,它们共同构成了反向残差块。PConv利用了特征图中的冗余,只在一部分通道上应用规则卷积,而不影响其他通道。因此,PConv所需的浮点运算次数(Floating Point Operations, FLOPs)相对较低,从而对计算能力的要求也较低。这使得Fasternet在边缘平台上具有更快的检测速度。同时,PConv也对提取空间特征方面具有优化效果。改进后的网络结构如图5所示。
图5 改进YOLOv8网络结构图

Fig. 5 Structure of the improved YOLOv8 network

图6展示了常用的基于阈值分割的图像前景提取方法和基于改进的YOLOv8方法的提取效果对比。从图中可以看出,基于改进的YOLOv8方法的提取效果更好,能够有效地提取出对虾图像前景,并且最大程度地避免了水面浮沫的干扰。
图6 对虾图像前景提取效果对比

Fig. 6 Comparison of Extraction of shrimp image foreground

1.4 基于光流法的运动特征提取

光流法是计算机视觉技术中一种用于估计视频序列中物体运动的方法。它通过比较相邻帧之间的像素强度差异来计算物体的运动。光流是一个矢量,其幅值代表了像素点的相对运动速度,方向代表了像素点的相对运动方向。借助光流可以获取对虾的相对运动速度与方向。Farneback光流算法是一种稠密光流算法,由Farnebäck于2003年提出。与稀疏光流算法相比,该算法能够更准确地计算物体的运动,并且适用于相邻帧中所有像素点的移动估算光流。由于Farneback光流算法计算的是全局稠密光流,而各个对虾检测框内的像素个数不一致,所以需要将检测框内的所有光流相加得到光流F,以便于后续计算,对于每个检测框中光流F的计算方式如公式(1)所示。
F = i = 1 n f i n
式中:fi 代表检测框中每个像素对应的光流;n代表检测框中像素的个数。
对虾视频的每一帧中,对虾游动的相对速度可以通过光流F的幅值V来表示,对于当前帧中所有对虾的相对速度V,其中最大值为V max;最小值为V min;平均相对速度为V avgV avg的计算方式如公式(2)所示。
V a v g = i = 1 n u m V n u m
式中:num为当前帧中对虾的个数。
对虾游动的速度并非固定,受多种因素影响28会有波动。光流场也受养殖车间环境因素的影响,如光照强度等29,所以同一采集区域的V avg会有波动变化,具体见表1。因此,不能仅凭V avg的数值来判断对虾是否存在发病行为。
表1 同一采集区域不同时间的参数V avg

Table 1 Parameter V avg at different times in the same collection area

日期/MM—DD 对虾情况 V avg
07—20 正常 7.97
07—28 发病 8.12
08—20 正常 7.43
08—20 正常 7.17
09—26 发病 6.90
09—30 发病 7.52
根据对虾发病时的行为特征,发病对虾的相对运动速度和方向与对虾群体的平均值之间存在一定差异。因此可以将相关参数的离散程度作为特征参数。在本实验中,采集区域的对虾数量通常较少且不固定,无法使用方差等度量来衡量离散程度。本研究设计了一个无量纲参数T来作为运动特征的检测参数,T受光流幅值波动与对虾个数变化的影响较小,它的数学意义可以反映出当前帧中对虾相对运动速度的离散度。T的计算方式如公式(3)所示。
T = V m a x - V m i n V a v g
每帧中对虾游动的相对运动方向即相光流F的方向记为DD的取值范围为[–π,π]。对于当前帧中所有对虾的相对方向D,其中最大值为D max;最小值为D min。极差RD 的计算方式如公式(4)所示。
R D = D m a x - D m i n , 0 R D π
RD 能够反映前帧中对虾相对运动方向的离散度。参数T和参数RD 即从当前帧中提取到的运动特征参数。

1.5 基于GLCM的图像纹理特征提取

灰度共生矩阵(Gray-Level Co-occurrence Matrix, GLCM)是一种常用于描述图像纹理特征的统计方法,在视觉领域得到广泛应用。它可以反映像素及其周围空间邻域的灰度变化和分布情况。GLCM的定义为:给定灰度级为i的像素点,在距离为d的位置上出现灰度级为j的像素点的概率。其中,d表示两个像素间的相对距离;θ表示生成它们的方向。GLCM计算得到的结果构成一个矩阵 pijdθ)。由于发病对虾具有侧游和离群漫游的特点,发病时水面上对虾的分布是不均匀的。GLCM的能量和熵这两个统计量可以用来表示图像中像素分布的情况,从而可以选择它们作为特征参数。 θ为0°、45°、90°和135°这4个方向。考虑对虾的相对运动方向是不固定的,本研究选择计算这4个方向的能量和熵,然后取平均值作为图像纹理特征参数。
能量(Energy)是GLCM元素值的平方和。它反映图像灰度分布的纹理粗细程度和均匀程度。能量的计算如公式(5)所示。
E n e r g y = i = 0 G - 1 j = 0 G - 1 [ p ( i , j , d , θ ) ] 2
式中:G为当前图像的最大灰度级。
熵(Entropy)是GLMC元素值的随机性度量,反映了图像灰度分布的复杂程度或非均匀程度,熵的计算公式如公式(6)所示。
E n t r o p y = - i = 0 G - 1 j = 0 G - 1 p ( i , j , d , θ ) l o g 2   p ( i , j , d , θ )

1.6 构建特征数据集

从所采集的视频片段中随机挑选200个发病片段和200个正常片段。提取这些片段的帧多元特征数据,剔除离散数据后,求取各帧平均值作为该片段的特征数据。所有数据经归一化处理后用于构建特征数据集。数据集包含数据和标签。标签表示每个视频片段录制时对虾的状态,将其分为正常和发病两类。将每个视频片段提取的两个特征参数(TRD )与对应标签组成一个400×3的向量组,构建运动特征数据集;将两个图像纹理特征参数(能量、熵)与对应标签组成一个400×3的向量组,构建图像纹理特征数据集。将所有特征参数与对应标签组成一个400×5的向量组,构建多元特征数据集。

2 实验结果与分析

2.1 YOLOv8改进性能分析

2.1.1 性能评价指标

本研究主要使用参数量(Parameters)、FLOPs、mAP0.5(mean Average Precision)和mAP0.95评价网络性能。
参数量表示网络各层中需要训练的参数数量,反映网络的复杂程度和内存占用,参数量越大,所需内存越多。FLOPs表示处理一张图像所需的浮点运算数量,与计算平台无关,可公平比较网络的计算量。一般情况下,FLOPs越低,网络的检测速度越快。
对于网络的检测性能,有精度(Precision)和召回率(Recall)两个指标,计算方式如公式(7)公式(8)所示。
P r e c i s i o n   =   T P T P   +   F P
R e c a l l   =   T P T P   +   F N
mAP0.5指的是当将IoU(Intersection over Union)设置为0.5时,对所有类别的所有图片计算AP的平均值。因此,在公式(1)公式(2)中,TP表示IoU>=0.5的检测框数量,FP表示IoU<=0.5的检测框数量。通过绘制精度作为纵坐标,召回率作为横坐标的曲线,即P-R曲线,计算AP为P-R曲线下方的面积。因此,mAP0.5的计算方式为,则mAP0.5的计算方式如公式(9)所示。
m A P 0.5 = A P n u m _ c l a s s e s
式中:num_classes为目标检测的类数,在本方法中等于1;mAP0.95的计算方式和mAP0.5类似,其计算时IoU为0.95,其他计算方法相同。

2.1.2 性能结果分析

训练所用数据集来源于采集的视频片段帧图像。从中选择4 800张特征明显、轮廓完整的图像作为训练集,并使用Labelimg标注软件对浮在水面上的对虾进行了标注。标注好的数据集按照8∶1∶1的比例分为训练集、验证集和测试集。训练所使用的操作系统为Windows 11家庭版,Python版本为3.9.16,PyTorch框架版本为1.13.1,使用的显卡型号是NVIDIA GeForce RTX 3060,显存为6 G,CUDA版本为11.7.1。输入大小为640×640,batchsize为4,训练轮数为300。
不同改进的消融实验结果如表2所示。由表2可见,在仅更换轻量化主干网络的情况下,虽然参数量和计算量大幅减少,但精度指标下降较多。在此基础上添加EMA注意力机制后,相比YOLOv8s,mAP0.5提升0.3%,mAP0.95仅下降2.1%,参数量降低45%,FLOPs降低42%。
表2 不同改进的消融实验结果

Table 2 Results of different improved ablation tests

消融

试验

FasterNet EMA mAP0.5/% mAP0.95/% Parameters/M Flops/G
方法1 不添加 不添加 94.9 67.3 11.1 28.6
方法2 添加 不添加 93.6 63.1 6.1 16.2
方法3 不添加 添加 93.3 67.7 10.7 28.6
方法4 添加 添加 95.1 65.2 6.1 16.5
为了进一步分析本研究提出的改进YOLOv8网络的性能,使用相同的数据集和训练设置来训练其他类型的YOLO网络作为参照。训练结果详见表3
表3 不同网络模型训练结果对比

Table 3 Comparison of training results of different networks

网络模型 mAP0.5/% mAP0.95/% Parameters/M Flops/G
YOLOv5 93 64.4 7.0 16.0
YOLOv7 95.5 65.8 37.2 105.2
YOLOv7-Tiny 72.7 29.0 6.1 13.2
YOLOv8-VanillaNet30 92.8 60.5 3.8 10.4
改进YOLOv8 95.1 65.2 6.1 16.5
表3可以看出,本研究提出的改进YOLOv8网络在对虾红外数据集上与其他几种YOLO网络模型相比,mAP0.5和mAP0.95仅次于YOLOv7,分别降低0.4%和0.6%。而参数量和Flops远低于YOLOv7,与YOLOv5相当。尽管YOLOv7-Tiny和YOLOv8-VanillaNet的参数量和Flops更低,但精度不及改进YOLOv8,它们的mAP0.5和mAP0.95分别比改进的YOLOv8降低22.4%、36.2%和2.3%、4.7%。这表明改进后的YOLOv8在不大幅度增加参数量和Flops的情况下有效提高了检测精度。因此,在满足方法检测要求的情况下,改进后的YOLOv8更适合部署到低算力平台,并应用于实际生产环境。

2.2 实际测试表现

将3个数据集分别输入SVM,使用k-交叉验证法(k-Cross Validation)和网格搜索法(Grid Search)确定训练参数中惩罚参数C和核函数参数g(gamma)的最佳值。k-交叉验证法的k值取5,训练所使用的核函数是高斯径向基(rbf)核函数。训练结果如表3所示,经过训练,当使用多元特征数据集,C取8,g取13.75时,SVM的分类准确率达到最高值97.625%。
为了对本方法的整体效果进行评价,从采集到的视频片段中(不包括用于采集训练数据集的片段)随机选取了150个正常片段和150个发病片段,如图7所示。然后,将这300个片段随机分为3组测试样本,每组包含50个正常片段和50个发病片段。将各视频片段的多元特征参数作为输入,利用训练好的SVM分类器对所有片段进行分类检测。结果如表4所示,3组样本中对于正常片段的检测精度均高于对发病片段的检测精度。正常片段的平均检测准确率为93.3%,而发病片段的平均检测准确率为72.7%。大部分误差发生在将发病片段错误地识别为正常片段,占总误差的88.2%。样本的总体检测准确率为83%,说明本方法具有良好的效果并且有一定的实用价值。
图7 对虾视频片段样本例图

Fig. 7 Examples of shrimp video clips samples

表4 对虾视频片段样本的检测结果

Table 4 The results of shrimp video clips samples detection

组别 是否发病 总数 检测数 准确率/%
1 正常 50 44 88
发病 50 36 72
2 正常 50 49 98
发病 50 35 70
3 正常 50 47 94
发病 50 38 76
合计 300 249 83

2.3 测试误差分析

根据检测结果,误差来源主要分为3类。
1)提取对虾数量过少。在部分片段中,有较大的浮沫飘过图像采集区域,遮挡水面上的部分对虾,如图8a所示,使部分帧图像中提取的对虾数量过少,多元特征无法有效反映对虾的运动情况。此时会将发病片段误判为正常片段,对正常片段的检测影响较小。造成这种情况的原因可能是采集区域较小,对虾工厂化养殖的养殖密度较高,养殖池中产生浮沫是正常现象,可以适当扩大采集区域,减少浮沫所占比例。
图8 对虾发病检测误差来源例图

Fig. 8 Examples of shrimp diseases detection error sources

2)水体运动变化影响。在对虾养殖的日常活动中,增氧、换水等会影响水体运动情况,尤其对于对虾工厂化养殖,由于养殖水体较小,影响更为明显。本实验中采用纳米管进行增氧,增大增氧时会改变水体运动,影响对虾的游泳行为31。此时水面会出现明显曝气水花,如图8b所示。健康的对虾会加快游动,而发病对虾由于体质较弱,受到水流的冲击同样会有较高的速度,导致检测误差,将发病片段误判为正常片段。为避免这种误差,应将采集区域远离曝气水花,减少水体运动变化对对虾运动的影响。
3)视频质量影响。目前大部分摄像头采用光学成像原理,因此受到光学成像原理和数字图像原理的影响。在视频像素不变的情况下,采集区域越大,物体在图像中所占的像素个数越少。使用Farneback光流算法计算图像的全局光流时,需要计算出图像每个像素的运动信息,因此,物体所占像素越少,光流之间的差异就越小。当采集区域过大时,每只对虾所占像素个数较少,使得发病对虾与正常对虾之间的光流差异较小,导致检测误差。同时,视频质量也影响CNN网络的特征提取能力。当检测区域较大时,网络面临小目标检测问题31,影响了网络的特征提取能力。因此,在需要扩大采集区域时,应适当提高视频采集的质量。

3 结论

针对目前对虾发病检测缺乏自动化的问题,本研究提出了一种新的检测方法。使用改进的YOLOv8网络提取对虾图像的前景,随后通过光流法和GLCM提取多元特征,并用这些特征训练SVM分类器,以检测对虾是否发病。主要结论如下。
1)基于改进的YOLOv8图像前景提取方法有效去除了水面浮沫的干扰,同时提取效果良好。采用FasterNet轻量化网络替换YOLOv8s主干网络,并引入EMA注意力机制,可大幅降低网络参数量和计算量,并保持较好的目标检测精度。因此本方法适用于低算力平台上的实时检测,方便投入实际生产。
2)基于光流法和GLCM提取的多元特征能够很好地反映发病对虾与正常对虾之间运动速度和方向的差异,凭此训练的SVM分类器检测效果良好,在随机抽取的样本上,该检测方法准确率达到83%。产生误差的主要原因是采集区域的大小和位置对提取的对虾数量造成影响,多元特征无法有效反映对虾的运动情况。因此应根据实际生产环境灵活设置采集区域。
3)本方法只需使用消费级监控摄像机作为图像采集设备,在成本与效果之间取得了平衡,可为后续实用化的发病检测方法提供理论依据和方法支持。但受条件限制,仅在工厂化养殖环境下进行了实验,尚不能适用于多种养殖环境,仍有改进空间。

利益冲突声明

本研究不存在研究者以及与公开研究成果有关的利益冲突。

1
YU Y B, CHOI J H, KANG J C, et al. Shrimp bacterial and parasitic disease listed in the OIE: A review[J]. Microbial pathogenesis, 2022, 166: ID 105545.

2
LEE D, YU Y B, CHOI J H, et al. Viral shrimp diseases listed by the OIE: A review[J]. Viruses, 2022, 14(3): ID 585.

3
蔡欣欣. 池塘养殖凡纳滨对虾急性肝胰腺坏死病(AHPND)的预警数学模型构建[D]. 上海: 上海海洋大学, 2021.

CAI X X. Early warning mathematical model of acute hepatopancreatic necrosis disease (AHPND) in pond cultured shrimp Litopenaeus vannamei [D]. Shanghai: Shanghai Ocean University, 2021.

4
KHIEM N M, TAKAHASHI Y, YASUMA H, et al. Use of GIS and machine learning to predict disease in shrimp farmed on the east coast of the Mekong Delta, Vietnam[J]. Fisheries science, 2022, 88(1): 1-13.

5
TUYEN T T, AL-ANSARI N, NGUYEN D D, et al. Prediction of white spot disease susceptibility in shrimps using decision trees based machine learning models[J]. Applied water science, 2023, 14(1): 1-15.

6
孙世玉, 江敏, 金若晨, 等. 凡纳滨对虾池塘养殖过程中水质与虾虹彩病毒病发生的相关性[J]. 上海海洋大学学报, 2020, 29(5): 641-649.

SUN S Y, JIANG M, JIN R C, et al. Correlation between water quality and shrimp hemocyte iridescent virus disease occurrence of Litopenaeus vannamei in ponds[J]. Journal of Shanghai ocean university, 2020, 29(5): 641-649.

7
RAMACHANDRAN L, MOHAN V. A novel neural network model for shrimp segmentation to detect white spot syndrome[J]. Journal of intelligent & fuzzy systems: Applications in engineering and technology, 2022, 43(1): 1453-1466.

8
WANG Q P, QIAN C, NIE P C, et al. Rapid detection of Penaeus vannamei diseases via an improved LeNet[J]. Aquacultural engineering, 2023, 100: ID 102296.

9
刘子豪, 张素兰, 贾小军, 等. 基于自适应卷积神经网络的染病虾识别方法[J]. 农业机械学报, 2022, 53(5): 246-256.

LIU Z H, ZHANG S L, JIA X J, et al. Diseased shrimp identification method based on adaptive convolutional neural networks[J]. Transactions of the Chinese society for agricultural machinery, 2022, 53(5): 246-256.

10
JIANG B, SONG H B, WANG H, et al. Dairy cow lameness detection using a back curvature feature[J]. Computers and electronics in agriculture, 2022, 194: ID 106729.

11
CHEN J X, ZHOU J, LIU L S, et al. Sow farrowing early warning and supervision for embedded board implementations[J]. Sensors, 2023, 23(2): ID 727.

12
张然. 蛋鸡啄羽现象识别及羽毛覆盖度计算研究[D]. 保定: 河北农业大学, 2023.

ZHANG R. Study on identification of feather pecking phenomenon and calculation of feather coverage in laying hens[D]. Baoding: Hebei Agricultural University, 2023.

13
XU Y L, NIE J, CEN H L, et al. Spatio-temporal-based identification of aggressive behavior in group sheep[J]. Animals: An open access journal from MDPI, 2023, 13(16): ID 2636.

14
位威. 高密度水产养殖鱼视觉监测技术研究[D]. 福州: 福建工程学院, 2022.

WEI W. Research on visual monitoring technology of high-density aquaculture fish[D]. Fuzhou: Fujian University of Technology, 2022.

15
周超, 徐大明, 吝凯, 等. 基于近红外机器视觉的鱼类摄食强度评估方法研究[J]. 智慧农业, 2019, 1(1): 76-84.

ZHOU C, XU D M, LIN K, et al. Evaluation of fish feeding intensity in aquaculture based on near-infrared machine vision[J]. Smart agriculture, 2019, 1(1): 76-84.

16
刘朝阳. 室外养殖池塘智能投饵管控系统设计[D]. 天津: 天津科技大学, 2022.

LIU C Y. Design of intelligent feeding contorl system for outdoor aquaculture pond[D]. Tianjin: Tianjin University of Science & Technology, 2022.

17
刘世晶, 涂雪滢, 钱程, 等. 基于帧间光流特征和改进RNN的草鱼摄食状态分类[J]. 水生生物学报, 2022, 46(6): 914-921.

LIU S J, TU X Y, QIAN C, et al. Feeding state classification of grass carp based on optical flow and improved RNN[J]. Acta hydrobiologica sinica, 2022, 46(6): 914-921.

18
汪峰. 基于计算机视觉的虾苗活力分析研究[D]. 上海: 上海海洋大学, 2022.

WANG F. Research on the vitality analysis of shrimp fry based on computer vision[D]. Shanghai: Shanghai Ocean University, 2022.

19
ZHAO J, GU Z B, SHI M M, et al. Spatial behavioral characteristics and statistics-based kinetic energy modeling in special behaviors detection of a shoal of fish in a recirculating aquaculture system[J]. Computers and electronics in agriculture, 2016, 127: 271-280.

20
HAN F F, ZHU J C, LIU B, et al. Fish shoals behavior detection based on convolutional neural network and spatiotemporal information[J]. IEEE access, 2020, 8: 126907-126926.

21
LI X H, LIU M Q, ZHANG S L, et al. Fish trajectory extraction based on object detection[C]// 2020 39th Chinese Control Conference (CCC). Piscataway, New Jersey, USA: IEEE, 2020: 6584-6588.

22
LI W R, LI F, LI Z B. CMFTNet: Multiple fish tracking based on counterpoised JointNet[J]. Computers and electronics in agriculture, 2022, 198: ID 107018.

23
XU W K, LIU C, WANG G X, et al. Behavioral response of fish under ammonia nitrogen stress based on machine vision[J]. Engineering applications of artificial intelligence, 2024, 128: ID 107442.

24
PÉREZ-ESCUDERO A, VICENTE-PAGE J, HINZ R C, et al. idTracker: Tracking individuals in a group by automatic identification of unmarked animals[J]. Nature methods, 2014, 11(7): 743-748.

25
FARNEBÄCK G. Two-frame motion estimation based on polynomial expansion[M]// BIGUN J, GUSTAVSSON T. Eds. Image analysis. Berlin, Heidelberg: Springer Berlin Heidelberg, 2003: 363-370.

26
CHEN J R, KAO S H, HE H, et al. Run, don't walk: Chasing higher FLOPS for faster neural networks[C]// 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, New Jersey, USA: IEEE, 2023: 12021-12031.

27
OUYANG D L, HE S, ZHANG G Z, et al. Efficient multi-scale attention module with cross-spatial learning[C]// ICASSP 2023—2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Piscataway, New Jersey, USA: IEEE, 2023: 1-5.

28
陈凯琳. 南美白对虾栖息、生长及游泳特性试验研究[D]. 舟山: 浙江海洋大学, 2020.

CHEN K L. Experimental study on Penaeus vannamei's habitat, growth and swimming characteristics[D]. Zhoushan: Zhejiang Ocean University, 2020.

29
LIAO X X, CAI Z M, CHEN J, et al. Physics-based optical flow estimation under varying illumination conditions[J]. Signal processing: Image communication, 2023, 117: ID 117007.

30
CHEN H, WANG Y, GUO J, et al. VanillaNet: The power of minimalism in deep learning[EB/OL]. arXiv:2305.12972v2, 2023.

31
CHENG G, YUAN X, YAO X W, et al. Towards large-scale small object detection: Survey and benchmarks[C]// IEEE Transactions on Pattern Analysis and Machine Intelligence. Piscataway, New Jersey, USA: IEEE, 2023: 13467-13488.

Outlines

/