Welcome to Smart Agriculture 中文
Technology and Method

Detection Method of Effective Tillering of Rice in Field Based on Lightweight Ghost-YOLOv8 and Smart Phone

  • CUI Jiale ,
  • ZENG Xiangfeng ,
  • REN Zhengwei ,
  • SUN Jian ,
  • TANG Chen ,
  • YANG Wanneng ,
  • SONG Peng
Expand
  • National Key Laboratory of Crop Genetic Improvement, Huazhong Agricultural University, Wuhan 430070, China
SONG Peng, E-mail:

CUI Jiale, E-mail:

Received date: 2024-07-10

  Online published: 2024-09-25

Supported by

National Key Research and Development Program(2021YFD1200504)

National Natural Science Foundation of China(32471992)

Copyright

copyright©2024 by the authors

Abstract

[Objective] The number of effective tillers per plant is one of the important agronomic traits affecting rice yield. In order to solve the problems of high cost and low accuracy of effective tiller detection caused by dense tillers, mutual occlusion and ineffective tillers in rice, a method for dividing effective tillers and ineffective tillers in rice was proposed. Combined with the deep learning model, a high-throughput and low-cost mobile phone App for effective tiller detection in rice was developed to solve the practical problems of effective tiller investigation in rice under field conditions. [Methods] The investigations of rice tillering showed that the number of effective tillers of rice was often higher than that of ineffective tillers. Based on the difference in growth height between effective and ineffective tillers of rice, a new method for distinguishing effective tillers from ineffective tillers was proposed. A fixed height position of rice plants was selected to divide effective tillers from ineffective tillers, and rice was harvested at this position. After harvesting, cross-sectional images of rice tillering stems were taken using a mobile phone, and the stems were detected and counted by the YOLOv8 model. Only the cross-section of the stem was identified during detection, while the cross-section of the panicle was not identified. The number of effective tillers of rice was determined by the number of detected stems. In order to meet the needs of field work, a mobile phone App for effective tiller detection of rice was developed for real-time detection. GhostNet was used to lighten the YOLOv8 model. Ghost Bottle-Neck was integrated into C2f to replace the original BottleNeck to form C2f-Ghost module, and then the ordinary convolution in the network was replaced by Ghost convolution to reduce the complexity of the model. Based on the lightweight Ghost-YOLOv8 model, a mobile App for effective tiller detection of rice was designed and constructed using the Android Studio development platform and intranet penetration counting. [Results and Discussions] The results of field experiments showed that there were differences in the growth height of effective tillers and ineffective tillers of rice. The range of 52 % to 55 % of the total plant height of rice plants was selected for harvesting, and the number of stems was counted as the number of effective tillers per plant. The range was used as the division standard of effective tillers and ineffective tillers of rice. The accuracy and recall rate of effective tillers counting exceeded 99%, indicating that the standard was accurate and comprehensive in guiding effective tillers counting. Using the GhostNet lightweight YOLOv8 model, the parameter quantity of the lightweight Ghost-YOLOv8 model was reduced by 43%, the FPS was increased by 3.9, the accuracy rate was 0.988, the recall rate was 0.980, and the mAP was 0.994. The model still maintains excellent performance while light weighting. Based on the lightweight Ghost-YOLOv8 model, a mobile phone App for detecting effective tillers of rice was developed. The App was tested on 100 cross-sectional images of rice stems collected under the classification criteria established in this study. Compared with the results of manual counting of effective tillers per plant, the accuracy of the App's prediction results was 99.61%, the recall rate was 98.76%, and the coefficient of determination was 0.985 9, indicating the reliability of the App and the established standards in detecting effective tillers of rice. [Conclusions] Through the lightweight Ghost-YOLOv8 model, the number of stems in the cross-sectional images of stems collected under the standard was detected to obtain the effective tiller number of rice. An Android-side rice effective tillering detection App was developed, which can meet the field investigation of rice effective tillering, help breeders to collect data efficiently, and provide a basis for field prediction of rice yield. Further research could supplement the cross-sectional image dataset of multiple rice stems to enable simultaneous measurement of effective tillers across multiple rice plants and improve work efficiency. Further optimization and enhancement of the App's functionality is necessary to provide more tiller-related traits, such as tiller angle.

Cite this article

CUI Jiale , ZENG Xiangfeng , REN Zhengwei , SUN Jian , TANG Chen , YANG Wanneng , SONG Peng . Detection Method of Effective Tillering of Rice in Field Based on Lightweight Ghost-YOLOv8 and Smart Phone[J]. Smart Agriculture, 2024 , 6(5) : 98 -107 . DOI: 10.12133/j.smartag.SA202407012

0 引 言

水稻(Oryza sativa L.)是最重要的粮食作物之一,养活了全球一半以上的人口1,2022年联合国粮食及农业组织数据显示,中国是世界上最大的水稻生产国。水稻产量通过单位面积穗数、单穗的粒数、千粒重来进行评估2。因此,在水稻种质资源鉴定及水稻育种过程,需要测量单位面积内水稻的有效穗数。目前田间水稻有效穗主要通过人工方式测量,在水稻成熟期,在田间人工手动计量单株水稻有效穗的数量,或收割后搬运至室内再对有效稻穗数量进行人工计数。该方式测量效率低、工作量大,且人工计量过程易引入主观因素进而影响测量结果,制约了水稻规模化高效种质资源鉴定和水稻育种工作3
有效分蘖即最终可以形成有效穗并结实的分蘖,单位面积内的稻穗数量与有效分蘖数密切相关4,因此,开展水稻有效分蘖数高效、精准的测量方法研究具有重要意义5。人们不断寻求新的技术进行水稻分蘖的计数,Yang等6基于传统的X射线算计断层扫描(Computed Tomography, CT)系统和工业输送机开发了一套高通量设备,可自动化、高通量且无人为干扰地完成水稻分蘖计数。Huang等7利用核磁共振成像的非破坏性和非辐射性特点,获取水稻茎秆的横切面图像,对磁共振成像(Magnetic Resonance Imaging, MRI)的图像进行分离处理确定分蘖个数,可以有效规避CT带来的辐射效应。Wu等8开发了一套高通量micro-CT-RGB系统,可自动化非破坏性获取水稻分蘖形状表型。然而,这些方法主要针对盆栽水稻进行测量,需要将水稻搬运至待检测区域,且设备造价昂贵,单盆检测耗时长,难以实现田间快速测量。
近年来,图像处理、深度学习等技术快速发展,在农学领域的应用日益增多,如缺苗检测9、病虫害检测10-12、产量预测13, 14。研究者通过采集作物图像,并采用深度学习方法处理分析,获取小麦15, 16, 17、水稻18等作物穗数等。然而在复杂的田间环境中,使用这些收获前从冠层俯视图识别和计数穗的方法,计数水稻有效分蘖可能会受到限制。
由于水稻成熟期植株间遮挡严重,很难准确识别出全部稻穗,而收获后的茎秆残茬几乎不存在遮挡,可作为水稻有效分蘖计数的有力参考。Jin等19通过更快的基于区域的卷积神经网络(Faster Region-Based Convolutional Neural Network, Faster-RCNN)模型进行收获后小麦分蘖残差的识别检测,识别准确率和召回率接近95%,从而进行穗密度的估计。Deng等20提出了一种基于深度学习卷积网络(Convolutional Neural Networks, CNN)的水稻分蘖自动检测和计数方法,并将该检测方法实现为高通量、低成本的Web应用程序,其检测的准确率超过99%。基于深度学习的图像分析技术在水稻有效分蘖的准确、高效识别和计数方面具有广阔前景。之前研究者通过茎秆计数结果为全部分蘖数,而水稻拥有大量的无效分蘖,为了保证茎秆计数结果为水稻有效分蘖数,就需要区分有效分蘖和无效分蘖。邓奎才21对水稻有效分蘖终止期进行确定,通过时间节点划分有效分蘖和无效分蘖。高美玉22提到可以将苗高率作为水稻有效分蘖和无效分蘖区分标志,即分蘖高峰后的第一个星期,苗高达到该株最长分蘖的三分之二以上的,可判断为有效分蘖。因此,本研究主要针对分蘖高度来划分有效分蘖和无效分蘖,结合深度学习方法进行水稻有效分蘖检测与计数,并将该方法开发为高通量、低成本的水稻有效分蘖检测手机App,解决田间条件下有效分蘖调查的实际问题。

1 材料和方法

1.1 试验材料

试验水稻材料以小区方式种植于华中农业大学作物表型平台试验田,如图1所示。2022年水稻成熟期,对种植区内26个小区进行了田间调查和图像采集,每个小区选取5株水稻进行株高和分蘖高度调查,此外,记录3~5株水稻的单株有效分蘖数和总分蘖数,并采集茎秆横截面图像,共得到130株水稻株高、分蘖高度情况,以及其中126株水稻的分蘖数信息和茎秆横截面图像;2023年水稻成熟期,对61个小区进行分蘖数调查和图像采集,每个小区选取3~5株水稻材料,共计得到297株水稻的分蘖数信息和茎秆横截面图像。
图1 华中农业大学作物表型平台试验田水稻种植场景

Fig.1 The rice planting scene in the experimental field of the crop phenotyping platform at Huazhong Agricultural University

1.2 田间调查和图像采集

田间调查水稻分蘖情况,如图2所示。2022年调查主要内容为水稻株高、高度1、高度2、高度1和高度2之间区域的分蘖数及有效分蘖数、距地面5 cm处的分蘖数及有效分蘖数。其中距地面5 cm处的分蘖数及有效分蘖数即为整株水稻的总分蘖数和总有效分蘖数;高度1为水稻植株最低一个有效穗底部距地面的高度,高度2为水稻植株最高一个无效穗底部距地面的高度。水稻成熟后,随机选取水稻材料种植小区进行调查,每个小区随机调查5个样本,记录以上信息。调查完成后,在高度1和高度2区域内切割水稻植株,并将其移离切割位置,使用手机进行水稻分蘖茎秆横截面的RGB图像采集并重命名(图3),保证后期处理时图像数据与调查数据相对应,采集设备为Xiaomi 11 Ultra,图像分辨率像素为3 060×4 080。2023年只调查高度1与高度2区域分蘖情况及单株有效分蘖数,并采集茎秆横截面RGB图像以扩充数据集。
图2 水稻分蘖高度调查示意图

注:高度1为有效穗距地面高度;高度2为无效穗距地面高度。

Fig.2 Schematic diagram of rice tiller height investigation

图3 水稻茎秆横截面图像

a. 高度1 b. 高度2 c. 距地面5 cm处

Fig.3 The cross-sectional image of rice stem

1.3 数据处理

不同水稻品种株高存在差异,因此采用相对高度对水稻有效分蘖高度与无效分蘖高度进行比较。将调查得到的高度1和高度2转化为株高的相对高度,并将两个高度组成的区间作为水稻有效分蘖与无效分蘖的划分区间,每个品种5株材料的均值得到该材料的划分区间。对调查的全部材料进行划分区间的比较,确立适合全部调查材料的划分区间,并将该区间作为标准进行有效分蘖与无效分蘖的划分。该划分方法的可靠性通过以下两个指标进行评价:①准确率。划分区间内有效分蘖个数占区间内总分蘖个数的比重,占比越大,说明该方法的准确率越高。②查全率。划分区间内有效分蘖数占单株有效分蘖数的比重,占比越大,说明该方法的查全率越高。通过准确率和查全率综合评价该方法,验证通过有效分蘖和无效分蘖在高度上存在差异进行划分的可靠性。

1.4 数据集构建

图像采集过程中出现晴天、多云、雨天等不同天气情况,拍摄时进行不同角度拍摄,2022年10月7日至10月15日期间采集水稻茎秆横截面图像424张,2023年9月22日至10月21日期间采集水稻茎秆横截面图像507张,共计获得不同光照条件、不同角度下茎秆横截面图像931张。原始图像进行清洗,去除相似性高的重复图像,之后进行裁剪操作,裁剪时图像纵横比固定为3∶4,裁剪完成后将图像像素尺寸统一调整为900×1 200。使用LabelImg图像标注工具进行水稻茎秆外接矩形框标注,标注时只选择横切面完全暴露的茎秆,穗部切面不进行标注。为保证样本多样性,提高模型鲁棒性,应对不同光照条件和拍摄抖动的影响,采取对比度转换、噪声扰动等手段进行训练集样本扩充,验证集图像和测试集图像不参与预处理,保持完全独立。最终得到数据集图像1 800张,其中训练集图像1 500张,验证集图像200张,测试集图像100张。

1.5 YOLOv8模型改进

1.5.1 YOLOv8算法

YOLO(You Only Look Once)是一种基于CNN的高效目标检测算法。其独特的端到端设计思路将目标检测任务转化为回归问题,直接从图像的像素数据中获得目标物的坐标和分类概率。相较于传统方法,YOLO具备显著的优势在于其快速的检测速度。YOLOv823, 24是ultralytics公司在2023年发布的YOLO系列的最新成员,与前几代相比进一步优化了网络结构,包括全新的骨干网络、解耦检测头和新型损失函数,提高了检测的综合性能。本研究运用YOLOv8n作为基础模型,进一步轻量化以满足移动设备快速检测的需要。

1.5.2 GhostNet

GhostNet25是华为诺亚方舟实验室2020年提出轻量级网络,利用深度可分离卷积去生成冗余特征图。相较于传统的卷积方式,Ghost模块通过一系列的线性变换操作,以较小的代价生成更多的特征图,避免了冗余的特征,大大减少了计算量。
GhostNet的网络原理是将传统卷积的一次性卷积计算拆分为普通卷积和简易线性计算两步进行,这样就可以大幅度降低网络由于卷积操作产生的计算量和参数量。如图4所示,首先使用普通卷积生成少量特征图,然后对生成的特征图进行线性计算,生成新的相似特征图;再将其与先前生成的特征图进行恒等变化拼接,得到与传统卷积输出相同数量的特征图,整个过程减少了计算量。
图4 普通卷积与GhostConv对比

Fig.4 Ordinary convolution compared with GhostConv

1.5.3 Ghost-YOLOv8模型建立

本研究将开发一个水稻有效分蘖检测的手机App,因此需要设计轻量级水稻有效分蘖目标检测算法。YOLOv8在田间场景下可以精准识别出目标物体,但其参数量依旧很大,无法在手机端发挥最佳性能。在YOLOv8的Backbone中,使用卷积提取的目标特征存在一些冗余信息,表现为一些特征图非常相似,这种冗余增加了卷积的计算量和资源消耗,降低了模型的效率。因此结合GhostNet进一步轻量化模型,改进后的模型算法Ghost-YOLOv8的网络结构如图5所示。
图5 Ghost-YOLOv8结构图

Fig.5 Structure diagram of Ghost-YOLOv8

GhostNet的网络原理是将传统卷积的一次性卷积计算拆分为普通卷积和简易线性计算两步进行,如图4所示,首先使用普通卷积生成少量特征图,然后对生成的特征图进行线性计算,生成新的相似特征图;再将其与先前生成的特征图进行恒等变化拼接,得到和传统卷积输出相同数量的特征图。本研究将Ghost Bottle-Neck融入C2f中,替换原有的BottleNeck,组成C2f-Ghost模块,再将网络中的普通卷积替换为Ghost卷积以减少模型复杂度。在保证模型检测准确率的同时,大幅减小模型的参数量和计算量,达到模型轻量化的目的。

1.5.4 模型训练和评价指标

试验环境操作系统为Ubuntu 22.04.2,显卡为NVIDIA GeForce RTX 3080,显存10 GB。在该条件下YOLOv8和Ghost-YOLOv8进行训练,图像输入像素尺寸为640×640,迭代300轮。本实验使用精确率(Precision, P)、召回率(Recall, R)、平均精度(Mean Average Precision, mAP)、参数量对模型进行评价。
本研究选取mAP@0.5作为评估模型准确度的指标,mAP@0.5代表将交并比(Intersection over Union, IoU)阈值取50%时的mAP值。召回率被定义为所有正样本被正确检出的比例;精确率是预测结果中正确的比例。评价指标计算如公式(1)公式(2)所示。
P=TP/(TP+FP)
R=TP/(TP+FN)
式中:TP为正确检测出的样本数量,个;FP为误检的样本数量,个;FN为漏检的样本数量,个;P为精确率,反映了模型预测的所有目标中预测正确的比例;R反映了所有真实目标中模型预测正确的比例。

1.6 水稻有效分蘖检测App设计

1.6.1 手机App开发

为在实际田间条件下应用深度学习模型对水稻有效分蘖进行检测与统计,本研究基于所提出的检测方法,采用Android Studio开发平台及内网穿透技术,设计并构建了一款专用于水稻分蘖图像识别的移动端应用。选用Android Studio作为主要开发工具,充分利用其强大的界面设计工具,打造用户友好的应用界面,应用程序的核心功能包括图像上传、深度学习模型调用和结果显示,这些功能在Android Studio中得以精确而高效地实现。在云端通信方面,采用内网穿透技术,确保在多样化的网络环境中实现流畅的通信,内网穿透技术使移动设备能够通过公网访问位于内部网络的服务器,实现了图像上传和深度学习模型的调用。
水稻有效分蘖检测手机App的工作流程如图6,主要包括以下关键步骤。用户首先通过手机启动应用程序,进入用户界面。在图像上传模块,用户选择图像上传选项,通过应用程序界面选择待处理的水稻图像。上传过程通过内网穿透技术进行安全传输,确保图像在移动设备和位于内部网络的服务器之间的安全性。随后,服务器接收上传的水稻图像,内网穿透技术允许移动设备通过公网访问服务器,服务器借助深度学习模型对水稻有效分蘖进行检测与统计。检测结果由服务器生成,并通过内网穿透技术安全返回至手机App。最终,应用程序界面展示处理后的水稻图像和分蘖检测结果,用户能够直观地查看水稻的有效分蘖情况,如图7。整个工作流程通过内网穿透技术实现了移动设备与服务器之间的安全通信,为用户提供了一个高效而可靠的水稻有效分蘖检测解决方案。
图6 水稻有效分蘖检测App工作流程图

Fig.6 Workflow diagram of the rice effective tiller detection App

图7 水稻有效分蘖检测手机App界面

a. 主界面 b. 云端检测界面 c. 检测结果显示

Fig.7 Interface of the mobile App for rice effective tiller detection

1.6.2 评价指标

本研究通过田间采集的100张水稻茎秆横截面图像进行测试,对水稻有效分蘖检测手机App的性能进行评估,测试使用小米11ultra和华为nova7两台设备。首先,对这100张图像中的水稻分蘖数量进行人工计数,随后采用该App对图像中的有效分蘖数量进行检测,最后,将人工计数结果与App预测结果进行比较,通过决定系数(R 2)、均方根误差(Root Mean Square Error, RMSE)和相对均方根误差(Relative Root Mean Square Error, rRMSE)等指标对手机App性能评价。具体评估指标的计算如公式(3)~公式(5)所示。
R 2 = 1 - Σ = 1 n m i - e i 2 Σ = 1 n m i - m ¯ 2                            
R M S E = Σ = 1 n e i - m i 2 n                        
r R M S E = 1 n Σ = 1 n m i - e i m i 2  
式中:miei 分别表示图像i中水稻有效分蘖数的人工计数结果和手机App预测结果;n是图像总数。

2 实验与分析

2.1 分蘖类型区分方法

2022年调查水稻材料126株,每株均有一个由高度1和高度2组成的划分区间,该区间内分蘖数与距地面5 cm分蘖数和单株有效分蘖数进行比较,结果如图8所示。在距地5 cm高度,仅有27株水稻材料得到的分蘖数与单株有效分蘖数相同,超过一半的水稻植株在此高度的分蘖数与单株有效分蘖数差值大于3个。而在划分区间内,121株水稻材料得到的分蘖数与单株有效分蘖数相同,其余5株水稻材料区间内分蘖数与有效分蘖数相差2个以内。126株水稻在划分区间内的分蘖数目与单株有效分蘖数进行线性回归比较,结果见图9R 2为0.995 3,两者高度相关,说明在此区间调查的分蘖数可认为是单株有效分蘖数。因此,可以通过高度1和高度2组成的划分区间进行水稻有效分蘖和无效分蘖的划分。
图8 不同水稻高度分蘖数与有效分蘖数对比

Fig.8 Comparison of tiller number and productive tiller number at different heights

图9 2022年田间调查划分区间内有效分蘖数与单株有效分蘖数对比

Fig.9 Comparison of the number of productive tillers in the divided interval and the number of productive tillers per plant from field surveys in 2022

26个水稻品种的划分区间如图10所示。每个水稻品种均得到一个划分区间,且26个水稻品种的划分区间均包含水稻植株总株高的52%~55%区间,因此,将该区间作为标准进行水稻有效分蘖与无效分蘖的划分可以满足全部品种的需要。
图10 2022年田间调查26份材料有效分蘖与无效分蘖的划分区域

Fig.10 Delineation of regions for effective and ineffective tillers in 26 rice varieties from field surveys in 2022

对2023年297株水稻在水稻植株总株高的52%~55%范围内进行切割,记录此处有效分蘖数、无效分蘖数和单株有效分蘖数,调查结果如表1所示,全部单株有效分蘖数为3 123个,划分区间内,分蘖个数为3 111,其中有效分蘖3 107个,无效分蘖4个。在此划分标准下,有效分蘖的准确率和查全率均超过99%,此外将2023年的297株水稻划分区间内分蘖数与单株有效分蘖数进行线性回归比较,R 2依旧可以达到0.991 1(图11),两者高度相关。经验证,以水稻植株总株高的52%~55%范围作为标准,可以准确划分水稻有效分蘖与无效分蘖,指导水稻有效分蘖计数工作。
表1 2022年与2023年调查不同高度分蘖情况数据

Table 1 Data on investigating different tiller heights in 2022 and 2023

年份 株数 有效分蘖数(划分区间) 无效分蘖数(划分区间) 有效分蘖数(整株)
2022 126 1 248 4 1 250
2023 297 3 107 4 3 123
图11 2023年田间调查划分区间有效分蘖数与单株有效分蘖数对比

Fig.11 Comparison of the number of productive tillers and the number of productive tillers per plant from field surveys in 2023

2.2 YOLOv8改进前后性能分析

对YOLOv8模型进行轻量化,表2呈现了改进前后性能指标的详细评估,模型对不同田间下图像预测结果如图12。在模型精度方面,改进后的模型仅微弱降低,其中P减小0.001,为0.988,R减小0.005,为0.980, mAP维持在0.994水平,证明在轻量化过程中成功地保持了模型对水稻有效分蘖检测任务的高精度。
表2 YOLOv8改进前后模型指标

Table 2 Model indicators before and after YOLOv8 improvements

模型 P R mAP Param/M GFLOPs FPS
YOLOv7-Tiny 0.981 0.970 0.993 6.008 13.0 20.3
YOLOv10n 0.991 0.978 0.994 2.695 6.7 56.8
YOLOv8 0.989 0.985 0.994 3.006 8.1 71.9
Ghost-YOLOv8 0.988 0.980 0.994 1.714 5.0 75.8

注:粗体表示改进后优化的模型指标。

图12 Ghost-YOLOv8模型预测结果

Fig.12 Prediction results of the Ghost-YOLOv8 model

值得注意的是,模型参数数量在轻量化过程中显著减少,从改进前的3.006 M降至1.714 M,模型参数量减少了43%。这强有力地证实了该轻量化方法的有效性,通过在减小模型规模的同时保持性能,实现了对模型尺寸的有意义缩减。同时,在计算复杂度方面,轻量化使模型的GFLOPs从改进前的8.1降至5.0,FPS增加了3.9,这一减少表明轻量化对计算资源的有效管理,为在计算有限环境中实现更高效的推理速度提供了可能性。
总体而言,Ghost-YOLOv8模型在性能和规模之间取得了良好的平衡,既减小了模型规模,又保持了高性能。因此,采用该模型进行水稻有效分蘖检测App的开发。

2.3 水稻有效分蘖检测的手机App

为验证基于Ghost-YOLOv8模型的水稻有效分蘖检测手机App是否可以在实际田间条件下可靠地执行其任务,通过上文的100张水稻茎秆横截面图像进行测试,结果如表3所示。
表3 水稻有效分蘖检测手机App性能评价指标

Table 3 Performance evaluation indicators for a mobile App for detecting effective rice tillers

真值 TP FP FN P/% R/% R 2 RMSE rRMSE/%
1 045 1 032 4 13 99.61 98.76 0.985 9 0.435 9 4.60
表3中展示了该App在水稻有效分蘖检测任务中的关键性能指标。通过TP、FP、FN计算得到P为99.61%,R为98.76%,这意味着超过99%的情况下,该App能够正确检测有效分蘖数,且漏检率不超过2%。此外,将App预测结果与人工计数有效分蘖数进行线性回归比较(图13),R 2为0.985 9,表明App预测结果与人工计数有效分蘖结果高度相关,RMSE为0.435 9,说明实际有效分蘖数量与预测结果之间的平均偏差较小,rRMSE为4.60%,进一步验证了模型在水稻有效分蘖检测任务中的可靠性。
图13 水稻有效分蘖检测手机App预测结果与人工结果线性回归比较

Fig.13 Linear regression comparison of prediction results from mobile App for detecting effective rice tillers versus manual results

综合以上指标,基于Ghost-YOLOv8模型的水稻有效分蘖检测手机App在实际田间条件下呈现出卓越的性能,准确率高、漏检率低,与人工计数有效分蘖结果高度一致,且在小米和华为手机上均可运行,为手机App在实际田间条件下进行有效分蘖检测与计数工作提供了可靠的支持。

3 讨 论

先前的研究中,高美玉22提到可以将苗高率作为水稻有效分蘖和无效分蘖区分标志,即分蘖高峰后的第一个星期,苗高达到该株最长分蘖的三分之二以上的,可判断为有效分蘖,而本研究提出的划分高度是在穗底部进行测量,两者相一致,52%~55%的株高划分区间是满足调查全部品种所制定的最佳区间,实际工作中,根据调查水稻品种的特性,该区间或许会出现一定浮动,甚至区间范围会更大,但不可否认,通过有效分蘖和无效分蘖高度差异进行划分是可行的。因此本研究基于水稻有效分蘖与无效分蘖在高度上的差异,结合深度学习,提出一种在水稻植株总株高的52%~55%范围内进行切割,通过YOLOv8模型识别茎秆以获取水稻有效分蘖数的方法。轻量化的YOLOv8模型显著减少规模的同时依旧保持高精度,部署在手机进行有效分蘖计数工作,计数值与人工值相比R 2超过0.98。
然而,本研究也存在一些局限性,只进行了单株图像采集和有效分蘖计数工作。目前手机App推理仍旧在云端进行,可满足实际工作需求,但目前本地推理性能欠佳,通过调用摄像头检测拍摄画面中有效分蘖个数,查全率较低,检测效果还无法达到工作需求,还需进一步优化。在未来的研究中,为进一步满足田间工作需求,需要补充多株水稻茎秆横截面图像数据集,实现多株水稻有效分蘖的同时测量。此外,随着深度学习模型的不断发展,进一步优化模型和部署方法,实现手机本地高精度推理,将是一个重要的研究方向。

4 结 论

基于水稻有效分蘖与无效分蘖在范围上的差异,本研究提出一个以高度为标准的有效分蘖计数方法;此外,采用自然环境下采集的水稻茎秆横截面图像作为研究对象,提出改进的YOLOv8模型,通过引入GhostNet,在保证模型精度的同时减少了模型的参数量;并基于轻量化后的Ghost-YOLOv8模型开发可部署到Android端的水稻有效分蘖检测App,使用实际场景下拍摄的水稻分蘖图像进行性能测试,得出以下结论。
1) 以水稻株高的52%~55%高度作为有效分蘖与无效分蘖的划分标准,此区间内分蘖数与单株有效分蘖进行线性回归比较,R 2超过0.99,区间内有效分蘖查全率和准确率均超过99%。
2) 引入GhostNet对YOLOv8轻量化,之后模型依旧保持高性能,在进行水稻茎秆检测工作中,P为0.988,R为0.980,mAP为0.994;同时,模型参数量减少了43%,减小了模型规模,有利于进行水稻有效分蘖检测App的开发。
3) 基于轻量化Ghost-YOLOv8开发的水稻有效分蘖检测App,预测结果与人工计数结果相比,P超过99%,R超过98%,R 2为0.985 9,在实际田间条件下呈现出卓越的性能。
4) 对提出的水稻有效分蘖与无效分蘖划分区间内进行水稻茎秆横截面图像采集,通过开发的水稻有效分蘖检测App进行预测,可满足水稻有效分蘖田间调查工作,有助于育种家收集大量数据,为水稻产量田间预测提供基础。

利益冲突声明

本研究不存在研究者以及与公开研究成果有关的利益冲突。

1
CAO J, ZHANG Z, TAO F L, et al. Integrating multi-source data for rice yield prediction across China using machine learning and deep learning approaches[J]. Agricultural and forest meteorology, 2021, 297: ID 108275.

2
HUO X, WU S, ZHU Z F, et al. NOG1 increases grain production in rice[J]. Nature communications, 2017, 8: ID 1497.

3
BIR M S H, ALI M A, AKTAR M M, et al. Growth competition between rice (oryza sativa) and barnyardgrass (echinochloa oryzicola) under varying mono-/ mixed cropping patterns and air temperatures[J]. Agronomy, 2024, 14(3): ID 574.

4
MA X, LI F, ZHANG Q, et al. Genetic architecture to cause dynamic change in tiller and panicle numbers revealed by genome-wide association study and transcriptome profile in rice[J]. The plant journal, 2020, 104(6): 1603-1616.

5
REN M M, HUANG M H, QIU H Y, et al. Genome-wide association study of the genetic basis of effective tiller number in rice[J]. Rice, 2021, 14(1): ID 56.

6
YANG W, XU X, DUAN L, et al. High-throughput measurement of rice tillers using a conveyor equipped with X-ray computed tomography[J]. The review of scientific instruments, 2011, 82(2): ID 025102.

7
HUANG Z F, GONG L, LIU C L, et al. Measurement of rice tillers based on magnetic resonance imaging[J]. IFAC-papers on line, 2016, 49(16): 254-258.

8
WU D, GUO Z L, YE J L, et al. Combining high-throughput micro-CT-RGB phenotyping and genome-wide association study to dissect the genetic architecture of tiller growth in rice[J]. Journal of experimental botany, 2019, 70(2): 545-561.

9
ZHAO B, ZHANG Q F, LIU Y C, et al. Detection method for rice seedling planting conditions based on image processing and an improved YOLOv8n model[J]. Applied sciences, 2024, 14(6): ID 2575.

10
SUBBARAYUDU C, KUBENDIRAN M. A comprehensive survey on machine learning and deep learning techniques for crop disease prediction in smart agriculture[J]. Nature environment and pollution technology, 2024, 23(2): 619-632.

11
BATHE K, PATIL N, PATIL S, et al. ConvDepthTransEnsembleNet: An improved deep learning approach for rice crop leaf disease classification[J]. SN computer science, 2024, 5(4): ID 436.

12
BHOOKYA N N, RAMANATHAN M, PONNUSAMY P. Leaf disease classification of various crops using deep learning based DBESeriesNet model[J]. SN computer science, 2024, 5(4): ID 406.

13
STILLER S, GRAHMANN K, GHAZARYAN G, et al. Improving spatial transferability of deep learning models for small-field crop yield prediction[J]. ISPRS open journal of photogrammetry and remote sensing, 2024, 12: ID 100064.

14
MEGHRAOUI K, SEBARI I, PILZ J, et al. Applied deep learning-based crop yield prediction: A systematic analysis of current developments and potential challenges[J]. Technologies, 2024, 12(4): ID 43.

15
沈志豪, 刘金江, 张建洋. 基于改进YOLOX-s的田间麦穗检测及计数[J]. 江苏农业科学, 2023, 51(12): 164-171.

SHEN Z H, LIU J J, ZHANG J Y. Detection and counting of wheat ears in fields based on improved YOLOX-s[J]. Jiangsu agricultural sciences, 2023, 51(12): 164-171.

16
HASAN M M, CHOPIN J P, LAGA H, et al. Detection and analysis of wheat spikes using Convolutional Neural Networks[J]. Plant methods, 2018, 14(1): ID 100.

17
MENG X P, LI C C, LI J B, et al. YOLOv7-MA: Improved YOLOv7-based wheat head detection and counting[J]. Remote sensing, 2023, 15(15): ID 3770.

18
WANG X L, YANG W, LYU Q, et al. Field rice panicle detection and counting based on deep learning[J]. Frontiers in plant science, 2022, 13: ID 966495.

19
JIN X, MADEC S, DUTARTRE D, et al. High-throughput measurements of stem characteristics to estimate ear density and above-ground biomass[J]. Plant phenomics (Washington, D C), 2019, 2019: ID 4820305.

20
DENG R L, JIANG Y, TAO M, et al. Deep learning-based automatic detection of productive tillers in rice[J]. Computers and electronics in agriculture, 2020, 177: ID 105703.

21
邓奎才. 水稻有效分蘖终止期的确定方法[J]. 现代农业科技, 2017(20): 52, 54.

DENG K C. Determination method of effective tillering termination period of rice[J]. Modern agricultural science and technology, 2017(20): 52, 54.

22
高玉美. 怎样区别水稻有效无效分蘖[J]. 农业科技通讯, 1981(4): ID 11.

23
KANG J C, ZHAO L J, WANG K T, et al. Research on an improved YOLOV8 image segmentation model for crop pests. advances in computer, signals and systems[J]. Advances in computer, signals and systems, 2023, 7(3). 1-8.

24
WANG J, WANG J P. A lightweight YOLOv8 based on attention mechanism for mango pest and disease detection[J]. Journal of real-time image processing, 2024, 21(4): ID 136.

25
HAN K, WANG Y H, TIAN Q, et al. GhostNet: More features from cheap operations[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, New Jersey, USA: IEEE, 2020: 1577-1586.

Outlines

/