Welcome to Smart Agriculture 中文

Remote Sensing for Rice Growth Stages Monitoring: Research Progress, Bottleneck Problems and Technical Optimization Paths

  • LI Ruijie , 1, 2 ,
  • WANG Aidong , 2 ,
  • WU Huaxing 2 ,
  • LI Ziqiu 2 ,
  • FENG Xiangqian 1, 2 ,
  • HONG Weiyuan 2 ,
  • TANG Xuejun 3 ,
  • QIN Jinhua 1, 2 ,
  • WANG Danying 2 ,
  • CHU Guang 2 ,
  • ZHANG Yunbo , 1 ,
  • CHEN Song , 2
Expand
  • 1. College of Agronomy, Yangtze University, Jingzhou 434025, China
  • 2. The NationalKey Laboratory of Rice Biological Breeding, China National Rice Research Institute, Hangzhou 311400, China
  • 3. Linhai Agricultural Technology Extension Center, Linhai 317000, China
CHEN Song, E-mail: ;
ZHANG Yunbo, E-mail:

WANG Aidong, E-mail:

Received date: 2024-12-23

  Online published: 2025-06-04

Supported by

National Key Research and Development Program of China(2023YFD2300503-01)

Rice Industry System(CARS-01)

Major Scientific Research Task of the Agricultural Science and Technology Innovation Project of the Chinese Academy of Agricultural Sciences(CAAS-ZDRW202001)

Copyright

copyright©2025 by the authors

Abstract

[Significance] ​The efficient and precise identification of rice growth stages through remote sensing technology holds critical significance for varietal breeding optimization and production management enhancement. Remote sensing, characterized by high spatial-temporal resolution and automated monitoring capabilities, provides transformative solutions for large-scale dynamic phenology monitoring, offering essential technical support to address climate change impacts and food security challenges in complex agroecosystems where precise monitoring of growth stage transitions enables yield prediction and stress-resilient cultivation management.​ [Progress] In recent years, the technical system for monitoring rice growth stages has achieved systematic breakthroughs in the perception layer, decision-making layer, and execution layer, forming a technological ecosystem covering the entire chain of "data acquisition-feature analysis-intelligent decision-making-precise operation". At the perception layer, a "space-air-ground" three-dimensional monitoring network has been constructed: high-altitude satellites (Sentinel-2, Landsat) realize regional-scale phenological dynamic tracking through wide-spectrum multi-temporal observations; low-altitude unmanned aerial vehicle (UAVs) equipped with hyperspectral and light detection and ranging (LiDAR) sensors analyze the heterogeneity of canopy three-dimensional structure; near-ground sensor networks real-timely capture leaf-scale photosynthetic efficiency and nitrogen metabolism parameters. Radiometric calibration and temporal interpolation algorithms eliminate the spatio-temporal heterogeneity of multi-source data, forming continuous and stable monitoring capabilities. Innovations in technical methods show three integration trends: first, multimodal data collaboration mechanisms break through the physical characteristic barriers between optical and radar data. Second, deep integration of mechanistic models and data-driven approaches embeds the PROpriétés SPECTrales-Scattering by arbitrary inclined leaves (PROSAIL) radiative transfer model into the long short-term memory (LSTM) network architecture. Third, cross-scale feature analysis technology breaks through by constructing organ-population association models based on dynamic attention mechanisms, realizing multi-granularity mapping between panicle texture features and canopy leaf area index (LAI) fluctuations. The current technical system has completed three-dimensional leaps: From discrete manual observations to full-cycle continuous perception, with monitoring frequency upgraded from weekly to hourly; from empirical threshold-based judgment to mechanism-data hybrid-driven, the cross-regional generalization ability of the model can be significantly improved; from independent link operations to full-chain collaboration of "perception-decision-execution", constructing a digital management closed-loop covering rice sowing to harvest, providing core technical support for smart farm construction. [Conclusions and Prospects] Current technologies face three-tiered challenges: Data heterogeneity, feature limitations and algorithmic constraints. Future research should focus on three aspects: 1) Multi-source data assimilation systems to reconcile spatiotemporal heterogeneity through UAV-assisted satellite calibration and GAN-based cloud-contaminated data reconstruction; 2) Cross-scale physiological-spectral models integrating 3D canopy architecture with adaptive soil-adjusted indices to overcome spectral saturation; 3) Mechanism-data hybrid paradigms embedding thermal-time models into LSTM networks for environmental adaptation, developing lightweight CNNs with multi-scale attention for occlusion-resistant panicle detection, and implementing transfer learning for cross-regional model generalization. The convergence of multi-source remote sensing, intelligent algorithms, and physiological mechanisms will establish a full-cycle dynamic monitoring system based on agricultural big data.

Cite this article

LI Ruijie , WANG Aidong , WU Huaxing , LI Ziqiu , FENG Xiangqian , HONG Weiyuan , TANG Xuejun , QIN Jinhua , WANG Danying , CHU Guang , ZHANG Yunbo , CHEN Song . Remote Sensing for Rice Growth Stages Monitoring: Research Progress, Bottleneck Problems and Technical Optimization Paths[J]. Smart Agriculture, 2025 : 1 -19 . DOI: 10.12133/j.smartag.SA202412019

0 引 言

水稻( Oryza sativa L.)作为全球重要的粮食作物之一,对世界粮食安全和农业经济具有深远影响 1。水稻生育期(Growth Stages)指的是水稻从萌发到成熟所需的时间,依据生产经验可细分为播种期、出苗期(Seedling Stage)、三叶期、移栽期、返青期、分蘖期(Tillering Stage)、拔节期(Jointing Stage)、孕穗期(Booting Stage)、抽穗期(Heading Stage)、乳熟期(Milky Stage)、蜡熟期(Dough Stage)和成熟期(Maturity Stage)等十二类生育时期。水稻的优质高产是环境、品种和栽培措施三者共同作用的结果。水稻生育期是水稻生产中的关键指标,准确判断生育期是筛选水稻优良品种、优化栽培措施和评估环境效应的重要手段。生育期已被广泛应用于生长监测、作物分类、净初级生产力估算及环境因素管理等方面 2
传统生育期监测依赖人工田间观测,如观察叶龄指数、分蘖动态、穗分化等指标 3,虽能准确捕捉关键生育阶段,却存在效率低下(单点观测耗时长)、空间覆盖局限(采样密度低)等固有缺陷。基于气象-土壤耦合的机理模型,如水稻生长与生产力模型(Rice Growth and Productivity Model, RiceGrow 4),以及农业技术转移决策支持系统(Decision Support System for Agrotechnology Transfer, DSSAT 5)虽实现了生育期预测自动化,但其参数敏感性(品种参数变幅大)与生态适应性瓶颈(跨区域迁移泛化能力差) 6严重制约其大规模应用。伴随着生产上对高效化、精准化、智能化生育期识别方法的需求,遥感设备融合“三高一低”技术特性(高空间覆盖、高时效性、高监测频次、低人工干预)的遥感监测体系,能够系统性地监测作物从播种、出苗、分蘖、拔节、孕穗、抽穗、灌浆直至成熟等各个关键生育期的遥感特征,可以准确判断生育时期 7,逐渐成为水稻全生育期动态追踪的重要手段 8。当前研究通过多源遥感协同(卫星-无人机-近地传感)与深度学习算法融合,已实现对水稻冠层结构(叶面积指数波动)、生理代谢(叶绿素含量反演)等关键指标的高精度监测 9,进而支撑生育期动态识别。据Web of Science 2000—2024年期间文献计量显示( 图1),基于遥感的水稻生育期识别领域研究年平均增长率为11.78%,呈现指数增长,已成为近年研究热点。
图1 Web of science上基于遥感的水稻生育期识别论文数量

注:主题检索词为(遥感)remote sensing、(作物)Corp、(生长期)growth stages;截至时间2024年7月16日。

Fig. 1 The number of published papers of ​remote sensing-based rice growth stage identification​ on Web of Science

本文聚焦遥感技术在水稻生育期识别方面的应用,从数据采集处理、生育期特征提取与算法决策三个维度展开综合分析。如 图2所示,农业遥感特征识别技术流程以多平台数据获取(低空无人机/近地遥感/卫星)为起点,经光谱-空间-时序三维数据矫正后,分群体特征(光谱反射参数、农艺性状)和个体特征(器官发育动态、株高监测)双路径提取,通过瞬时特征建模、时序演变分析、目标识别与阈值分割构建多模态模型,最终经特征筛选、降维与多源数据融合优化形成闭环系统。本文通过梳理多源数据获取方法及其时空基准校准策略,解析群体生长指标与生育期的动态响应关系,对比分析分类算法在生育期划分的决策逻辑,厘清光谱混杂、模型泛化等共性技术障碍等核心问题。通过系统探讨现有技术路线的关联性与矛盾点,旨在为构建多模态数据融合提供理论框架,同时量化技术迁移应用的关键阈值,为实现田间精准诊断提供技术支撑。
图2 多平台遥感监测水稻技术流程解析

Fig. 2 Analysis of technical process of multi-platform remote sensing monitoring for rice

1 遥感数据获取及处理

1.1 数据获取方法

作物生育期识别中的遥感数据获取方法,依据观测尺度可分为高空卫星、低空无人机和近地传感三类技术体系,如 表1所示。高空卫星遥感(如Sentinel-2 10、Landsat 8 9和MODIS 11)通过可见光至短波红外宽谱段监测,以10米至千米级分辨率有效监测稻田的植被指数,如归一化植被指数(Normalized Difference Vegetation Index, NDVI)、增强型植被指数(Enhanced Vegetation Index, EVI)、叶面积指数(Leaf Area Index, LAI)和地上生物量(Aboveground Biomass, AGB)等群体特征,实现区域尺度的生育期趋势追踪,其周至月级重访周期适合大范围物候监测,但受重访率限制,数据可能出现缺口,云层遮挡和混合像元效应导致其无法精确识别冠层精细形态变化 11。低空无人机平台(如Phantom 4 Pro 12、Trimble UX5 12)采用多光谱、RGB和高光谱传感器,凭借亚米级分辨率和日级重访能力( 图3),可获取冠层三维结构及毫米级生长异质性数据,适用于水稻植株生长状况的精细化监测、穗数计数等任务,但覆盖范围有限,对操作者的技术要求较高,并且受电池续航和空域管理限制,难以长期连续观测 12。近地传感设备,如ASD FieldSpec Pro 13、GreenSeeker 14,以及固定摄像设备等,通过点测量方式捕捉叶片尺度光合色素含量、水分胁迫指数等参数,分钟级时间分辨率为生育期模型提供高密度训练数据,但需密集布设传感器网络弥补空间覆盖不足 15
表1 生育期识别遥感主要设备

Table 1 Remote sensing equipment for growth stage identification

设备类型 设备名称 传感器类型 空间分辨率 光谱范围
高空遥感 Sentinel-2 16 多光谱传感器 10 m 可见光至短波红外
HJ-1A/1B 17 CCD传感器 30 m 可见光至近红外
Landsat 8 12 OLI传感器 30 m 可见光至短波红外
MODIS 14 成像光谱仪 250~1 000 m 可见光至短波红外
低空遥感 Parrot Bluegrass 12 多光谱传感器 亚米级 可见光至近红外
Phantom 4 Pro 15 RGB传感器 亚米级 可见光
PrecisionHawk Lancaster 15 多光谱和热成像传感器 亚米级 近红外波段
Trimble UX5 15 高光谱传感器 亚米级 近红外光谱数据
近地设备 ASD FieldSpec Pro 10 高光谱传感器 点测量 350~2 500 nm
GreenSeeker 10 多光谱传感器 点测量 可见光至近红外
CROPSCAN 13 多光谱传感器 点测量 可见光至近红外
图3 水稻生育期遥感图像获取示例

Fig. 3 Remote sensing image acquisition examples for rice growth stages

目前通过卫星广域筛查、无人机高频详查、近地设备实时校准多源协同形成三级验证体系,在空间、时间和光谱维度实现互补 12,但跨平台数据辐射差异(如MODIS与Sentinel-2光谱响应不一致)和时间异步性(无人机与卫星过境时间偏差)造成的融合误差,仍限制生育期识别准确性与普适性的提升 11

1.2 数据预处理方法

水稻生育期识别依赖于遥感数据在光谱、空间与时序维度的物理一致性处理,其技术原理需紧密围绕水稻生长的光谱响应规律、田块分布特征及物候连续性需求展开。
在光谱维度,水稻分蘖期至抽穗期的冠层结构变化会引发近红外波段反射率陡升、红边位置偏移等特征 21,需通过传感器辐射定标消除大气路径辐射对反射率绝对值的干扰 7,确保不同传感器获取的田块光谱值域统一,避免因系统偏差导致生育期特征误判。空间维度针对水稻田块面积小、边界破碎的特点,通过地面控制点驱动的几何校正消除卫星侧视成像造成的田块边缘拉伸畸变 22,采用亚像元级配准精度保障相邻田块的边界清晰度,使后续LAI、生物量等参数反演,使其衍生的生育期结果与田块实际边界严格对应。时序维度需克服多云天气导致的关键生育期数据缺失问题,基于水稻生长曲线的缓变特性,利用谐波分析提取物候周期分量 23,结合光谱相似性权重矩阵对缺失时段进行局部插值 24,确保分蘖、拔节、抽穗等生育期转折点的轨迹连续性。三维协同校正根据水稻种植区地形与气候差异动态调整参数 23,例如在丘陵地带增加几何校正模型阶数以补偿地形起伏引起的投影变形 22,在多雨区域增强时序滤波强度抑制云噪声干扰 7,通过多维度耦合优化形成稳定可靠的数据基底,使生育期识别模型能够适应不同环境下的光谱-物候响应关系,提升抽穗期预测等关键环节的时间外推精度 24

2 水稻生育期特征遥感获取

水稻生育期识别中有大量特征被提出,基于其识别原理的不同,遥感技术在水稻生育期识别中可分为两大类:群体指标的量化和个体特异器官的识别。群体指标量化识别方法主要通过计算植被指数(如NDVI、EVI)等宏观指标,适用于大范围监测,具有较高的效率和较低的成本,但在细节识别方面可能不够精确。而个体特异器官识别方法则侧重于分析水稻特定器官(如穗部、叶片)的光谱特征,能够提供更为精细的生长状态信息,但其应用范围受限且处理复杂度相对较高。

2.1 群体量化指标提取

生育期群体指标是用于描述和评估作物群体在其生育期(生长阶段)中表现出的特征和状态的量化参数,如 表2所示。依据其特征可以将群体量化指标分为两类:一是光谱直接测量指标,即基于传感器原始反射率波段计算的光谱指数,如NDVI、EVI、土壤调节植被指数(Soil-Adjusted Vegetation Index, SAVI)、红边叶绿素指数(Chlorophyll Index Red Edge, CIred edge)及结构光谱指数(Structural Index, SI)等 25,其本质是通过波段反射率的数学组合表征冠层光谱响应特征,能够间接反映水稻群体生长状态(如叶绿素含量、冠层覆盖度);二是农艺反演参数,即基于光谱数据与农学模型(如辐射传输模型、统计回归模型)反演获得的生理特征指标,包括LAI、AGB、冠层氮含量(Canopy Nitrogen Content, CNC)及纹理指数(Texture Index, TI)等 26,此类参数需依赖低空或近地高分辨率影像(如无人机、地面光谱仪)提取冠层结构细节,通过农艺机理(如叶片辐射吸收规律、氮素分配模型)建立光谱信号与生理参数的映射关系,进而动态关联具体生育阶段(如分蘖期LAI突增、抽穗期AGB峰值)。
表2 部分遥感反演指标的量化生育期指标

Table 2 Quantitative reproductive period indicators of some remote sensing inversion indicators

量化指标 原理 低值期 上升期 峰值期 下降期 末期
NDVI 27 N D V I = ( N I R - R e d ) ( N I R + R e d ) 0.1~0.2 0.3~0.6 0.6~0.8 0.5~0.7 0.3~0.5
EVI 28 E V I = G ( N I R - R e d ) N I R + C 1 R e d - C 2 B l u e + L 0.1~0.3 0.4~0.7 0.7~0.9 0.6~0.8 0.4~0.6
LAI 29 L A I = 单位 叶面 地面 面积 0.1~0.5 1.0~2.5 2.5~4.0 3.0~5.0 2.0~3.0
Biomass 30 生物量通过干重测量/ (t/ha) 0.1~0.5 1.0~2.0 2.0~4.0 3.0~6.0 5.0~10.0
CNC 31 通过测定植株氮元素含量/% 2~3 3~4 2~3 1~2 1.0~1.5
CIred edge 28 C I r e d   e d g e = N I R R e d E d g e - 1 1~2 2~3 3~4 2~3 1~2
需特别说明的是,NDVI、EVI等光谱指数本身并非直接反演参数,而是通过波段反射率计算的经验性指标,其与LAI、AGB等农艺参数的关系需通过标定模型,如基于辐射传输模型的植被反射和辐射模拟模型(Prospect + SAIL, PROSAIL)辐射传输模型建立;而LAI、AGB、CNC等参数需通过多光谱/高光谱数据结合反演算法(如机器学习、物理模型迭代优化)间接估算,其准确性受传感器分辨率、反演模型假设及环境噪声的显著影响。因此,在水稻生育期识别中,单一的指标往往受限,需综合光谱指数的快速响应优势与农艺参数的内在机理解释性,通过多尺度数据融合(如卫星-无人机协同)与模型耦合(如NDVI-LAI联合分析)提升分类精度。可以基于农艺先验知识将这些特征与具体的生育时期进行关联分析,从而准确地确定水稻的生育阶段。

2.1.1 不同群体指标的反演方式

基于群体指标的生育期识别主要通过量化光谱指数与农艺参数的统计特征,构建水稻不同生育阶段的遥感表征体系,如 图4所示。光谱指数类指标以NDVI为核心,其利用近红外与红光波段反射率比值快速表征植被绿度变化 32,在水稻分蘖期因叶面积快速增长呈现显著上升趋势,但土壤裸露区域易受背景反射干扰,从而导致低覆盖阶段分蘖期识别偏差;EVI通过引入蓝光波段校正大气气溶胶散射影响 33,能够更稳定地刻画抽穗期冠层郁闭度,但依赖于特定传感器波段配置,且对稀疏植被敏感性不足;SAVI则通过增加土壤亮度调节因子(L值)补偿土壤背景光谱贡献 34,适用于水稻移栽期低植被覆盖条件下的生育进程量化,但其反演精度受预设L值选择影响显著,因此模型泛化能力有限。农艺参数指标中,LAI基于红光波段吸收与近红外波段反射的辐射传输机制反演,采用PROSAIL模型耦合冠层结构参数与叶片光学属性,能一定程度地模拟水稻冠层光反射特性 26,其反演值在分蘖期,能够反馈冠层光分布和茎叶结构,因此具有一定的生育期预测能力,但生育期后期出现显著的特征饱和,这导致依赖LAI的生育期识别出现显著的品种间差异;类似于LAI,通过反演AGB也可以评估水稻生育进程。AGB的反演主要通过融合多光谱植被指数(NDVI、EVI)与雷达后向散射系数(σ0)的互补信息,借助机器学习模型建立光谱-雷达特征与生物量的非线性映射关系 35实现。不同于LAI,AGB可以通过分层随机采样建立区域校正模型以提升不同时期的生物量估算精度 36,这使其能一定程度上克服后期特征映射饱和的问题,能够应用于后期生育期估测。相比基于单株形态特征的生育期识别方法,群体指标通过光谱响应函数与农学机理模型的耦合,能够一定程度实现田块尺度的生育特征识别,但针对不同水稻生育期,需动态选择特定反演模型,如采用SAVI抑制土壤噪声开展分蘖期识别与监测,而进入抽穗期,则需配合EVI增强冠层敏感性,以此平衡监测精度与算法普适性 33, 34。因此,在连续监测中根据生育阶段差异,选用合适的反演指标是群体指标预测生育期的关键。
图4 多种群体指标的生育期变化 35, 37, 38

Fig. 4 Growth stage changes of multiple population indices

2.1.2 适宜使用群体指标的生育期

群体指标往往在水稻全生育时期中的部分阶段,如拔节期、孕穗期、抽穗期和灌浆期(Filling Stage),表现出显著的光谱特征和生理特征,植被指数(Vegetation Index, VI)、TI、LAI和AGB等量化指标能够准确捕捉到这些时期冠层的变化。其中,分蘖期是稻株快速生长、冠层快速增大的时期,此时叶片迅速增加,Wu等 39在多个生长阶段的水稻LAI估算性能研究中证明了LAI在前中期具有较高的识别能力。此外,分蘖期叶面积和叶绿素含量快速增加,植株的光合能力加强,光谱反射率变化显著,VI如NDVI能够有效捕捉植被吸收红光和反射近红外光的变化,展示出较高的识别效果。如Rosle等 40利用NDVI进行早期生长阶段监测,能快速、直观地评估稻田的生长状况,尤其适用于大面积农田的快速监测。拔节期是水稻生长的关键阶段,植株高度迅速增加,生长速率明显加快,由于植株的光合能力增强,光谱特征变化显著,多类指标均能较好地反映这一时期的生长状态。AGB指数在此阶段表现突出,对地上生物量的累积具有良好的监测效果,尤其在高生产力的水稻品种中,拔节期AGB积累迅速 35。随着水稻冠层逐渐覆盖土壤,修正型土壤调节植被指数(Modified Soil-Adjusted Vegetation Index, MSAVI)与实际的水稻生长速率高度相关,尤其在高冠层覆盖情况下,MSAVI表现出更高的精度 37。牛亚晓等 38利用无人机搭载多光谱传感器,发现MSAVI对植株生长冠层覆盖度的捕捉效果显著,可以实现精准的冠层覆盖度监测。然而,在大规模种植田中使用MSAVI时,尽管能够减少土壤背景干扰,提升对植株生长的识别精度,但对于复杂田间冠层结构,可能受叶片遮蔽影响,亦有识别精度下降的风险,具体应用时需注意区分。孕穗期是水稻生长的关键转折点,植株开始为抽穗做准备,冠层结构变得复杂,穗头逐渐形成,叶片达到最大覆盖度 41。在这个阶段,LAI达到最大值,其反馈的水稻冠层密度和生长状态亦可作为这个阶段识别的关键特征 42。Xue等 6通过长时间序列的VI变化,验证了这类指数能够很好地捕捉冠层的复杂变化,在孕穗期监测中具有很高的应用潜力。与此同时,TI对冠层异质性和结构变化极为敏感,同时期VI值达到高峰,两者的融合为探索生育期的精准估测提供了新的途径。利用无人机遥感监测技术结合VI和TI,评估孕穗期水稻冠层的复杂结构变化,可有效识别稻穗的形成和排列 43。尽管VI和TI能够为冠层密集且结构复杂的水稻提供高精度监测,但受品种类型的干扰,过于复杂的冠层结构和穗与叶的遮蔽效应仍会影响识别准确性。灌浆期是水稻生长的重要阶段,群体指标达到峰值后,逐渐下降,反映出冠层的叶绿素含量和光合作用效率的降低 29。一方面,这一时期EVI的监测表现出色,能够细致捕捉到水稻灌浆过程中冠层光合作用的减少,其时序特征可作为灌浆期识别的关键指标。此外,灌浆期还表现出AGB继续积累和叶绿素含量下降的共表达趋势。因此,通过VI指数结合AGB也能够很好地反映出该阶段与其他生育期的差异性特征。另一方面,研究显示,EVI在灌浆期对冠层光合变化的监测表现最佳,能够细致捕捉冠层光合作用的细微变化 27,利用EVI反馈的灌浆期细微光谱变化,可一定程度地反馈水稻的衰老进程,为量化不同灌浆阶段提供了可能。成熟期(Maturity stage)是水稻完全成熟、籽粒硬化的阶段,叶片光合作用逐渐减弱,冠层光谱反射参数加速下降或下降后保持停滞,反映出冠层的光合部位逐渐衰退和叶绿素的竭耗。该时期光合能力显著下降,利用光谱反射率能很好地识别到这一时期的特征变化 44。而AGB在成熟期达到最大值,增产趋势逐渐放缓。这些均可作为成熟期的识别特征用于生育期识别与监测 30
在分蘖期、拔节期、孕穗期等关键阶段,还可以利用合成孔径雷达(Synthetic Aperture Radar, SAR)的主动微波与水稻冠层的交互作用,揭示传统光学遥感难以捕捉的生育特征。分蘖期直立叶片引发主导表面散射(VV极化σ0值升高0.8~1.2 dB),与NDVI(0.3~0.6)形成互补监测优势 45。Zhou等 46提出的3-sigmoid指数(Three-Parameter Sigmoid Growth Curve Index, SSSI)通过全生育期时间序列强度变化,实现水稻苗蘖阶段(播种后30天)的识别(精度>85%),突破了传统光学遥感在季风区云层干扰下的监测瓶颈。拔节期植株高度激增阶段,L波段PALSAR-2的穿透能力可同步解析深层土壤水分(介电常数ε>25)与冠层茎秆结构灰度共生矩阵(Gray-Level Co-Occurrence Matrix, GLCM)均值>0.65,结合MSAVI(0.5~0.7)对高覆盖冠层的敏感性,构建多维度特征监测网络。孕穗期作为识别精度峰值阶段(4级) 47,此阶段LAI达4.5~5.5,体积散射功率增幅超2 dB( R 2=0.76)与EVI(0.7~0.9)形成强协同效应,Ma等 48使用SAR数据通过随机森林算法耦合分解参数与纹理特征,使该阶段的识别精度达83%。抽穗期虽存在C波段散射饱和(LAI>5),然而X波段定向角补偿(Orientation Angle Compensation, OAC)技术可消除图像中的几何畸变,生育期判断误差从±7天缩至±2天,利用SAR与归一化极化差异指数(Normalized Difference Polarization Index, NDPI)指数(>0.35)结合可构建抗环境干扰识别体系,实现抽穗期的精准鉴定。灌浆期监测中,SAR相位信息(干涉相干性γ<0.3)可捕捉籽粒灌浆引发的微形变,弥补EVI(0.6~0.8)对生理衰退的迟滞响应 47,多源数据融合不仅提高了AGB(5.0~8.0 t/ha)估算精度,同时对于灌浆期的精准识别具有重大的意义。
综上,群体指标提取方法(如 图5),能够反映出水稻不同生育阶段的差异化冠层群体特征,单一群体指标(如株高或者VI)虽可在特定阶段实现有效识别,但系统构建存在局限( 表3)。融合VI、SAR、LAI等多维参数,通过多指标互补增强,提高生育期判别机制的适应性,为提升分蘖至灌浆期连续监测的完整性与精准度提供了可能 26, 32
图5 水稻生育期阶段群体遥感指标提取方法 56

Fig. 5 Remote sensing index extraction methods for rice growth stage population

表3 基于群体指标的水稻不同生育期识别及其效果

Table 3 Rice Growth Stage Identification Based on Population Metrics and Its Effectiveness

群体量化指标 可识别生育期以及预测效果(1~5级)
比值植被指数(Ratio Vegetation Index, RVI) 49 拔节期(4)、孕穗期(3)、抽穗期(2)
NDVI 5051 分蘖期(3)、拔节期(3)、孕穗期(2)、抽穗扬花期(Heading and flowering stage)(3)、开花期(Flowering Stage)(1)、灌浆期(2)
EVI 52 裸土(3)、淹水(4)、营养生长(3)、拔节期(4)、生殖生长(Reproductive Growth)(4)、孕穗期(3)、抽穗期(3)、成熟期(5)
SAVI 4953 拔节期(5)、孕穗期(3)、抽穗期(3)
MSAVI 53 拔节期(4)、孕穗期(4)、抽穗期(4)
绿色植被指数(GVI - Green Vegetation Index) 49 拔节期(4)、孕穗期(3)、抽穗期(2)
光谱反射率(Spectral Reflectance) 44 分蘖期(5)、拔节孕穗期(5)、抽穗扬花期(3)、灌浆成熟期(5)
TI 44 苗期(3)、分蘖期(3)、抽穗期(4)、灌浆期(4)、成熟期(3)
SAR 4654 早期移栽期(Early Transplanting Stage)(2)、分蘖期(3)、孕穗期(4)、抽穗期(4)、成熟期(3)
LAI 55 分蘖期(3)、拔节期(2)、孕穗期(4)、抽穗期(2)、齐穗期(Full Heading Stage)(3)、乳熟期(2)
AGB 35 分蘖期-拔节期 (2)、分蘖期-孕穗期(3)、拔节期-孕穗期(2)

注:预测效果等级划分:1级为识别率低于50%~60%、预测误差范围11天以上,难以区分生育期;2级为识别率60%~70%、预测误差在6~10天之间,效果较差,区分度不高;3级为识别率70%~80%、误差范围在3~5天之间,识别效果一般,能部分反映生育期特征;4级为识别率80%~90%、误差范围在1~2天之间,识别效果较好,能较好地反映生育期特征。5级为大于90%、误差范围在1天以内,识别效果最好,非常准确地反映生育期特征。

2.1.3 群体指标难以反映的生育期

尽管群体量化指标在水稻的部分生育期表现良好,但由于特定时期的光谱或纹理特征不明显,植被指数的变化不够显著,导致识别难度增加,其中最具代表性的是苗期、幼穗分化期和开花期。苗期难以通过群体指标进行精确判断,主要原因在于植株尚处于早期生长阶段,冠层覆盖度较低,生物量和光合作用水平较弱,并且苗期裸土面积大干扰信息多,导致群体量化指标对这一时期的变化不敏感 30。具体表现为,苗期的水稻植株体积小,叶片数量少,反射信号较弱,植被指数如NDVI、EVI等难以识别或区分该阶段的特征性变化 39, 40。同时,由于苗期的植株内部生理活动主要集中于根系的生长和初期叶片的扩展,冠层的外部变化较为缓慢,如LAI和AGB等群体生理指标在这一阶段的表现无显著差异,亦难以区分其与裸土的差异。SAR受土壤湿度干扰(σ0波动>1.5 dB),与VI(NDVI:0.1~0.2)等类似,其过特征值过低,难以区分幼苗与裸地 57。尽管应用SAVI和MSAVI这类指标,可以一定程度调整土壤背景,但由于冠层结构过于稀疏,土壤背景的干扰严重,其特征反馈能力亦受到削弱,难以直接应用 37。此外,应用低分辨率的卫星遥感数据(如Sentinel-1 10 m分辨率),其混合像元效应导致的小田块(<0.1 ha)识别误差更加剧了苗期识别困境。因此,群体指标在苗期的敏感性和区分能力都较弱,难以对这一早期生长阶段进行准确识别 29
幼穗分化期是分割水稻营养生长和生殖生长的关键时期,同时是水稻内部生殖器官发育的关键阶段,这一时期植株内部生理活动较为活跃,但外观上形态变化相对较小,因此难以与其他生育期区分。因此常见的群体量化指标(如NDVI、EVI、LAI等)难以准确反映该时期 31。而SAVI和MSAVI,虽然可以减轻土壤背景的干扰 58,但这类指标同样无法反映植株内部的生理变化,基于SAR数据的Cloude-Pottier分解模型显示此阶段熵值变化<0.1,与Freeman-Durden体积散射功率的敏感性(Δ<0.5 dB)均不足以支撑精准识别 57
抽穗期的生理状态变化复杂,光合作用能力开始降低,冠层结构复杂,导致此阶段容易与其他生育阶段混淆。Sakamoto 59发现此时VI仍然保持在高位,但开始逐渐趋于平稳或轻微下降,反映出水稻生长即将进入成熟期,但无法准确判断抽穗。Peng等 27的研究指出,EVI能够捕捉到抽穗期植株光合作用效率的微小变化,成为区别其他生育时期的关键指标,但由于抽穗期光谱差异较小,导致EVI仍难以准确反映该时期。但随着抽穗期推进至穗头完全抽出,这时冠层的纹理特征发生显著变化,TI能够捕捉穗头的形态和排列变化,反映出水稻抽穗期的冠层异质性,因此TI可以直观说明抽穗后期水稻冠层纹理变化和穗头排列,能够较为准确地反映抽穗 60。EVI对于高冠层密度的水稻生育期识别效果较好,能够提供精确的生理监测,适合抽穗期水稻的监控,而抽穗后期使用TI能进行较好地识别。总的来说,由于抽穗期过于复杂的冠层结构以及穗与叶的相互遮蔽,导致群体特征难以准确判断该时期。
开花期的识别难度主要源于光谱特性的变化,这一时期水稻的光谱信号不稳定。并且,开花期的生理状态与其他生育阶段存在特征重叠,容易导致误判 61。群体特征中NDVI在开花期的表现不佳,预测效果较差,根本原因在于开花期的植被特征变化并不显著,并且冠层结构复杂,光谱响应难以捕捉,导致以VI为代表的植被指数对开花期的变化不够敏感,难以区分开花期与其他阶段的细微变化,SVR中X波段对冠层表面湿度敏感(介电常数日变幅>30%),导致σ0值波动掩盖花期特征;而C波段(5.3 GHz)易与周边短植被(株高<0.5 m)产生散射混淆 57,因此不宜单独使用量化指标进行识别。
综上所述,群体特征在光谱反射率和生理特征变化明显的生育阶段,表现出较强的识别能力。这些特征的变化能够有效反映水稻的生育阶段,从而提高识别的准确性。然而,在光谱反射率和生理特征变化较小或不明显的阶段,群体指标的识别能力显著下降,导致对群体状态的监测和评估变得困难。因此,针对不同生育阶段的特征变化规律进行深入研究,对于提高作物群体特征的识别精度具有重要意义,同时SAR技术通过微波与冠层的物理互作机制,为水稻生育期识别提供了独特的解决方案:在分蘖期(VV极化表面散射)、孕穗期(L波段穿透特性)等关键阶段展现不可替代性,但其在幼穗分化期和开花期的监测盲区仍需多模态数据补充。未来的研究应致力于优化遥感指标的选择与组合,结合高分辨率遥感数据和先进的机器学习算法,以提升生育期识别的准确性和鲁棒性。为了进一步提升生育期识别的效果,建议将EVI和MSAVI与高分辨率遥感数据及先进的机器学习算法相结合。通过多指标融合和数据优化,弥补单一指标的不足,确保在不同环境和生育阶段下实现更高精度的水稻生育期识别。

2.2 个体特异器官提取

水稻器官的发育进程是连续的,每个阶段都是前一阶段的自然延续,共同构成了水稻完整的生育周期。在这一过程中,特异器官的生长发育伴随其变化,且具有明显的时序生育特性。因此,基于个体特异器官的生育期识别可以通过分析这些特异器官的生长发育特性来判断水稻的生育阶段( 图6)。常见的水稻个体识别特征包括分蘖数、稻穗、株高和叶龄等 62。分蘖数与水稻生育进程密切相关,通过对分蘖的动态监测,可以对水稻苗蘖期的不同阶段进行精细划分 63, 64。但冠层结构特性,尤其是分蘖后期的冠层密闭(封行),使得用于分蘖特征分析的数据采集仍存在巨大挑战 65- 67。目前,利用高分辨率图像和深度学习技术 68,提取和识别水稻在前中期生长阶段的冠层结构特征,是智能识别分蘖的主要策略 69。通过多角度高分辨率图像处理技术 70或激光成像技术,分析水稻叶片、冠层的形态特征,能一定程度反馈群体分蘖情况。这种方法在分蘖前中期,精度高且较为直观,但覆盖范围较小,计算量较大;同时随着分蘖的持续增加,分蘖中后期冠层封闭、分蘖被叶片遮挡,导致无损非破坏的分蘖识别几乎不可能实现。因此,通过分蘖计数的方法无法精准判断分蘖末期结束时间。
图6 水稻表观特征提取 93

Fig. 6 Rice phenotypic trait extraction

除分蘖外,水稻稻穗抽出、齐穗、开花是水稻生殖生长期重要的外观特征,部分品种随着灌浆的推进 71,稻穗田间姿态、颜色的变化,也是水稻中后期生育期划分的重要依据 72。因此,通过定位大田稻穗,解析其形态、颜色特征,如穗数 73、抽穗程度 74、粒数 74和颜色变化 75等,是评估水稻生殖生长进程的主要途径。穗识别的关键在于超高清影像数据的采集 76。以此为基础,通过色彩校正和对比度增强等预处理步骤,突出稻穗的关键特征,随后结合深度学习模型进行稻穗识别与分割,并依据小穗特征和生育期的关系判断具体生育时期。基于稻穗检测的方法对不同穗发育阶段、不同籽粒灌浆阶段的识别,具有较高的识别能力。通过实时监测稻穗的发育状态,可以有效判断抽穗期、灌浆期和成熟期等关键生育时期 77。目前关于穗识别的模型算法研究较多,如Xiong等 78提出的“Panicle-SEG”算法、Guo等 79开发的“Panicle Ratio Network”模型、Tan等 80开发的“RiceRes2Net”等,但其应用效果受水稻品种特性限制,在直立穗上(如粳稻品种),效果较为显著,但对散生穗、半散生穗及叶下穗等水稻品种,由于穗和叶片之间的相互遮蔽,复杂的田间群体冠层结构使其应用效果显著降低 76,尤其是在大规模种植的田间条件下,光学遥感技术对这些品种的有效监测仍面临诸多挑战 76
除了分蘖和稻穗这样的典型器官特征外,水稻株高特性也能一定程度反馈生育期的变化 81。常见的作物株高估计方法利用遥感影像的立体重建或光探测与测距(Light Detection and Ranging, LiDAR)等高度测量技术来计算水稻植株高度 82, 83,结合时间序列数据,追踪株高在不同生长阶段的变化,从而识别作物的生长趋势和潜在产量 84。株高的变化在水稻生长周期中一般呈现前期低平、中期突增、后期高稳的曲线,展现出显著的非线性变化,通常用logistics、随机森林和支持向量机(Support Vector Machine, SVM)等模型 85描述其动态变化规律。通过无人机(Unmanned Aerial Vehicle, UAV)和LiDAR技术监测水稻冠层高度变化,并结合动态株高变化,提取动态特征参数,能够有效预测水稻发育过程中的跃变关键节点 86, 87。Devia等 88结合无人机多光谱影像技术和深度学习算法,成功实现了对大面积农田株高的自动化、高精度测量。显著提升了株高测量的精度和时效性,并且面对复杂的田间环境时,依然能够保持较好的识别能力。通过遥感技术对株高的实时监测,实现了水稻生长过程的动态监测 89。通过构建相应的模型,株高和生育期得以关联 90。但对于分蘖起始、始穗节点、籽粒灌浆的不同阶段等具有特定应用指引的生育期,仅依靠株高无法表征。此外,进入生长后期水稻株高变化小,因此也难以应用于成熟期预测 87。目前,利用多时相RadarSat-2数据的后向散射特性,通过反映株高达到最大值时水稻冠层结构的变化(特别是在抽穗期和灌浆期)关联生育进程可为分蘖结束后,株高变化不明显的时期提供了生育期识别的依据 91
20世纪50年代,日本水稻栽培专家片山佃​​发现叶蘖同伸规律,通过监测与记录主茎叶片的萌发顺序(叶龄),建立了一套评估水稻生育进程的方法 81。叶龄监测主要以人工记录为主,目前也有一些研究尝试通过高分辨率影像和深度学习算法,识别水稻群体中的叶片,量化叶龄,但实现难度较大。根本原因是叶片发育主要集中在冠层内部,而现有的遥感传感器无法深入冠层内部实现高通量数据采集。有研究通过语义分割技术,测量叶片的中肋偏移,以捕捉叶片的细微形态变化,可为叶龄监测提供部分数据支持 92。据笔者所知,有研究希望通过识别无人机采集的高分辨率正射图像中的绿色叶尖,结合时序数据,量化叶龄指标,但尚未见成功案例。除了“叶”识别困境外,叶龄模式预测生育期与品种密切相关,在应用前需预知该品种的总叶龄数,这也将其应用场景限制在水稻栽培,而无法应用于育种。株高、分蘖数、稻穗特征和叶龄等个体特异性指标在特定生育阶段展示出各自的识别优势,但器官出现的时间和识别难易限制了全生育期应用。
不同于群体特征,个体特异器官在判断的直观性上符合传统农艺经验,因此判断效率和准确度很高,但器官的萌发生长有其强烈的生育期局限性,仅使用某一种器官作为生育期判断标准,往往无法实现全生育期的精准识别。未来的研究应重点关注多特征结合,通过融合包括分蘖、株高,以及小穗等多维度特征,使模型在全生育期的多个生育阶段保持高精度的识别能力。此外,结合时序模型方法,如时序分析与深度学习模型,可进一步增强目标检测与生育期分类的效果,实现更加全面和精准的水稻生育期监测 86, 92

3 水稻生育期遥感识别算法

3.1 基于群体特征的建模算法

基于群体特征的生育期遥感识别,主要通过融合光谱响应机理与统计学习方法,构建作物冠层宏观特征与生育阶段的非线性映射关系。当前基础的建模途径主要有传统统计模型和机器学习方法两类。传统模型以线性回归为代表,基于植被指数(如NDVI)与生育阶段的线性假设,拟合生育期阈值(如最小二乘法) 94,其优势在于物理意义明确且计算效率高,但线性假设无法描述作物光合产物动态分配等非线性生理过程,尤其在拔节期等冠层结构突变阶段,难以捕捉反射率拐点,导致环境胁迫下误差显著增大 95。相比之下,机器学习方法通过整合多源特征(涵盖NDVI、EVI、MSAVI、TI等植被指数,红边/近红外波段反射率及温度、降水等环境参数),结合特征交互、集成学习等策略突破单一植被指数的局限性 96。例如SVM通过核函数将低维特征映射至高维空间构建最优分类边界,有效处理多模态特征关联问题;随机森林(Random Forest, RF)采用Bootstrap采样与特征子空间划分,构建多决策树集成模型,进一步通过变量重要性评估,量化分蘖期LAI与拔节期纹理特征对生育期预测的贡献度差异,实现非线性表达能力与模型鲁棒性的双重提升。
两类方法的本质区别在于:传统方法依赖植被指数与生育期的经验线性关联(如阈值判定、曲线匹配),而机器学习通过特征空间到生育阶段的非线性映射机制,解析作物生长的复杂生理响应过程。两者都以文本数值数据特征为基础,若需融合多模态数据,则需要进一步利用深度学习算法通过多层次抽象特征表达与端到端训练框架,构建跨模态动态注意力机制以捕捉作物生理参数与环境因子交互作用的非线性时序演化规律,从而突破传统单一数据维度建模的局限性。如图像数据,可通过卷积神经网络(Convolutional Neural Networks, CNN),借助局部感受野与权值共享机制提取图像特征,分层抽象解析冠层异质性 96,从而实现多维空间和颜色特征的提取,用于生育期预测。对于多时序动态特征,可借助深度学习端到端特征-模型协同优化的特性,基于特定时序动态模型,聚焦生育阶段的连续演化规律。如长短期记忆网络(Long Short-Term Memory, LSTM)通过门控单元调控时序信息流,精准捕捉分蘖速率峰值、抽穗期反射率突降等拐点特征 97;隐马尔可夫模型(Hidden Markov Model, HMM)将生育期识别转化为隐含状态序列推断,利用Baum-Welch算法优化转移概率矩阵,动态划分分蘖期至拔节期等阶段 98, 99。此外,针对环境异质性与数据稀缺性,还可以通过自适应与迁移学习,动态参数更新,实现实时数据的权重迭代优化,结合源域预训练模型的先验知识,特征分布对齐(如最大均值差异最小化)提升跨区域泛化能力 100, 101。深度学习模型聚焦线性到非线性、单时相到时序、独立场景到跨域协同等问题,为基于群体遥感特征的生育期识别提供了多维度技术支撑。

3.2 基于个体特异器官的识别算法

通过识别特异性器官实现水稻生育期监测,一般包括目标检测、定位与分割等工作。器官级表型解析主要通过目标检测与语义分割技术实现。目前主流的目标检测框架包括单阶段和双阶段模型。单阶段模型,如你只看一次(You Only Look Once, YOLO)、单发多框检测器(Single Shot MultiBox Detector, SSD)等基于全局特征金字塔提取多尺度器官特征,利用锚点机制直接预测目标类别与坐标,主要依靠分类-回归联合优化的损失函数,实现独立植株或器官的快速检测(如分蘖期幼苗);双阶段模型(如Faster R-CNN)首先生成区域建议框,再通过特征对齐与精细化回归,提升复杂背景下成熟期稻穗的定位精度,其级联结构可有效区分叶片遮挡的穗部目标 98, 102, 103。针对器官尺度变异(如幼苗与稻穗尺寸差异)与遮挡效应 104,引入自适应锚框聚类优化先验框尺寸分布,并结合通道-空间注意力机制强化关键器官特征权重,可提升模型对异质性目标的鲁棒性 99, 105。除了目标检测外,语义分割也是识别特异器官的重要方法。语义分割模型主要聚焦器官拓扑结构的像素维度分类,通过编码器-解码器架构(如U-Net),下采样捕获高层语义特征,上采样恢复空间分辨率,跳跃连接融合浅层纹理与深层语义信息,抑制冠层背景噪声;在此基础上,利用空洞卷积网络调节扩张率,整合多尺度上下文特征,最后结合条件随机场构建像素间空间关系,优化穗部边缘分割精度 106。此外,针对冠层光照不均导致的反射过曝与器官密集分布引起的类内差异,还可采用光谱归一化消除光照条件影响,引入对抗训练机制增强模型对阴影、反射噪声等策略,提高模型泛化能力。此类算法的核心优势在于通过器官级表型参数(如穗部形态、叶片倾角)的定量解析实现生育期精细化判别,如基于穗部三维结构的差异化,区分抽穗期与灌浆期 80。但计算复杂度与高分辨率数据需求,制约其大规模应用,如何通过轻量化网络设计(如深度可分离卷积)降低参数量,并融合可见光与多光谱数据协同采集,在保证精度的同时提升计算效率是当前需要解决的重大问题 103, 105

3.3 特征选择与模型优化

基于遥感长时序多维度特征的水稻生育期预测,其模型开发存在动态表型特征多尺度耦合与特征的高维异构特性的难点。为应对这一挑战,现有的改进策略一般从特征、算法和决策三个维度切入,具体可分为特征选择与降维、生育期分类算法选择,以及生育期识别决策优化三个部分。

3.3.1 特征选择与降维

特征选择与降维是水稻生育期识别中应对多源特征的主要方法,其核心是针对其器官发育的时序异质性与冠层结构复杂性进行特征筛选与优化。常用的特征选择算法,主要有相关性评估、机器学习的特征重要性评估 101、梯度搜索的二进制龙格-库塔优化器(Gradient Search-based Binary Runge Kutta Optimizer, GBRUN) 102等。Huu-Thanh等 106采用方向梯度直方图(Histogram of Oriented Gradients, HOG)该方法能够有效提取植物生育期的敏感特征,可有效提取分蘖数、穗部姿态等生育期敏感特征。但特征选择中的过滤法与包装法(如GBRUN优化器 107通过S/V/U形函数压缩特征空间)在跨生育阶段的特征里容易忽略时序关联性,例如分蘖动态与穗分化期的非线性耦合特征可能因维度简化而被割裂,从而导致模型对生育期过渡状态的判别能力下降。特征降维,如主成分分析(Principal Component Analysis, PCA)、线性判别分析(Linear Discriminant Analysis, LDA)等主要解决高/多维特征共线性,通过降维整合,筛选关键特征,提高模型预测精度和泛化能力。其应用主要以高光谱、LiDAR等高维性特征为主。但实际应用中,特征降维的线性投影假设与水稻冠层反射的非线性特征(如散生穗品种的多向散射)存在一定的冲突,特征降维削弱了部分生育期特征的光谱响应特异性(如齐穗、灌浆期) 108。值得注意的是,降维中的嵌入法通过模型训练同步优化特征权重(如CNN-RF联合框架),可在穗部识别任务中兼顾器官形态与纹理特征的时序变化,但计算成本高,难以满足水稻田间实时监测的需求。未来在特征优化部分,需开发面向水稻多生育期耦合特征的自适应选择算法,例如引入动态阈值机制区分不同特征在营养生长期(分蘖主导)与生殖生长期(穗高主导)的特征贡献度差异,同时构建非线性降维模型如t-分布随机邻域嵌入(t-Distributed Stochastic Neighbor Embedding, t-SNE)非负矩阵分解(Non-Negative Matrix Factorization, NMF)等改进变体,以保留冠层的多维度信息,从而在维度压缩与生育期连续性表达间实现平衡 106

3.3.2 生育期分类算法

水稻生育期分类算法,决定模型的识别能力。分类算法的技术路径与阶段适应性呈现显著的梯度特征,即水稻的完整生长周期在不同地理、气候或品种特性影响下表现出的规律性变化,其核心挑战在于如何平衡模型复杂度与生育期关键特征的非线性响应关系。依据算法建模原理的差异,主要包括机理驱动、机器学习、深度学习和时序模型。机理驱动的分类(如阈值法、折点法)在苗期至分蘖盛期具有物理可解释性优势,依托NDVI双峰曲线与后向散射系数时序模式可有效捕捉冠层动态(误差<15天) 109,但这种线性假设关系与水稻拔节期后因冠层结构突变而产生的非线性光谱特征存在本质冲突,导致难以判断孕穗至抽穗期 110。机器学习模型通过多源特征融合(如红边波段反射率与积温耦合)突破了单一指数的局限性,其中SVM在处理分蘖期与拔节期的光谱突变特征时展现出较高的鲁棒性,而RF通过特征重要性筛选可强化孕穗期LAI与AGB的动态关联,提升了这一阶段的识别能力。但特征交互机制难以量化抽穗期穗部姿态与光谱响应的空间异质性关联 111。深度学习方法(如CNN)在抽穗至成熟期高分辨率影像的解析中展现出显著优势,通过识别穗部纹理特征,以及提取株高空间分布特征,深度学习可实现全生育期分类,但这类模型会受到冠层遮蔽效应(如叶下穗品种)的影响,且严重依赖训练数据的多样性 112。时序模型依托生育期连续演进的特性,适宜进行跨阶段生长趋势的预测 96,如LSTM,门控循环单元(Gated Recurrent Unit, GRU),但其记忆门控机制对拔节期的突增生长响应延迟,这可能与其静态权重分配与动态表型演化间的匹配失调有关。当前技术体系不同生育期识别算法都集中呈现出“前中期机理-后期数据驱动”的阶段性适配规律,但水稻的品种差异仍是识别算法难以泛化的痛点。品种间不同的光谱混叠与器官空间遮蔽是生育期连续监测的核心瓶颈。为解决品种间差异的问题,需构建多模态数据协同采集体系(高光谱-LiDAR-多角度RGB融合),创建覆盖籼稻、粳稻、耐盐抗旱品种等全生长周期的动态数据,建立覆盖不同品种特性的标准化数据库。同时研发智能算法,结合深度学习与时间序列分析技术,赋予模型动态适应能力(如分蘖期侧重冠层特性、抽穗期侧重穗部特征),量化生长阶段关键表型参数,突破单一模型对品种与生育期的限制,形成全生育期预测能力,为高产优质品种筛选与栽培优化提供技术支撑 109, 110

3.3.3 水稻生育期识别决策优化

水稻生育期识别技术的演进,始终围绕阶段特异性特征的提取与模型泛化能力的平衡展开,其核心矛盾在于生育期连续演进的表型动态性与算法静态表征能力间的适配性冲突,依据原理与方法的不同,可将当前决策优化方法概括为集成学习、多源融合,以及模型优化与超参数调优三个部分。集成学习通过多模型协同(如随机森林的特征重要性筛选与梯度提升树的残差修正)可强化模型对分蘖期叶面积指数、抽穗期冠层温度等关键指标的聚焦能力,但Bagging/Boosting机制在拔节期氮积累突变点的非线性响应中存在滞后效应,一般需结合小波变换预处理以增强时序转折特征的显式表达 113。多源融合技术原理是通过光学-雷达-高光谱数据的时空互补性(如Sentinel-2高光谱分辨率捕获分蘖期叶绿素浓度梯度,Sentinel-1微波穿透性解析抽穗期穗部三维结构)构建跨生育期特征体系,按照融合的差异可分为特征级融合(如Yang等 114的随机森林特征筛选)与决策级融合(如郑紫瑞 115的中值合成法)两类,该方法在营养生长期展示出较高精度,但生殖生长期的协同效率受光谱-纹理特征的空间异质性影响,还需引入Transformer架构的动态交互模块,以实现特征组合的自适应性优化。模型优化与超参数调优通过参数空间搜索(如贝叶斯优化协调RF树深度与生育期数据尺度差异 116)和正则化约束(如SVM的C参数调控特征空间边界松弛度 117)机制,以提升算法对阶段性表型突变的响应灵敏度,但其在灌浆期至成熟期的建模中仍面临梯度消失与过平滑风险 118,一般需耦合元学习框架实现超参数与物候生理参数的联合迭代。当前虽然通过集成-融合-调优的多策略协同(如Stacking算法整合多源生育期敏感特征 113)初步实现了“分蘖期形态主导-抽穗期光谱主导-成熟期结构主导”的阶段性识别路径,但品种间差异导致的光谱混叠(如散生穗冠层反射率与叶片衰老信号的耦合干扰)及模型跨生态区泛化能力不足,这些仍是制约全生育期连续监测精度的核心瓶颈,亟待构建基于生育期生理机制的可微分特征融合架构,通过动态权重分配与对抗性域适应破解阶段-品种-环境的多维耦合难题 114

3.4 现有水稻生育期识别算法特点

从算法上看,现有水稻生育期识别大致可以分为四类,其各具特点但也有局限性。
1)反馈作物生长的算法(如NDVI阈值法)。在生长前期表现优异,通过植被指数双峰曲线分析可将苗期至分蘖盛期的识别误差控制在15天内且原理清晰 109,但其线性假设与拔节期后冠层非线性光谱特征存在本质冲突,导致无法识别抽穗、灌浆等后期阶段。
2)机器学习方法。此类算法通过整合多源特征突破了单指数局限,例如SVM对分蘖期与拔节期光谱突变的分类精度超过90%,RF则能筛选出与孕穗期LAI、生物量密切关联的关键指标 111,但这些模型难以量化关键器官形态差异,其预测能力与所选特征密切相关。
3)深度学习方法。在高分辨率影像解析中,深度学习优势明显,通过提取穗部纹理与株高特征,使抽穗至成熟期的识别精度达到94% 112,但其对冠层遮蔽和散生穗品种的效果不佳,模型适应性受训练数据多样性限制 71
4)时序预测模型。诸如LSTM/GRU等时序模型,能利用生育期连续演进特性实现跨阶段预测(平均误差<9.3天 96),但其静态权重机制与动态表型演化存在无法匹配的情况,这导致生育期实时监测中的偏差问题。
要突破这一系列矛盾,建立动态感知与跨模态数据关联模型,并增强算法对作物生理机制的嵌入表征能力可能是潜在的解决途径之一。

4 存在的主要挑战

水稻生育期遥感监测技术的实际应用仍存在五个关键问题。首先,多源数据协同利用效能不足。尽管卫星-无人机-地面传感网络通过融合中低分辨率影像可缓解时空分辨率矛盾,但跨平台数据标准化预处理缺失仍会导致系统性偏差 13。其次,不同区域建立的生育期识别阈值存在显著差异 15,导致模型迁移时产生适应性障碍。并且,模型机理与数据驱动脱节制约泛化能力。现有模型多依赖统计关联,导致参数传递冲突。极端气候下模型敏感性显著波动 3,暴露了纯数据驱动方法的脆弱性。此外,技术应用边界模糊形成多维制约。其中影像分辨率低,生育期过渡区域分类重叠率超30%以上 14,而通用模型忽视品种特异性(籼粳稻LAI反演方程混用使误差达1.8倍 22),以及高分辨率设备购置成本与云平台算力需求等,均不同程度抬高应用门槛。最后,三维冠层光辐射传输模型缺失,也是阻碍着光谱-生理特征映射精准解析原因之一。
当前,基于遥感技术的水稻生育期识别在实际应用中面临多维度挑战,这些挑战贯穿数据获取、特征解析、模型构建,以及技术落地的全链条。
在数据层面,多源遥感数据的时空-光谱异质性构成了全生育期识别的基础性障碍。具体而言,高空卫星(如MODIS)与低空无人机平台的空间分辨率差异会导致辐射偏差累积,从而产生偏差。如无人机高光谱数据虽能捕捉田块尺度的冠层细节,但其覆盖范围有限,难以与卫星影像的广域监测优势协同 10。进一步分析表明,不同传感器的光谱响应中存在的函数差异(如Sentinel-2红边波段与Landsat 8的光谱覆盖范围不一致)会削弱植被指数的物理一致性,导致NDVI、EVI等关键光谱指数在跨平台数据中的可比性下降 [123]。值得注意的是,这种异质性直接影响生育期分类阈值的区域迁移能力,例如平原区建立的抽穗期NDVI阈值在丘陵区应用时,因地形阴影与混合像元效应导致误判率急剧上升 14。此外,多云天气引发的时序数据断裂使传统插值算法(如线性插值或谐波分析)难以准确重建分蘖突增期等关键生育阶段的光谱轨迹。尽管可以采用光谱相似性权重矩阵进行局部插值 24,但云污染时段过长仍会导致物候曲线相位偏移,影响拔节期与抽穗期的转折点的识别精度 23
在特征提取层面,核心矛盾源于光谱-生理响应机制的跨尺度映射失真。一方面表现为:分蘖期NDVI虽能通过近红外与红光波段比值表征冠层叶面积扩张,但当LAI超过4.0时,多层叶片散射引发的光谱饱和效应导致NDVI对冠层结构变化的灵敏度显著下降 26,使其无法捕捉抽穗期穗部形态发育的细微差异。另一方面,苗期混合像元效应中,由于淹水田面的高反射背景与低植被覆盖(<30%)共同作用,导致植被指数受土壤湿度波动干扰显著。​虽然采用SAVI可以引入土壤校正因子 34,但其预设L值参数在黏土与砂质土壤中的适应性差异仍可能导致较高的反演误差 [123]。而C波段雷达虽具备云层穿透能力,能有效应对环境影响导致的云层污染,但其后向散射信号在淹水稻田与湿润土壤间仍存在较高重叠率 29,导致分蘖初期生育期识别困难。因此,需结合多时相极化特征(如HH/HV比值)提升分类可靠性,但这种结合不仅增加了数据处理复杂度,同时计算成本也大幅提高。
在算法层面,局限性集中体现为机器学习与深度学习模型对水稻生理机制的适应性不足。首先,随机森林等传统方法依赖特征重要性筛选(如NDVI时序积分值)构建分类规则,但忽略了温度累积等动态生理驱动因子,导致环境条件异常波动的情况下生育期预测误差波动幅度较大。与此同时,深度学习模型(如CNN)虽能通过卷积核捕捉穗部纹理等空间特征,但其固定尺寸的局部感受野设计受到冠层遮蔽的限制。典型例证是,散穗型品种因穗部空间分布离散,导致模型对抽穗期的识别准确率明显下降 71。时序模型(如LSTM)能识别到生育期发生的连贯性,但时序模型长程建模不仅依赖建模能力,而且受限于静态权重分配机制,难以动态适应高速率突变的非平稳特征,导致生育期过渡区域分类重叠率超过30% 96。并且,在品种更替频繁的区域,模型需频繁重新训练以维持精度,显著抬高了应用门槛 [123]
在技术落地层面,水稻生育期遥感监测受“技术-经济-社会”多维耦合的复杂约束。首先,硬件层面多光谱/高光谱传感器(如Headwall Nano-Hyperspec)与LiDAR等高端设备的购置成本高,导致中小型农业经营主体难以承担 15。但采用消费级无人机(如大疆精灵4多光谱版),其有限的光谱通道数(5~6个波段)与辐射定标精度不足等问题,仍制约着LAI、AGB等关键农艺参数的反演可靠性 14。其次,现有技术体系与农艺实践的衔接断层:多数模型输出结果止步于生育期分类标签,缺乏与施肥灌溉、病虫害防治等农事操作等决策结合,导致农户难以感知 12。这种“技术悬浮”现象暴露出算法研发与农学机理的深度融合不足。

5 未来研究方向展望

基于文中所述的技术瓶颈与实践需求,未来研究需围绕多源数据融合、机理-算法协同、技术应用适配性三大核心方向开展系统性突破,为水稻生育期遥感监测提供兼具理论深度与实践价值的解决方案。
(1)构建多源数据同化体系,破解时空异质性矛盾。针对高空卫星与低空无人机数据在水稻生育期识别中的光谱响应差异(如Sentinel-2与Landsat 8红边波段覆盖范围偏差),导致生育期识别产生系统性偏差,需开发与传感器无关的辐射响应转换模型。通过建立多平台数据的多源数据校准规则(如基于PROSAIL辐射传输模型逆向推导传感器响应函数),实现NDVI、EVI等关键指数的跨平台物理一致性。在时空维度,可设计动态插值算法(如融合谐波分析与SAR时序特征的混合插值模型),结合多时相极化特征(HH/HV比值)重建云污染时段的光谱轨迹。如利用Sentinel-1微波穿透特性补充分蘖期缺失数据,通过极化分解参数(熵/各向异性)与光学植被指数的非线性耦合,构建抗云干扰的生育期连续监测框架。综上,破解时空异质性矛盾需突破传统时序分析对单一数据源的依赖,建立“星-机-地”协同的物候感知网络,为修正环境影响提供数据基底。
(2)发展跨尺度生理-光谱响应解析模型,揭示生育期演化驱动机制。当水稻冠层太茂密时(如LAI>4.0),现有的NDVI监测指标就会超过量程并“失灵”,这时需要建立新型监测方法,既要能看清单株叶片的透光情况,又需要分析整片稻田的光线反射规律,还要考虑天气日照对监测的影响,这样才能准确判断不同密度稻田的真实生长状态。通过融合无人机高光谱数据(亚米级分辨率)与近地传感网络(如ASD FieldSpec Pro叶片尺度测量),量化叶片倾角分布、穗部三维结构对群体反射率的贡献权重,可以基本完成识别任务。如开发抗饱和植被指数(如基于红边波段二阶导数的新型指数),结合C波段雷达体积散射特征(σ0_VV/σ0_VH比值)表征抽穗期穗部空间分布异质性。在机理层面,需解析温度累积,如温度累积日(Growing Degree Days, GDD)与冠层光谱响应的动态关系,建立包含品种参数的辐射传输-物候融合模型(如改进PROSAIL模型嵌入分蘖速率方程)。以突破传统阈值法对线性关系的依赖,实现幼穗分化期等隐性生育阶段的精准识别。
(3)创新机理-数据混合驱动范式,提升算法跨域泛化能力。当前机器学习模型虽然能识别作物外观变化,却无法反映出环境对作物生长的实际影响,要让这些智能系统真正理解农作物生长规律,需要给它们装上“农业知识芯片”,把有关研究多年积累的作物生长原理(如温度如何影响发育等)转化成计算机能理解的数学公式。如在LSTM网络中嵌入光温生产潜力函数,通过门控单元动态调节环境因子(昼夜温差、辐射强度)对生育期预测的贡献度,实现综合光温条件的时序生育期识别。针对散穗型品种识别难题(穗部空间离散导致CNN精度下降),可设计多尺度注意力机制:在浅层网络捕捉局部纹理特征(穗粒形态),在深层网络整合全局空间上下文(冠层郁闭度)。同时,开发轻量化迁移学习框架(如基于知识蒸馏的模型压缩技术),利用籼粳稻共有特征(分蘖动态曲线)构建基础模型,通过少量区域数据微调实现跨生态区迁移。该方向需突破静态权重分配对动态表型演化的适应性限制,为不同环境不同品种的应用提供技术支持。
(4)建立技术-农艺-经济协同系统,破除应用落地壁垒。针对设备成本高昂与农户需求脱节问题,需研制消费级多光谱-激光雷达复合传感器。如在大疆精灵4多光谱版平台集成微型LiDAR模块,通过波段拓展与点云数据融合,提升LAI反演精度。在决策层面,构建生育期-农事操作联动平台,将抽穗期识别结果映射为穗肥施用时间窗口,结合田间物联网设备实现精准变量施肥。并且建立开放式品种参数库(包含籼稻、粳稻、耐盐品种的叶龄模式与积温需求),支持农户导入本地化数据自主优化模型。通过政府补贴、设备共享、农技培训三位一体模式,降低中小农户的技术应用门槛。该方向需打破“技术悬浮”现状,使遥感监测深度融入水稻全产业链管理。
综上所述,未来水稻生育期遥感监测研究需在数据同化、机理解析、算法创新与应用集成四个维度协同发力,通过构建多源数据融合体系、深化生理-光谱响应机制认知、开发知识嵌入的混合驱动模型,以及推进技术-农艺的深度融合,形成从理论模型到田间实践的全链条解决方案,为水稻精准管理与智慧农业发展提供坚实的技术支撑。

利益冲突声明

本研究不存在研究者以及与公开研究成果有关的利益冲突。

1
Food and Agriculture Organization of the United Nations (FAO), International Fund for Agricultural Development (IFAD), United Nations Children's Fund (UNICEF), et al. The state of food security and nutrition in the world 2024: Financing to end hunger, food insecurity and malnutrition in all its forms[R]. Rome: FAO, 2024.

2
MOLDENHAUER K, SLATON N. Rice Growth and Development[M]// University of Arkansas Division of Agriculture. Rice Production Handbook. Fayetteville, AR: University of Arkansas Cooperative Extension Service, 2001: 7- 14.

3
XU F X, ZHANG L, ZHOU X B, et al. The ratoon rice system with high yield and high efficiency in China: Progress, trend of theory and technology[J]. Field crops research, 2021, 272: ID 108282.

4
郎有忠, 窦永秀, 王美娥, 等. 水稻生育期对籽粒产量及品质的影响[J]. 作物学报, 2012, 38( 3): 528- 534.

LANG Y Z, DOU Y X, WANG M E, et al. Effects of growth duration on grain yield and quality in rice ( Oryza sativa L.)[J]. Acta agronomica sinica, 2012, 38( 3): 528- 534.

5
WANG S H, CHEN W X, DONG J, et al. Physiological characteristics and high-yield techniques with SRI rice[C]// Assessments of the System of Rice Intensification: Proceedings of an International Conference. Ithaca, NY, USA: Cornell International Institute for Food, Agriculture and Development, 2002: 116- 124.

6
XUE H, XU X, ZHU Q, et al. Rice yield and quality estimation coupling hierarchical linear model with remote Sensing[J]. Computers and electronics in agriculture, 2024, 218: ID 108731.

7
YANG Q, SHI L S, HAN J Y, et al. Deep convolutional neural networks for rice grain yield estimation at the ripening stage using UAV-based remotely sensed images[J]. Field crops research, 2019, 235: 142- 153.

8
TANG L, ZHU Y, HANNAWAY D, et al. RiceGrow: A rice growth and productivity model[J]. NJAS - wageningen journal of life sciences, 2009, 57( 1): 83- 92.

9
LI T, ANGELES O, MARCAIDA M, et al. From ORYZA2000 to ORYZA (v3): An improved simulation model for rice in drought and nitrogen-deficient environments[J]. Agricultural and forest meteorology, 2017, 237: 246- 256.

10
LIU X J, WU X T, PENG Y, et al. Application of UAV-retrieved canopy spectra for remote evaluation of rice full heading date[J]. Science of remote sensing, 2023, 7: ID 100090.

11
JIN X L, KUMAR L, LI Z H, et al. A review of data assimilation of remote sensing and crop models[J]. European journal of agronomy, 2018, 92: 141- 152.

12
于铁龙, 杨兰, 张婷婷, 等. 水稻全生育期近地空农情遥感精准监测应用[J]. 中国农业文摘-农业工程, 2022, 34( 6): 55- 64.

YU T L, YANG L, ZHANG T T, et al. Application of remote sensing to precise monitoring of near-earth air agricultural situation in the whole growth period of rice[J]. Agricultural science and engineering in China, 2022, 34( 6): 55- 64.

13
赵小敏, 孙小香, 王芳东, 等. 水稻高光谱遥感监测研究综述[J]. 江西农业大学学报, 2019, 41( 1): 1- 12.

ZHAO X M, SUN X X, WANG F D, et al. A summary of the researches on hyperspectral remote sensing monitoring of rice[J]. Acta agriculturae universitatis jiangxiensis, 2019, 41( 1): 1- 12.

14
王帝, 孙榕, 苏勇, 等. 基于无人机多光谱影像的水稻生物量估测[J]. 农业工程学报, 2024, 40( 17): 161- 170.

WANG D, SUN R, SU Y, et al. Rice biomass estimation based on multispectral imagery from unmanned aerial vehicles[J]. Transactions of the Chinese society of agricultural engineering, 2024, 40( 17): 161- 170.

15
纪景纯, 赵原, 邹晓娟, 等. 无人机遥感在农田信息监测中的应用进展[J]. 土壤学报, 2019, 56( 4): 773- 784.

JI J C, ZHAO Y, ZOU X J, et al. Advancement in application of UAV remote sensing to monitoring of farmlands[J]. Acta pedologica sinica, 2019, 56( 4): 773- 784.

16
王岩, 高美琦, 李荣平, 等. Sentinel-2遥感影像在盘锦水稻米质监测中的应用研究[J]. 中国稻米, 2024, 30( 6): 74- 81.

WANG Y, GAO M Q, LI R P, et al. Application of sentinel-2 remote sensing image in rice quality monitoring in Panjin City[J]. China rice, 2024, 30( 6): 74- 81.

17
杨浩, 黄文江, 王纪华, 等. 基于HJ-1A/1BCCD时间序列影像的水稻生育期监测[J]. 农业工程学报, 2011, 27( 4): 219- 224.

YANG H, HUANG W J, WANG J H, et al. Monitoring rice growth stages based on time series HJ-1A/1B CCD images[J]. Transactions of the Chinese society of agricultural engineering, 2011, 27( 4): 219- 224.

18
JIMENEZ-SIERRA D A, CORREA E S, BENÍTEZ-RESTREPO H D, et al. Novel feature-extraction methods for the estimation of above-ground biomass in rice crops[J]. Sensors, 2021, 21( 13): ID 4369.

19
NAMAZI F, EZOJI M, PARMEHR E G. Paddy Rice mapping in fragmented lands by improved phenology curve and correlation measurements on Sentinel-2 imagery in Google earth engine[J]. Environmental monitoring and assessment, 2023, 195( 10): ID 1220.

20
WANG J, HUANG J F, WANG X Z, et al. Estimation of rice phenology date using integrated HJ-1 CCD and Landsat-8 OLI vegetation indices time-series images[J]. Journal of Zhejiang university-SCIENCE B, 2015, 16( 10): 832- 844.

21
YAMASHITA M, KAIEDA T, TOYODA H, et al. Spatial estimation of daily growth biomass in paddy rice field using canopy photosynthesis model based on ground and UAV observations[J]. Remote sensing, 2024, 16( 1): ID 125.

22
BOSCHETTI M, STROPPIANA D, BRIVIO P A, et al. Multi-year monitoring of rice crop phenology through time series analysis of MODIS images[J]. International journal of remote sensing, 2009, 30( 18): 4643- 4662.

23
MA Y, JIANG Q, WU X T, et al. Monitoring hybrid rice phenology at initial heading stage based on low-altitude remote sensing data[J]. Remote sensing, 2021, 13( 1): ID 86.

24
MEHMOOD V, MALIK A I, ZAFAR Z, et al. Multi-year monitoring of wheat phenology and effect of climate change in the south Asian region using Sentinel-2 NDVI time series analysis[C]// Image and Signal Processing for Remote Sensing XXIX. Amsterdam, Netherlands: SPIE, 2023: ID 28.

25
ZHANG X L, ZHANG F, QI Y X, et al. New research methods for vegetation information extraction based on visible light remote sensing images from an unmanned aerial vehicle (UAV)[J]. International journal of applied earth observation and geoinformation, 2019, 78: 215- 226.

26
PRABHAKAR M, GOPINATH K A, RAVI KUMAR N, et al. Mapping leaf area index at various rice growth stages in southern India using airborne hyperspectral remote sensing[J]. Remote sensing, 2024, 16( 6): ID 954.

27
PENG D L, HUETE A R, HUANG J F, et al. Detection and estimation of mixed paddy rice cropping patterns with MODIS data[J]. International journal of applied earth observation and geoinformation, 2011, 13( 1): 13- 23.

28
YANG K L, MO J C, LUO S J, et al. Estimation of rice aboveground biomass by UAV imagery with photosynthetic accumulation models[J]. Plant phenomics, 2023, 5: ID 56.

29
LU B R, CAI X X, XIN J. Efficient indica and Japonica rice identification based on the InDel molecular method: Its implication in rice breeding and evolutionary research[J]. Progress in natural science, 2009, 19( 10): 1241- 1252.

30
XU A N, WANG F, LI L. Vegetation information extraction in karst area based on UAV remote sensing in visible light band[J]. Optik, 2023, 272: ID 170355.

31
ZHANG W Y, CHEN Y J, WANG Z Q, et al. Polyamines and ethylene in rice young panicles in response to soil drought during panicle differentiation[J]. Plant growth regulation, 2017, 82( 3): 491- 503.

32
HUETE A R, LIU H Q, BATCHILY K, et al. A comparison of vegetation indices over a global set of TM images for EOS-MODIS[J]. Remote sensing of environment, 1997, 59( 3): 440- 451.

33
LOPRESTI M F, DI BELLA C M, DEGIOANNI A J. Relationship between MODIS-NDVI data and wheat yield: A case study in Northern Buenos Aires province, Argentina [J]. Information processing in agriculture, 2015, 2( 2): 73- 84.

34
HU Y Q, WU Y, TANTIAN Z Z, et al. Capturing urban green view with mobile crowd sensing[J]. Ecological informatics, 2024, 81: ID 102640.

35
CLARK M L, ROBERTS D A, EWEL J J, et al. Estimation of tropical rain forest aboveground biomass with small-footprint lidar and hyperspectral sensors[J]. Remote sensing of environment, 2011, 115( 11): 2931- 2942.

36
YANG W N, XU X C, DUAN L F, et al. High-throughput measurement of rice tillers using a conveyor equipped with X-ray computed tomography[J]. The review of scientific instruments, 2011, 82( 2): ID 025102.

37
WANG C F, YANG C H, ZHANG J, et al. A PROSAIL model with a vegetation index lookup table optimized with in situ statistics for rapeseed leaf area index estimation using diverse unmanned aerial vehicle sensors in the Yangtze River Basin[J]. Computers and electronics in agriculture, 2023, 215: ID 108418.

38
牛亚晓, 张立元, 韩文霆, 等. 基于无人机遥感与植被指数的冬小麦覆盖度提取方法[J]. 农业机械学报, 2018, 49( 4): 212- 221.

NIU Y X, ZHANG L Y, HAN W T, et al. Fractional vegetation cover extraction method of winter wheat based on UAV remote sensing and vegetation index [J]. Transactions of the Chinese society for agricultural machinery, 2018, 49( 4): 212- 221.

39
WU T Z, ZHANG Z W, WANG Q, et al. Estimating rice leaf area index at multiple growth stages with Sentinel-2 data: An evaluation of different retrieval algorithms[J]. European journal of agronomy, 2024, 161: ID 127362.

40
ROSLE R, CHE'YA N, ROSLIN N, et al. Monitoring early stage of rice crops growth using normalized difference vegetation index generated from UAV[J]. IOP conference series: Earth and environmental science, 2019, 355( 1): ID 012066.

41
BHATTI M T, GILANI H, ASHRAF M, et al. Field validation of NDVI to identify crop phenological signatures[J]. Precision agriculture, 2024, 25( 5): 2245- 2270.

42
ZHANG W, CHAI Y, SUN Y, et al. Dynamic relationships between rice yield and population indices across growth stages[J]. Agronomy journal, 2015, 107( 3): 1021- 1030.

43
ZHANG Z Y, LU L, ZHAO Y H, et al. Recent advances in using Chinese Earth observation satellites for remote sensing of vegetation[J]. ISPRS journal of photogrammetry and remote sensing, 2023, 195: 393- 407.

44
杨振忠, 方圣辉, 彭漪, 等. 基于机器学习结合植被指数阈值的水稻关键生育期识别[J]. 中国农业大学学报, 2020, 25( 1): 76- 85.

YANG Z Z, FANG S H, PENG Y, et al. Recognition of the rice growth stage by machine learning combined with vegetation index threshold[J]. Journal of China agricultural university, 2020, 25( 1): 76- 85.

45
LESTARI A I, KUSHARDONO D. The use of c-band synthetic aperture radar satellite data for rice plant growth phase identification[J]. International journal of remote sensing and earth sciences (IJReSES), 2019, 16( 1): ID 31.

46
ZHOU Z G, ZHAO L L, SHI H T, et al. Early season mapping of rice using of time series sentinel-1 SAR images[C]// 2024 IEEE International Geoscience and Remote Sensing Symposium. Piscataway, New Jersey, USA: IEEE, 2024: 4832- 4835.

47
TRISASONGKO B H, PANUJU D R, GRIFFIN A L, et al. Examining the outcome of coupling machine learning with dual polarimetric SAR for rice growth mapping[M]// Agriculture, Livestock Production and Aquaculture. Cham: Springer International Publishing, 2022: 115- 129.

48
SHAO Y, LI K, BRISCO B, et al. The potential of polarimetric and compact SAR data in rice identification[J]. IOP conference series: Earth and environmental science, 2014, 17( 1): ID 012056.

49
DIN M, ZHENG W, RASHID M, et al. Evaluating hyperspectral vegetation indices for leaf area index estimation of Oryza sativa L. at diverse phenological stages[J]. Frontiers in plant science, 2017, 8: ID 820.

50
唐怡, 刘良云, 黄文江, 等. 土壤背景对冠层NDVI的影响分析[J]. 遥感技术与应用, 2006, 21( 2): 142- 148.

TANG Y, LIU L Y, HUANG W J, et al. Analysis on the influence of soil backgrounds on canopy NDVI[J]. Remote sensing technology and application, 2006, 21( 2): 142- 148.

51
王鑫, 冯建东, 王锐婷, 等. 基于SPOT-NDVI的川西平原水稻生育期监测分析[J]. 中国农学通报, 2013, 29( 36): 39- 46.

WANG X, FENG J D, WANG R T, et al. The monitoring analysis of paddy rice growing periods in the western Sichuan Plain based on SPOT-NDVI[J]. Chinese agricultural science bulletin, 2013, 29( 36): 39- 46.

52
白燕英, 高聚林, 张宝林. 基于NDVI与EVI的作物长势监测研究[J]. 农业机械学报, 2019, 50( 9): 153- 161.

BAI Y Y, GAO J L, ZHANG B L. Monitoring of crops growth based on NDVI and EVI[J]. Transactions of the Chinese society for agricultural machinery, 2019, 50( 9): 153- 161.

53
唐延林. 水稻高光谱特征及其生物理化参数模拟与估测模型研究[D]. 杭州: 浙江大学, 2004.

TANG Y L. Study on the hyperspectral characteristics and simulating and estimating models about biophysical and biochemical parameters of rice[D]. Hangzhou: Zhejiang University, 2004.

54
FU T Y, TIAN S F, ZHAN Q. Phenological analysis and yield estimation of rice based on multi-spectral and SAR data in Maha Sarakham, Thailand[J]. Journal of spatial science, 2024, 69( 1): 149- 165.

55
CURRAN P J, STEVEN M D. Multispectral remote sensing for the estimation of green leaf area index[J]. Philosophical transactions of the royal society of London series A, mathematical and physical sciences, 1983, 309( 1508): 257- 270.

56
SHENG R T, HUANG Y H, CHAN P C, et al. Rice growth stage classification via RF-based machine learning and image processing[J]. Agriculture, 2022, 12( 12): ID 2137.

57
UPPALA D, SOMEPALLI V, VENKATA R K, et al. Identification of optimal single date for rice crop discrimination and relationships between backscatter and biophysical parameters using RISAT-1 hybrid polarimetric SAR data[J]. Geocarto international, 2021, 36( 17): 2010- 2022.

58
CAMPOS-TABERNER M, GARCÍA-HARO F J, BUSETTO L, et al. A critical comparison of remote sensing leaf area index estimates over rice-cultivated areas: From sentinel-2 and landsat-7/8 to MODIS, GEOV1 and EUMETSAT polar system[J]. Remote sensing, 2018, 10( 5): ID 763.

59
SAKAMOTO T, SHIBAYAMA M, KIMURA A, et al. Assessment of digital camera-derived vegetation indices in quantitative monitoring of seasonal rice growth[J]. ISPRS journal of photogrammetry and remote sensing, 2011, 66( 6): 872- 882.

60
AN Q, GAO W L, YU L N, et al. Research on crop identification method based on two-phase classification using remote sensing in large scale[J]. 2010 world automation congress, WAC 2010, 2010: 7- 11.

61
DESAI S V, BALASUBRAMANIAN V N, FUKATSU T, et al. Automatic estimation of heading date of paddy rice using deep learning[J]. Plant methods, 2019, 15: ID 76.

62
徐建鹏, 王杰, 徐祥, 等. 基于RAdam卷积神经网络的水稻生育期图像识别[J]. 农业工程学报, 2021, 37( 8): 143- 150.

XU J P, WANG J, XU X, et al. Image recognition for different developmental stages of rice by RAdam deep convolutional neural networks[J]. Transactions of the Chinese society of agricultural engineering, 2021, 37( 8): 143- 150.

63
HUANG Z F, GONG L, LIU C L, et al. Measurement of rice tillers based on magnetic resonance imaging[J]. IFAC-PapersOnLine, 2016, 49( 16): 254- 258.

64
YANG W N, GUO Z L, HUANG C L, et al. Combining high-throughput phenotyping and genome-wide association studies to reveal natural genetic variation in rice[J]. Nature communications, 2014, 5: ID 5087.

65
李琼砚, 高云鹏, 翁雨辰. 一种基于RGB图像的小麦分蘖数自动检测方法: CN107993243B[P]. 2020-06-23.

LI Q Y, GAO Y P, WENG Y C. Method for automatically detecting wheat tiller number based on RGB images: CN107993243B[P]. 2020-06-23.

66
曹中盛, 李艳大, 叶春, 等. 基于高光谱的双季稻分蘖数监测模型[J]. 农业工程学报, 2020, 36( 4): 185- 192.

CAO Z S, LI Y D, YE C, et al. Model for monitoring tiller number of double cropping rice based on hyperspectral reflectance[J]. Transactions of the Chinese society of agricultural engineering, 2020, 36( 4): 185- 192.

67
FANG Y, QIU X L, GUO T, et al. An automatic method for counting wheat tiller number in the field with terrestrial LiDAR[J]. Plant methods, 2020, 16: ID 132.

68
王敏娟, 刘小丫, 马啸霄, 等. 基于堆叠沙漏网络的单分蘖水稻植株骨架提取[J]. 农业工程学报, 2021, 37( 24): 149- 157.

WANG M J, LIU X Y, MA X X, et al. Skeleton extraction method of single tillers rice based on stacked hourglass network[J]. Transactions of the Chinese society of agricultural engineering, 2021, 37( 24): 149- 157.

69
LUO J Q, DAI B S, CHANG P H, et al. Determination of rice leaf midrib deflection in field environment by using semantic segmentation and shortest distance algorithm[J]. Computers and electronics in agriculture, 2023, 215: ID 108326.

70
RASTI S, BLEAKLEY C J, HOLDEN N M, et al. A survey of high resolution image processing techniques for cereal crop growth monitoring[J]. Information processing in agriculture, 2022, 9( 2): 300- 315.

71
蔡竹轩, 蔡雨霖, 曾凡国, 等. 基于改进YOLOv5l的田间水稻稻穗识别[J]. 华南农业大学学报, 2024, 45( 1): 108- 115.

CAI Z X, CAI Y L, ZENG F G, et al. Rice panicle recognition in field based on improved YOLOv5l model[J]. Journal of South China agricultural university, 2024, 45( 1): 108- 115.

72
段凌凤, 熊雄, 刘谦, 等. 基于深度全卷积神经网络的大田稻穗分割[J]. 农业工程学报, 2018, 34( 12): 202- 209.

DUAN L F, XIONG X, LIU Q, et al. Field rice panicle segmentation based on deep full convolutional neural network[J]. Transactions of the Chinese society of agricultural engineering, 2018, 34( 12): 202- 209.

73
刘哲, 袁冬根, 王恩. 基于改进Bayes抠图算法的麦穗小穗自动计数方法[J]. 中国农业科技导报, 2020, 22( 8): 75- 82.

LIU Z, YUAN D G, WANG E. Automatic counting method of wheat grain based on improved Bayes matting algorithm[J]. Journal of agricultural science and technology, 2020, 22( 8): 75- 82.

74
DANDRIFOSSE S, ENNADIFI E, CARLIER A, et al. Deep learning for wheat ear segmentation and ear density measurement: From heading to maturity[J]. Computers and electronics in agriculture, 2022, 199: ID 107161.

75
支俊俊, 董娅, 鲁李灿, 等. 基于无人机RGB影像的玉米种植信息高精度提取方法[J]. 农业工程学报, 2021, 37( 18): 48- 54.

ZHI J J, DONG Y, LU L C, et al. High-precision extraction method for maize planting information based on UAV RGB images[J]. Transactions of the Chinese society of agricultural engineering, 2021, 37( 18): 48- 54.

76
ZHOU Q Y, GUO W, CHEN N, et al. Analyzing nitrogen effects on rice panicle development by panicle detection and time-series tracking[J]. Plant phenomics, 2023, 5: ID 48.

77
LAI J K, LIN W S. Real-time detection of rice growth phase transition for panicle nitrogen application timing assessment[J]. Agronomy, 2021, 11( 12): ID 2465.

78
XIONG X, DUAN L F, LIU L B, et al. Panicle-SEG: A robust image segmentation method for rice panicles in the field based on deep learning and superpixel optimization[J]. Plant methods, 2017, 13: ID 104.

79
GUO Z Y, YANG C H, YANG W N, et al. Panicle Ratio Network: Streamlining rice panicle measurement by deep learning with ultra-high-definition aerial images in the field[J]. Journal of experimental botany, 2022, 73( 19): 6575- 6588.

80
TAN S Y, LU H H, YU J, et al. In-field rice panicles detection and growth stages recognition based on RiceRes2Net[J]. Computers and electronics in agriculture, 2023, 206: ID 107704.

81
马良勇, 李西明, 朱旭东. 水稻株高性状的研究进展[J]. 福建稻麦科技, 2001, 19( 4): 20- 23.

MA L Y, LI X M, ZHU X D. Research progress on plant height traits of rice[J]. Fujian science and technology of rice and wheat, 2001, 19( 4): 20- 23.

82
杨进, 明博, 杨飞, 等. 利用无人机影像监测不同生育阶段玉米群体株高的精度差异分析[J]. 智慧农业(中英文), 2021, 3( 3): 129- 138.

YANG J, MING B, YANG F, et al. The accuracy differences of using unmanned aerial vehicle images monitoring maize plant height at different growth stages[J]. Smart agriculture, 2021, 3( 3): 129- 138.

83
GUO T, FANG Y, CHENG T, et al. Detection of wheat height using optimized multi-scan mode of LiDAR during the entire growth stages[J]. Computers and electronics in agriculture, 2019, 165: ID 104959.

84
SHAO Y, FAN X T, LIU H, et al. Rice monitoring and production estimation using multitemporal RADARSAT[J]. Remote sensing of environment, 2001, 76( 3): 310- 325.

85
RAMYA S, KALIMUTHU K. Improved hybrid CNN bidirectional long short-term memory with BIRCH based segmentation for crop and weed classification[C]// 2024 2nd International Conference on Networking and Communications (ICNWC). Piscataway, New Jersey, USA: IEEE, 2024: 1- 7.

86
ZHAO L C, GUO W, WANG J, et al. An efficient method for estimating wheat heading dates using UAV images[J]. Remote sensing, 2021, 13( 16): ID 3067.

87
HONG W Y, LI Z Q, FENG X Q, et al. Estimating key phenological dates of multiple rice accessions using unmanned aerial vehicle-based plant height dynamics for breeding[J]. Rice science, 2024, 31( 5): 617- 628.

88
DEVIA C A, ROJAS J P, PETRO E, et al. High-throughput biomass estimation in rice crops using UAV multispectral imagery[J]. Journal of intelligent & robotic systems, 2019, 96( 3): 573- 589.

89
CHOUDHARY K, UNIVERSITY S N R, et al. Rice growth vegetation index 2 for improving estimation of rice plant phenology in costal ecosystems[J]. Computer optics, 2021, 45( 3): 778- 789.

90
GUO Y H, XIAO Y, LI M W, et al. Identifying crop phenology using maize height constructed from multi-sources images[J]. International journal of applied earth observation and geoinformation, 2022, 115: ID 103121.

91
HE Z, LI S H, WANG Y, et al. Monitoring rice phenology based on backscattering characteristics of multi-temporal RADARSAT-2 datasets[J]. Remote sensing, 2018, 10( 2): ID 340.

92
MOEINI RAD A, ASHOURLOO D, SALEHI SHAHRABI H, et al. Developing an automatic phenology-based algorithm for rice detection using sentinel-2 time-series data[J]. IEEE journal of selected topics in applied earth observations and remote sensing, 2019, 12( 5): 1471- 1481.

93
COLORADO J D, CALDERON F, MENDEZ D, et al. A novel NIR-image segmentation method for the precise estimation of above-ground biomass in rice crops[J]. PLoS One, 2020, 15( 10): ID e0239591.

94
DONG J W, XIAO X M, MENARGUEZ M A, et al. Mapping paddy rice planting area in northeastern Asia with Landsat 8 images, phenology-based algorithm and Google Earth Engine[J]. Remote sensing of environment, 2016, 185: 142- 154.

95
CHOUDHARY K, SHI W, DONG Y, et al. Random Forest for rice yield mapping and prediction using Sentinel-2 data with Google Earth Engine[J]. Advances in space research, 2022, 70( 8): 2443- 2457.

96
ZHANG J H, LIN X M, JIANG C Y, et al. Predicting rice phenology across China by integrating crop phenology model and machine learning[J]. Science of the total environment, 2024, 951: ID 175585.

97
REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39( 6): 1137- 1149.

98
王栋, 陈佳玮, 沈利言, 等. 基于图像的水稻穗粒相关性状智能检测算法研究[J]. 植物生理学报, 2022, 58( 5): 957- 971.

WANG D, CHEN J W, SHEN L Y, et al. The development of a vision-based phenotypic analysis algorithm for measuring spikelet-related traits in rice[J]. Plant physiology journal, 2022, 58( 5): 957- 971.

99
RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation[M]// Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015. Cham: Springer International Publishing, 2015: 234- 241.

100
CONG N, WANG T, NAN H J, et al. Changes in satellite-derived spring vegetation green-up date and its linkage to climate in China from 1982 to 2010: A multimethod analysis[J]. Global change biology, 2013, 19( 3): 881- 891.

101
ZHOU M, ZHENG H B, HE C, et al. Wheat phenology detection with the methodology of classification based on the time-series UAV images[J]. Field crops research, 2023, 292: ID 108798.

102
杜颖, 蔡义承, 谭昌伟, 等. 基于超像素分割的田间小麦穗数统计方法[J]. 中国农业科学, 2019, 52( 1): 21- 33.

DU Y, CAI Y C, TAN C W, et al. Field wheat ears counting based on superpixel segmentation method[J]. Scientia agricultura sinica, 2019, 52( 1): 21- 33.

103
CHEN L C, PAPANDREOU G, KOKKINOS I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE transactions on pattern analysis and machine intelligence, 2018, 40( 4): 834- 848.

104
MAHADEVAN K, PUNITHA A, SURESH J. Automatic recognition of Rice Plant leaf diseases detection using deep neural network with improved threshold neural network[J]. E-prime - advances in electrical engineering, electronics and energy, 2024, 8: ID 100534.

105
LIAO J, WANG Y, YIN J N, et al. Segmentation of rice seedlings using the YCrCb color space and an improved otsu method[J]. Agronomy, 2018, 8( 11): ID 269.

106
DUONG H T, HOANG V T. Dimensionality reduction based on feature selection for rice varieties recognition[C]// 2019 4th International Conference on Information Technology (InCIT). Piscataway, New Jersey, USA: IEEE, 2019: 199- 202.

107
MENDES J J A, FREITAS M L B, SIQUEIRA H V, et al. Feature selection and dimensionality reduction: An extensive comparison in hand gesture classification by sEMG in eight channels armband approach[J]. Biomedical signal processing and control, 2020, 59: ID 101920.

108
JAIN S, SALAU A O, MENG W. An image feature selection approach for dimensionality reduction based on kNN and SVM for AkT proteins[J]. Cogent engineering, 2019, 6( 1): ID 1599537.

109
王尧, 卓莉, 易沵泺, 等. 湖南省单、双季稻识别与生育期提取研究[J]. 地理科学进展, 2015, 34( 10): 1306- 1315.

WANG Y, ZHUO L, YI M L, et al. Identification of single/double-season paddy rice and retrieval of growth periods in Hunan Province[J]. Progress in geography, 2015, 34( 10): 1306- 1315.

110
SAKAMOTO T, YOKOZAWA M, TORITANI H, et al. A crop phenology detection method using time-series MODIS data[J]. Remote sensing of environment, 2005, 96( 3/4): 366- 374.

111
MUHARAM F M, NURULHUDA K, ZULKAFLI Z, et al. UAV- and random-forest-AdaBoost (RFA)-based estimation of rice plant traits[J]. Agronomy, 2021, 11( 5): ID 915.

112
QIN J L, HU T C, YUAN J H, et al. Deep-learning-based rice phenological stage recognition[J]. Remote sensing, 2023, 15( 11): ID 2891.

113
SAKEEF N, SCANDOLA S, KENNEDY C, et al. Machine learning classification of plant genotypes grown under different light conditions through the integration of multi-scale time-series data[J]. Computational and structural biotechnology journal, 2023, 21: 3183- 3195.

114
YANG Z Y, YU Z R, WANG X Y, et al. Estimation of millet aboveground biomass utilizing multi-source UAV image feature fusion[J]. Agronomy, 2024, 14( 4): ID 701.

115
郑紫瑞, 赵辉杰, 位盼盼, 等. 集成多源遥感数据与生育期时序光谱特征的水稻种植面积提取[J]. 河南农业科学, 2023, 52( 10): 153- 161.

ZHENG Z R, ZHAO H J, WEI P P, et al. Integration of multi-source remote sensing data and temporal spectral features of growth stages for rice planting area extraction[J]. Journal of Henan agricultural sciences, 2023, 52( 10): 153- 161.

116
BARTZ-BEIELSTEIN T, REHBACH F, SEN A, et al. Surrogate model based hyperparameter tuning for deep learning with SPOT[EB/OL]. arXiv: 2105. 14625v 2, 2021.

117
AJAYI O G, IBRAHIM P O, ADEGBOYEGA O S. Effect of hyperparameter tuning on the performance of YOLOv8 for multi crop classification on UAV images[J]. Applied sciences, 2024, 14( 13): ID 5708.

118
KUMAR U, LAZA M R, SOULIÉ J C, et al. Compensatory phenotypic plasticity in irrigated rice: Sequential formation of yield components and simulation with SAMARA model[J]. Field crops research, 2016, 193: 164- 177.

Outlines

/