Welcome to Smart Agriculture 中文

Semi-Supervised Deep Convolutional Generative Adversarial Network for Imbalanced Hyperspectral Viability Detection of Naturally Aged Soybean Germplasm

  • LI Fei 1, 2, 3 ,
  • WANG Ziqiang 2, 3 ,
  • WU Jing 2, 3 ,
  • XIN Xia 2, 3 ,
  • LI Chunmei , 1 ,
  • XU Hubo , 2, 3
Expand
  • 1. School of Computer Technology and Application, Qinghai University, Xining 810016, China
  • 2. Institute of Crop Sciences, Chinese Academy of Agricultural Sciences, Beijing 100081, China
  • 3. Key Laboratory of Grain Crop Genetic Resources Evaluation and Utilization, Ministry of Agriculture and Rural Affairs, Beijing 100081, China
LI Chunmei, E-mail: ;
XU Hubo, E-mail:

LI Fei, E-mail:

Received date: 2025-05-14

  Online published: 2025-08-13

Supported by

National Key Research and Development Program of China(2024YFD1200100)

National Natural Science Foundation of China(62166033)

Beijing Natural Science Foundation of the People's Republic of China(6254042)

Central Public-interest Scientific Institution Basal Research Fund(S2025QH24)

Copyright

copyright©2025 by the authors

Abstract

[Objective] Germplasm resources are regarded as the "chips" of high-quality breeding, and evaluating the viability of soybean germplasm is essential for ensuring the secure preservation of genetic resources and promoting the healthy development of the soybean industry. Traditional viability detection methods are time-consuming, labor-intensive, and seed-consuming, highlighting the urgent need for non-destructive, intelligent, and high-throughput detection technologies. Hyperspectral imaging combined with deep learning offers a promising approach for the rapid, non-destructive assessment of soybean germplasm viability. Compared to artificially aged samples, naturally aged samples more accurately reflect the substance changes associated with the decline in germplasm viability. However, the imbalance in the number of viable and non-viable samples limits the generalization performance of viability prediction models. [Methods] In order to address the aforementioned challenges, this study proposed a semi-supervised deep convolutional generative adversarial network (SDCGAN) to generate high-quality hyperspectral data with associated viability labels. The SDCGAN framework consisted of three main components: a generator, a discriminator, and a classifier. The generator progressively transformed low-dimensional latent representations into hyperspectral data. This was achieved through four one-dimensional transposed convolutional layers, ensuring the output matched the dimensionality of real spectra. The discriminator adopted an optimization strategy based on the wasserstein distance, replacing the Jensen-Shannon divergence used in traditional GANs, thereby mitigating training instability and gradient vanishing. Additionally, a gradient penalty term was introduced to further stabilize model training. In the classifier, a unilateral margin loss function was employed to penalize only those samples near the decision boundary, effectively avoiding overfitting on well-separated samples and improving training efficiency. Furthermore, this study developed a spectral score fusion network (SSFNet) to enable hyperspectral-based detection of soybean seed viability. SSFNet comprised two core modules: a spectral residual network and a spectral score fusion module. The spectral residual network extracted shallow-level features from the hyperspectral data, capturing local patterns within spectral sequences. The spectral score fusion module adaptively reweighted spectral channels to emphasize viability-related features and suppress redundant noise. Finally, the performance of the SDCGAN-generated spectra was evaluated using root mean square error (RMSE), while the viability detection performance of SSFNet was assessed using test accuracy, precision, area under the curve (AUC), and F1-Score. [Results and Discussions] In the performance analysis of SDCGAN, the model progressively learned and captured the key spectral features that distinguished viable and non-viable soybean seeds during the training process. The generated spectra gradually evolved from initial noisy fluctuations to smoother curves that closely resembled real spectra, demonstrating strong nonlinear modeling capability. Compared to other generative adversarial models, SDCGAN achieved the best performance in enhancing viability detection, and its generated data exhibited low error characteristics in RMSE analysis. By applying SDCGAN for data augmentation, three types of datasets were constructed: original spectra, generated spectra, and mixed spectral dataset. When using the MSC-SG-SS preprocessing strategy, SSFNet achieved the highest viability detection accuracies across all three datasets, reaching 89.50%, 90.83%, and 93.33%, respectively. In comparison with other viability detection models, SSFNet consistently outperformed alternative algorithms in all four evaluation metrics across all datasets. Particularly on the mixed dataset, SSFNet demonstrated the best performance, achieving a test accuracy of 93.33%, precision of 95.17%, AUC of 92.58%, and F1-Score of 94.83%. Notably, all models trained on the mixed dataset containing SDCGAN-generated samples achieved better performance than those trained on either original or generated datasets alone. This improvement was likely due to the increased sample diversity and balanced class distribution in the mixed dataset, which provided more comprehensive viability-related features, facilitated model convergence, and reduced overfitting. In transfer experiments, SSFNet also exhibited superior generalization capability compared to four baseline algorithms: SVM, XGBoost, 1D-CNN, and Transformer, achieving the highest classification accuracy of 73.67% on the mixed dataset. [Conclusions] This study constructs an integrated SDCGAN-SSFNet framework for robust viability detection of naturally aged soybean germplasm under imbalanced sample conditions. The SDCGAN component accurately learns the underlying distributional characteristics of real hyperspectral data from soybean seeds and generates realistic synthetic samples, effectively augmenting the spectral data of non-viable seeds and improving data diversity. Meanwhile, SSFNet explores inter-band spectral correlations to adaptively enhance features that are highly relevant to viability classification while effectively suppressing redundant and noisy information. This integrated approach enables rapid, nondestructive, and high-precision detection of soybean seed viability under challenging sample imbalance scenarios, providing an efficient and reliable method for seed quality assessment and agricultural decision-making.

Cite this article

LI Fei , WANG Ziqiang , WU Jing , XIN Xia , LI Chunmei , XU Hubo . Semi-Supervised Deep Convolutional Generative Adversarial Network for Imbalanced Hyperspectral Viability Detection of Naturally Aged Soybean Germplasm[J]. Smart Agriculture, 2025 : 1 -12 . DOI: 10.12133/j.smartag.SA202505013

0 引 言

大豆[Glycine max (L.) Merr.]作为全球重要的粮食及油料作物,其种质资源是育种创新和提高农业产量的基石1。种子活力直接决定发芽与幼苗生长的速度和质量,进而影响植株最终产量及籽粒营养组成。高活力种子出苗整齐、生长健壮,可显著提升产量并改善大豆制品的营养和加工品质。然而,大豆种质在长期储存过程中活力的丧失是不可避免的2。当其发芽率下降至70%~85%这一“拐点水平”后会急剧下降,这严重威胁农业产量和粮食安全3。因此,准确评估大豆种质的活力水平至关重要。传统的活力检测方法,如四唑染色法4、标准发芽试验5和电导率测试6等,存在耗时、耗力且消耗种质的问题。因此,开发高效且无损的种质活力检测技术,对于提升农业生产效率至关重要。
长期贮藏导致的种质活力衰退通常伴随着一系列生理代谢变化,包括细胞结构受损、活性氧(Reactive Oxygen Species, ROS)积累和抗氧化酶活性降低7等,这些微观变化会改变种质的光学特性8。因此,基于光谱的活力检测技术,如近红外光谱、拉曼光谱和傅里叶变换光谱等已被广泛用于种质活力检测9, 10。高光谱成像凭借同时获取种质空间信息与数百个窄波段连续光谱的能力,被视为一种极具潜力的高通量检测技术,能够更精准地揭示种质在贮藏老化过程中的微观活力变化11-13。然而,在实际发芽过程中,受自然老化条件限制,不同活力水平的种质在同一批次中往往分布不均。这一固有的类别不平衡现象导致后续的机器学习或深度学习模型过度学习多数类特征,从而削弱对少数类的识别能力,进而影响检测结果的鲁棒性与准确性14。因此,如何有效应对样本不平衡问题,已成为提升种质活力无损检测技术实用性亟待解决的关键挑战。
数据增强方法旨在基于现有数据集生成新样本以解决训练过程中的数据稀缺与样本不平衡问题15。传统的数据增强手段包括数据平移、数据倾斜和扩展乘法信号16。然而,这些方法所生成数据的质量和多样性较差,导致预测模型的性能受限。生成对抗网络(Generative Adversarial Network, GAN)通过无监督学习获取数据的分布特征,能够生成与真实样本高度相似且更具多样性的伪样本,在光谱分析等领域成效显著17, 18。Li等19提出了一种基于深度卷积生成对抗网络(Deep Convolutional Generative Adversarial Network, DCGAN)和近红外高光谱成像技术的新方法来识别不健全的小麦种子,并结合卷积神经网络(Convolutional Neural Network, CNN)实现了96.67%的检测精度。Bao等20构建针对一维光谱数据的DCGAN框架,在126个样本的条件下生成了高质量合成数据,并实现了决定系数为0.87的花青素含量预测。Qi等21提出一种光谱角度映射器生成对抗网络(Spectral Angle Mapper Generative Adversarial Network, SAM-GAN),根据自然老化水稻种子的光谱特征生成光谱数据,有效解决了样本不平衡问题。上述GAN的研究主要基于无监督学习,通常将原始数据所对应的标签直接赋给算法生成的数据作为其标签量,未对生成数据的特征与标签一致性进行额外验证,忽略了标签生成过程,这会导致标签噪声的引入并干扰模型的有效学习。
半监督生成对抗网络(Semi-supervised Generative Adversarial Network, SSGAN)利用部分带标签数据对未标注样本的伪标签进行自适应优化,为解决该问题提供了思路。目前SSGAN在图像分割和设备剩余使用寿命回归预测领域已被广泛研究。Zhang等22提出了一种结合双重注意力机制的SSGAN,可利用未标注图像提升缺陷像素级分割性能,在钢铁缺陷数据集上仅用1/8标注数据即可取得79.0%的平均交并比。Zhai等23提出一种双生成器对抗结构的非对称SSGAN,可在仅少量标注图像条件下实现高效乳腺超声图像分割,并在4个公开及自建数据集上取得优异性能。He等24提出一种SSGAN回归模型,融合故障与中止历史信息以提升设备剩余寿命预测准确性。这些研究中,判别器在承担判别任务的同时亦被用于类别判定,缺乏对分类器模块的独立优化,这可能导致分类性能受限于判别器的判别能力。此外,基于高光谱成像技术的种子活力检测研究大多采用CNN作为分类模型。Onwimol等25提出一种基于CNN的EfficientNetB0模型对大麻种子进行分析,在有活力和无活力种子的区分上实现了98.85%的准确率。Wongchaisuwat等26构建3DCNN网络并结合高光谱技术,实现对玉米种子活力的快速无损检测。Wu等14提出一种深度卷积神经网络(Deep Convolutional Neural Network, DCNN),用于水稻种子活力检测。以上基于CNN的活力预测模型在光谱局部特征提取方面表现优异,但卷积操作却难以建模不同波段间的全局依赖关系,这使模型的检测性能受限。
在本研究中的数据增强阶段,针对有无活力样本不平衡问题,提出了一种半监督深度卷积生成对抗网络(Semi-supervised Deep Convolutional Generative Adversarial Network, SDCGAN),该网络通过生成器、判别器和分类器之间的协同博弈,生成带有活力标签的大豆种质光谱数据。在活力预测阶段,设计了一种光谱分数融合网络(Spectral Score Fusion Network, SSFNet),该模型通过光谱分数融合模块(Spectral Score Fusion Module, SSFM)凸显不同波段之间的相关性,强化对活力判别关键特征的提取,从而有效提升活力检测性能。最后,在原始光谱、生成光谱与混合光谱3个数据集上系统评估了模型性能,验证了SSFNet在大豆种质活力检测中的有效性与优越性。

1 材料与方法

1.1 样品制备

本研究共选取33份大豆种质材料,每份种质各选取100粒,共3 300粒种子。这些材料于2010年被采集后,参照国家作物种质库种质资源入库前处理相关标准,含水量干燥至5%~7%,密封包装后,保存于–18 °C低温条件下,以模拟种质资源长期保存过程。

1.2 高光谱数据提取

使用全自动推扫式高光谱成像系统采集大豆种质高光谱数据(图1a)。该系统所用高光谱相机型号为FX17(Specim,光谱成像有限公司,奥卢,芬兰),光谱分辨率为3.45 nm,光谱范围为936~1 720 nm,共224个波段。数据采集过程中,每份大豆种质的100粒种子在样品盘上按12行排列(前11行各放置9粒,最后1行放置1粒)(图1b),随后通过相机的逐行扫描获得高光谱数据。为消除仪器暗电流影响并规范光照强度,同时将传感器采集的数字强度值转换为0~1范围内的反射率,需进行黑白板校正27,如公式(1)所示。
I c = I r - I b I w - I b
式中:I c为校正后的高光谱图像;I r为原始高光谱图像;I w为白参考图像;I b为黑参考图像。
图1 高光谱成像系统及种子样品盘摆放示意图

Fig. 1 Hyperspectral imaging system and schematic diagram of soybean seed sample arrangement

为提取大豆种质的光谱信息,本研究将整粒种子区域作为感兴趣区域(Region of Interest, ROI)。首先,从全波段图像中选取种质与背景在光谱反射率上差异最大的单波段图像用于阈值分割。阈值设定为0.3,反射率低于0.3的像素被视为背景(值设为0),高于0.3的像素被视为种质区域。随后,应用掩模去除背景噪声,实现大豆种质区域的有效分离。最后,对ROI内各波段像素的反射率取平均,提取表示整粒种子光谱特征的一维反射率数据,供后续分析使用。

1.3 标准发芽试验

在完成大豆种质的高光谱图像采集后,对每份材料的100粒种子开展标准发芽试验。根据国际种子测试协会(International Seed Testing Association, ISTA)发布的种子检验规程,在特定天数内,当种子芽长≥种子长度时,即视为发芽合格21。目前,多数研究亦基于该标准,并普遍将第7天的发芽情况作为种子活力标签14,本研究也进行了实际发芽测试,发现第7天的发芽状态更能反映种子间的活力差异。因此,本研究以第7天是否发芽为分类标准,将种子划分为有活力与无活力两类。试验结果显示,在33份大豆种质材料中,用于模型训练与测试的30份材料中有活力种子2 656粒,无活力种子344粒;用于迁移测试的3份材料中有活力种子212粒,无活力种子88粒,整体样本分布呈现不平衡现象。为解决有无活力样本不平衡对深度学习模型训练造成的偏倚,在后续试验中引入了数据增强策略。

1.4 半监督数据增强模型的构建

在无监督数据增强模型GAN的基础上,针对有无活力样本两类光谱数据不平衡对模型泛化能力的影响,本研究提出了SDCGAN,其模型架构如图2所示。SDCGAN通过光谱数据生成器定向生成少数类(无活力)样本以平衡有无活力样本数量;判别器用于区分输入样本是真实数据还是生成样本,若生成样本在判别器中满足与真实样本相近的分布特征,则被判为有效;辅助分类器则为生成器产生的样本分配具体的类别标签。
图2 SDCGAN架构

Fig. 2 SDCGAN architecture

1.4.1 生成器

生成器以随机噪声向量z ∈ R1×1× L 和有无活力类别的标签y∈{0,1}作为输入,L表示光谱通道数。两者经拼接后输入全连接层进行潜在语义信息的融合与初始特征空间的映射,具体过程如公式(2)所示。
H 0 = R e L U ( W 0 [ z , y ] + b 0 )
式中:W 0b 0为全连接层的权重与偏置;[zy]为拼接操作;H 0为初始融合表示。其次,H 0输入4个一维转置卷积层(One-dimensional Transposed Convolutional Layer, TConv1D)进行逐层特征维度扩展以恢复与原始光谱一致的序列长度,每层后均接批归一化(Batch Normalization, BatchNorm)和ReLU激活函数,具体过程如公式(3)所示。
H i = R e L U ( B N ( T C o n v 1 D i ( H i - 1 ) ) ) , i { 1,2 , 3,4 }
式中:BN表示批归一化操作;Hi 表示第i个一维转置卷积层的输出。该过程逐步将低维潜在表示扩展为与原始光谱数据相同的维度,最终生成器输出生成光谱数据。

1.4.2 判别器

判别器由4个一维卷积模块组成,每个模块包括一维卷积神经网络(Conv1D)、BatchNorm、Dropout,以及ReLU激活函数,用于提取光谱序列中的局部特征。判别器以真实或生成的大豆种质光谱样本为输入,经过4个一维卷积模块提取后,输出特征被送入全连接层并通过Sigmoid激活函数,输出判别值Dx)∈{0,1},表示输入样本为真实数据的概率估计。
为缓解传统GAN训练不稳定与梯度消失等问题,判别器采用基于Wasserstein距离的优化策略替代传统GAN所用的JS散度28。Wasserstein距离需满足1-Lipschitz条件,因此,本研究引入梯度惩罚项29以稳定模型训练。该策略通过在真实样本 x与生成样本 x ˙之间的构造线性插值样本 x ^,计算过程如公式(4)所示。
x ^ = w x + ( 1 - w ) x ˙
式中:w为[0,1]区间内均匀采样的权重因子,决定插值点在真实样本与生成样本之间的位置。在此基础上,计算判别器在插值样本 x ^上的梯度范数,计算过程如公式(5)所示。
| | G N | | 2 = i = 1 B ( D ( x ^ ) ) 2 + δ
式中:B为批次大小; D ( x ^ )为判别器D在插值样本 x ^上的梯度; δ为1个趋近于0的常数,用于避免梯度范数接近0时的数值误差问题。随后,本研究将梯度范数与预设目标范数之间的差异进行插值,用作梯度惩罚项,其定义如公式(6)所示。
G N P = λ × ( | | G N | | 2 - 1 ) 2
式中: λ为梯度惩罚的权重因子,确保梯度范数趋近于1以满足Lipschitz条件。判别器的损失函数由真实样本与生成样本的判别误差项与梯度惩罚项共同组成,其表达式如公式(7)所示。
L D = - Ε x ~ P r [ D ( x ) ] + Ε x ˙ ~ P g [ D ( x ˙ ) ] + Ε x ^ ~ P x ^ [ G N P ]
式中: P r P g P x ^分别为真实样本、生成样本与插值样本的分布;E为期望算子。

1.4.3 分类器

与传统GAN不同,SDCGAN中引入了辅助分类器,用于对生成的光谱数据进行类别判定。在训练阶段,分类器接收生成样本作为输入,输出样本的类别标签。此外,为增强分类器对少数类的辨识能力,本研究引入了单边间隔损失函数30(One-sided Margin Loss, OSM)。OSM仅对位于决策边界附近的样本施加惩罚,从而有效避免对远离决策边界样本的过度拟合,提升训练效率。分类器的损失函数定义如公式(8)所示。
L o s s C = 1 N i = 1 N m a x ( 0 , m - y i ( Y i - d ) ) 2
式中:yi 为第i个样本的真实样本标签类别;Yi 为分类器输出的预测概率,表示样本属于正类的置信度;m为分类间隔阈值;d为决策边界;N为训练批次的样本数量。

1.5 活力预测模型的构建

本研究构造的SSFNet如图3所示,输入数据包括原始光谱数据、SDCGAN生成的光谱数据以及原始与生成数据的混合光谱数据3种类型。SSFNet由光谱残差网络(Spectral Residual Network,SResNet)、光谱分数融合模块(Spectral Score Fusion Module, SSFM)和分类器3个模块构成:1)SResNet用于提取光谱数据的浅层特征;2)SSFM对SResNet输出的浅层特征进行自适应加权融合,以增强特征判别能力;3)分类器通过1×1卷积聚合通道信息、使用全局平均池化降维并经全连接层映射至活力类别空间,实现有无活力分类判别。
图3 SSFNet架构

Fig. 3 SSFNet architecture

1.5.1 光谱残差网络

输入的光谱数据x∈R1×1× L 通过由4个卷积块构成的残差网络(Residual Network, ResNet)进行光谱序列的浅层特征提取。每个卷积块依次由Conv1D层、BatchNorm层及ReLU激活函数组成,用于捕捉光谱序列中的局部特征。计算过程如公式(9)公式(10)所示。
Γ = f 1 ( x ) = R e L U ( B N ( C o n v 1 D ( x ) ) )
F = Γ + f 4 ( f 3 ( f 2 ( Γ ) ) )
式中: f i ( · )为第i个卷积块的输出;F为SResNet的最终输出;BN表示批归一化操作。

1.5.2 光谱分数融合模块

输入特征图首先通过Conv2D层进行初步的特征映射,随后对映射后的特征X∈R H × W × L 使用全局最大池化和全局平均池化得到两个表示向量Φ 1Φ 2∈R1×1× LH代表输入特征图的高度,W代表输入特征图的宽度。其中,Φ 1表征光谱序列中最显著的响应特征,Φ 2反映其整体分布趋势,具体过程如公式(11)公式(12)所示。
Φ 1 = 1 H × W i = 1 H j = 1 W X i , j
Φ 2 = m a x ( X i , j )
式中:ij为输入特征图X∈R H×W×L 的空间维度索引。将表示向量Φ 1Φ 2输入共享多层感知机(Shared Multilayer Perceptron, Shared MLP)中,通过两个卷积层进行特征向量的维度缩放以丰富光谱特征,具体过程如公式(13)所示。
Φ ' i = R e L U ( C o n v 2 ( R e L U ( C o n v 1 ( Φ i ) ) ) )     i 1,2
式中:Φ'iΦi 经过两个卷积层处理后的输出特征。为减少模型参数数量并加速收敛过程,这两个卷积层采用参数共享机制。
为了实现对光谱特征的动态关注,首先将Φ' 1Φ' 2进行相加得到融合特征Φ' add,以进行特征交互和丰富特征表达。其次,分别对Φ' 1Φ' 2Φ' add使用Softmax函数计算注意力得分,并根据自适应权重对3组得分进行加权融合,从而对每一组特征独立赋予关注并引入更多非线性表达。最后,将融合后的注意力得分与输入特征按通道维度逐元素相乘,这放大了对活力判别性强的光谱通道的响应,又抑制了冗余噪声,实现了自适应的特征增强,具体过程如公式(14)所示。
S F u s = a 1 × σ ( Φ ' 1 ) + a 2 × σ ( Φ ' ) + a 3 × σ ( Φ ' a d d ) 2
式中:S Fus为融合注意力得分;a 1 、a 2a 3为自适应归一化融合权重;σ(·)为Softmax函数。

1.5.3 分类器

对于SSFM输出的特征图,首先使用1×1的卷积在通道维度上进行特征聚合,以融合各光谱通道的判别信息,然后使用全局平均池化(Global Average Pooling, GAP)将聚合后的特征图映射为一维特征向量,最后通过全连接层进行有无活力分类。在训练过程中,使用交叉熵损失函数来计算训练损失和更新模型权重,具体过程如公式(15)所示。
L o s s C E = - i = 1 N y i l o g ( Y i ) N
式中:N为训练样本的总数;yiYi 分别为第i个样本的真实标签和第i个样本的预测类别概率。

1.6 实验设置

所有模型均在Python 3.12.3环境下实现,所有实验均在配备Intel Core i9-13900K CPU、192 GB内存和NVIDIA RTX 4080 GPU的工作站上运行。为缓解有无活力样本数量不平衡对模型训练造成的影响,使用SDCGAN对原始光谱数据进行扩充,共生成3 000条光谱曲线(无活力样本2 656条,有活力样本344条),据此构建了原始数据集(利用高光谱成像系统在实验室条件下采集的大豆种子高光谱数据集,共3 000个实际样本)、生成数据集(基于原始光谱数据集,训练SDCGAN模型所生成的模拟光谱数据,3 000个生成样本)和混合数据集(原始光谱数据集和生成光谱数据集进行混合,共6 000个样本)3个数据集。并将每个数据集的样本数量按照3∶1∶1的比例随机划分为训练集、验证集和测试集,其中训练集、验证集和测试集中均包含SDCGAN生成的光谱数据。为降低实验的随机性影响并提升结果的稳定性,每个实验的算法结果重复运行5次,并对5次结果取平均值。

1.6.1 预处理实验

采集的高光谱数据易受环境温度波动及仪器噪声干扰,故在分析前需进行预处理以抑制噪声并强化光谱差异。本研究中使用的光谱预处理方法包括多元散射校正(Multiple Scatter Correction, MSC)、滤波平滑(Savitzky-Golay, SG)和标准化(Standardscaler, SS),分析了单一及组合预处理方式对活力检测性能的影响。其中,MSC消除了不同散射水平引起的光谱差异,从而增强了光谱与大豆种质之间的相关性。SG采用多项式拟合局部窗口内的光谱数据,实现平滑高频噪声的同时最大程度保留峰位和峰形信息,增强信噪比。SS则将每个波段的反射率值减去均值、除以标准差,使不同样本间的光谱强度分布具有统一量纲,进一步突出光谱特征差异并加快模型收敛。

1.6.2 活力检测模型对比实验

为了评估SSFNet模型在活力检测中的优越性,对比了经过超参数寻优后的2种经典的机器学习模型支持向量机31(Support Vector Machine, SVM)(惩罚参数为0.1,最大迭代次数为30)和极限梯度提升32(Extreme Gradient Boosting, XGBoost)(学习率为0.05,迭代轮数为100),2种深度学习模型1D-CNN33(训练轮次为180,学习率为0.005,批大小为64)和Transformer34(多头注意力机制中的头数设置为4,训练轮次、学习率和批大小分别设置为150、0.001和128)。同时,SSFNet的训练轮次设置为200,学习率设置为0.001,批大小设置为64。

1.6.3 评价指标

在本研究中,使用均方根误差(Root Mean Square Error, RMSE)评估SDCGAN模型生成光谱的性能表现。此外,引入了测试准确率、精确率、曲线下面积(Area under Curve, AUC)和F 1分数等指标来评估SSFNet模型的活力检测性能。

2 结果与分析

2.1 光谱特征分析

大豆种质的全部光谱曲线如图4a所示,光谱曲线在不同品种的响应上呈现相似的波形,但变化幅度存在差异。同时,无活力种质的平均光谱反射率为960~1 700 nm高于有活力种质的光谱反射率(图4b),这可能是由于有无活力种质内部的淀粉、脂质、蛋白质含量不同造成的。根据相关研究,1 123.04 nm处的峰值和1 189.37 nm处的谷值可归因于碳水化合物中C-H拉伸的第2泛音35。而在1 294.53 nm处的峰值,则可能与酰胺B中N-H拉伸的第1泛音,以及酰胺II和III中C-N拉伸和N-H平面内弯曲的基本振动相关。至于1 446.14 nm处的谷值,则由酰胺A中N-H拉伸振动的第1泛音所引起14。因此,这两种状态下光谱的差异性支持通过光谱分析对大豆种质活力进行检测。
图4 大豆种质光谱反射率

Fig. 4 Spectral reflectance of soybean germplasm

2.2 SDCGAN性能分析

SDCGAN在不同训练阶段生成大豆种质光谱的可视化结果如图5a图5b所示。在训练初期,由于模型尚未充分学习到有无活力大豆种质真实光谱数据所蕴含的复杂非线性关系,生成光谱普遍存在随机噪声和不规则波动。当训练轮次超过200之后,生成的光谱曲线变得更加平滑,噪声成分得到有效抑制,并且在光谱整体轮廓、特征吸收峰位置及相对强度等方面,与真实光谱(即训练轮次为0时的光谱曲线)展现出高度的一致性。这充分表明,SDCGAN模型通过持续的对抗性博弈学习,能够逐步学习并捕捉到有无活力大豆种质光谱数据的关键特征和潜在的复杂非线性关系。
图5 SDCGAN生成大豆种质光谱的性能表现

Fig. 5 Performance of SDCGAN in generating spectral data of soybean germplasm

为了验证SDCGAN的性能优势,本研究对比了3种生成对抗网络模型(GAN、DCGAN和SAM-GAN)(表1),各模型参数设置均参考其原始论文。分别使用上述模型生成了3 000条光谱数据(包含2 656条无活力样本和344条有活力样本),按照3∶1∶1的比例将其随机划分为训练集、验证集和测试集,并在相同的基线模型(SSFNet)上评估生成数据对活力检测性能的影响。结果显示,SDCGAN+SSFNet的组合在测试集上的四项评价指标均达到最优,测试准确率、精准率、AUC和F 1分数分别为90.83%、93.81%、89.63%和91.36%,这表明SDCGAN生成的光谱数据能够更有效地提升活力检测模型的整体性能。为了进一步定量地分析生成光谱与真实光谱之间的差异,本研究绘制了相应的RMSE曲线(图6),发现RMSE在最初的100轮迭代次数之间呈现急剧下降的趋势,表明SDCGAN模型在此阶段能够快速学习光谱数据的基本模式并减少预测误差。随着迭代次数增加到200之后,训练集和测试集的RMSE均收敛至趋近于零的水平,这充分表明SDCGAN模型可以生成高质量的光谱数据。
表1 不同生成对抗网络模型在大豆种质光谱数据上的预测性能比较

Table 1 Comparison of prediction performance of different generative adversarial network models on soybean germplasm spectral data

Models 准确率/% 精准率/% AUC/% F 1分数/%
GAN+SSFNet 85.17 87.00 85.50 87.45
DCGAN+SSFNet 89.17 91.64 87.28 90.33
SAM-GAN+SSFNet 87.50 90.23 86.10 89.58
SDCGAN+SSFNet 90.83 93.81 89.63 91.36

注:加粗数据表示最优结果。

图6 SDCGAN生成大豆种质光谱反射率的RMSE曲线

Fig. 6 RMSE curve of spectral reflectance generated by SDCGAN for soybean germplasm

2.3 预处理实验

为了确定最佳的大豆种质光谱预处理方法,本研究采用了8种不同的预处理方式对活力检测性能进行评估(表2),并以测试准确率作为评价指标。结果表明,在未进行任何预处理的情况下,SSFNet模型在原始光谱、生成光谱和混合光谱3个数据集上的活力检测准确性均最低,分别为71.50%、73.17%和74.25%。当采用MSC-SG-SS的预处理组合方法时,SSFNet在3个数据集上的活力检测准确性均达到最高,分别为89.50%、90.83%和93.33%。值得注意的是,在包含SG的所有单一预处理方法或两种预处理的组合方法中,模型都能始终达到最佳的活力检测性能。这可能归因于SG对光谱的平滑和降噪效果,使SSFNet能够更好地学习种质活力相关光谱特征。基于预处理的实验结果,本研究选择了MSC-SG-SS组合方法进行后续实验。
表2 大豆种质光谱不同预处理方法的比较结果

Table 2 Comparison of different preprocessing methods for soybean germplasm spectra

预处理方法 数据集
原始数据集/% 生成数据集/% 混合数据集/%
无预处理 71.50 73.17 74.25
MSC 76.17 77.83 79.42
SG 82.33 84.83 85.92
SS 74.17 77.33 78.33
MSC-SG 86.67 88.33 90.83
SG-SS 85.17 86.67 88.33
MSC-SS 80.50 83.50 84.67
MSC-SG-SS 89.50 90.83 93.33

注:加粗数据表示最优结果。

2.4 不同模型在活力检测中的性能对比

为系统评估SSFNet在种质活力检测中的优越性,在3个数据集上与其他4种算法进行对比实验,结果如图7所示。发现SSFNet在所有数据集上的4个评价指标上均优于其他算法,特别是在混合数据集上表现出最优的活力检测性能,其在测试集上的准确率、精准率、AUC和F 1分数分别为93.33%、95.17%、92.58%和94.83%。值得注意的是,所有模型在使用包含SDCGAN生成样本的混合数据集进行训练时,相较于原始和生成数据集,其活力检测性能普遍达到最优,这可能是因为混合数据集中样本数量更多,可以为模型提供充足的活力判别特征,在有无活力样本之间实现了平衡,使梯度更新更均匀,有助于模型稳定收敛并减少过拟合。此外,机器学习算法SVM和XGBoost在4个指标上的表现均逊于其他3种深度学习算法,这凸显了基于核函数或梯度提升树的方法在高维、非线性光谱数据中难以自动抽取深层判别特征的局限性。
图7 不同模型在训练集、验证集和测试集上的活力检测性能对比

Fig. 7 Comparison of viability detection performance of different models on the training, validation, and test sets

深度学习中1D-CNN和Transformer依赖单尺度卷积或自注意力来提取特征,缺乏跨通道交互机制,难以充分捕捉光谱波段间复杂关联特征,因而活力检测性能受限。相比之下,SSFNet则通过构建SSFM,建模光谱通道间的相关性,计算各波段的重要性权重,动态放大对活力判别性强的通道响应,抑制冗余或噪声通道,实现了自适应的特征增强,从而在大豆种质活力检测中表现出显著优势。

2.5 消融实验

为评估SSFNet在大豆种质活力检测中各子模块的有效性,设计了消融实验。具体来说,本研究比较了以下几种配置的性能:1)不包含SResNet的SSFNet(-w/o SResNet);2)不包含SSFM的SSFNet(-w/o SSFM)。表3展示了在3个数据集上这些消融模型的活力检测性能。SSFNet在所有3个数据集的4个评价指标上都优于其他两个比较模型,这表明去除的子模块对提高模型的分类性能有显著贡献。值得注意的是,去除SSFM后SSFNet的性能降幅更大,这可能是由于在没有SSFM的情况下,模型无法对光谱通道进行自适应加权,难以突出活力相关波段并有效抑制冗余噪声,从而导致判别能力明显削弱。
表3 SSFNet在3个数据集上的消融结果

Table 3 The ablation results of SSFNet on three datasets

数据集 消融模型 准确率/% 精确率/% AUC/% F 1分数/%
原始数据集 -w/o SResNet 85.50 88.81 85.52 86.33
-w/o SSFM 83.17 86.15 84.14 84.67
SSFNet 89.50 92.33 88.28 90.56
生成数据集 -w/o SResNet 87.50 91.49 86.57 89.92
-w/o SSFM 86.33 89.00 85.14 87.17
SSFNet 90.83 93.81 89.63 91.33
混合数据集 -w/o SResNet 90.25 93.36 90.58 91.39
-w/o SSFM 89.42 91.18 88.23 90.75
SSFNet 93.33 95.17 92.58 94.83

注:加粗数据表示最优结果。

此外,为了验证SSFM中共享权重提高模型性能的有效性,本研究移除了SSFM中的共享权重机制并重新训练模型,然后将所得准确率与完整SSFM配置下的结果进行对比分析。如图8所示,引入共享权重后,SSFM在3个数据集上的准确率均显著高于无共享权重的对照模型。这可能是因为共享权重能够在不同光谱通道间建立统一的参数约束,抑制过拟合,从而显著强化模型的活力检测性能。
图8 SSFM模块在3个数据集上的消融分析

Fig. 8 Ablation study of the SSFM module on three datasets

2.6 迁移测试

为了验证SSFNet的泛化能力,本研究在3份全新的大豆种质材料(共300粒种子)上与其他4种模型进行迁移对比实验,这300粒种子未参与模型的任何训练过程,仅作为独立测试集,并以测试准确率为评价指标,结果如表4所示。SSFNet在3个数据集上的泛化性能均优于SVM、XGBoost、1D-CNN和Transformer这4种对比算法,其中在混合数据集上达到了73.67%的最高分类准确率。SSFNet在混合数据集上的泛化性能也明显优于其在原始和生成数据集上的表现。此外,图9展示了这5种算法在3个数据集上的混淆矩阵。值得注意的是,这一迁移实验的准确率整体上低于第2.4节中对比实验所获得的结果,这可能归因于这300粒种子在SSFNet模型训练阶段从未出现,这增加了模型预测的难度。
表4 不同模型在3份全新大豆种质上的泛化性能比较

Table 4 Comparison of generalization performance of different models on three novel soybean germplasms

数据集 SVM XGBoost 1D-CNN Transformer SSFNet
原始数据集 63.00% 65.00% 65.67% 67.33% 71.33%
生成数据集 63.33% 65.00% 66.33% 67.67% 72.33%
混合数据集 64.67% 65.67% 67.00% 69.67% 73.67%

注:加粗数据表示最优结果。

图9 不同大豆种质活力检测算法的混淆矩阵

Fig. 9 Confusion matrices of different algorithms for viability detection of soybean germplasm

3 结 论

本研究构建了SDCGAN-SSFNet联合框架,用于在样本不平衡条件下对自然老化大豆种质进行活力检测。SDCGAN精准学习大豆种质真实光谱数据的分布特征并生成逼真的合成样本,有效扩充了无活力种质的光谱数据。同时,SSFNet通过挖掘不同波段间的相关性,自适应强化与活力判别高度相关的特征,并有效抑制冗余信息。在原始光谱、生成光谱和混合光谱3个数据集上的实验结果表明,SSFNet的检测性能显著优于SVM、XGBoost、1D-CNN和Transformer这4种基线模型,其中在混合光谱数据集上取得了最佳的活力检测性能。此外,迁移测试进一步验证了SSFNet模型出色的泛化能力。本研究实现了在样本不平衡条件下对大豆种质活力的快速、无损和高精度检测,为食品质量检测提供了一种高效可靠的新方法。

本研究不存在研究者以及与公开研究成果有关的利益冲突。

[1]
DING W T, LIN J Y, LI C, et al. Development of a comprehensive evaluation system and models to determine soybean seed vigor[J]. Industrial crops and products, 2025, 224: ID 120329.

[2]
LI S J, SUN L J, JIN X L, et al. Research on identification of common bean seed vigor based on hyperspectral and deep learning[J]. Microchemical journal, 2025, 211: ID 113133.

[3]
卢新雄, 辛霞, 尹广鹍, 等. 中国作物种质资源安全保存理论与实践[J]. 植物遗传资源学报, 2019, 20(1): 1-10.

LU X X, XIN X, YIN G K, et al. Theory and practice of the safe conservation of crop germplasm resources in China[J]. Journal of plant genetic resources, 2019, 20(1): 1-10.

[4]
GUO Z T, ZHAO J J, WANG M P, et al. Sulfur dioxide promotes seed germination by modulating reactive oxygen species production in maize[J]. Plant science, 2021, 312: ID 111027.

[5]
SEO Y W, AHN C K, LEE H, et al. Non-destructive sorting techniques for viable pepper (Capsicum annuum L.) seeds using Fourier transform near-infrared and Raman spectroscopy[J]. Journal of biosystems engineering, 2016, 41(1): 51-59.

[6]
KANDPAL L M, LOHUMI S, KIM M S, et al. Near-infrared hyperspectral imaging system coupled with multivariate methods to predict viability and vigor in muskmelon seeds[J]. Sensors and actuators B: chemical, 2016, 229: 534-544.

[7]
YAN S J, HUANG W J, GAO J D, et al. Comparative metabolomic analysis of seed metabolites associated with seed storability in rice (Oryza sativa L.) during natural aging[J]. Plant physiology and biochemistry, 2018, 127: 590-598.

[8]
ZHANG H, KANG K, WANG C, et al. Cross-variety seed vigor detection using new spectral analysis techniques and ensemble learning methods[J]. Journal of food composition and analysis, 2024, 136: ID 106845.

[9]
LIU W X, LUO B, KANG K, et al. Non-destructive detection of single corn seed vigor based on visible/near-infrared spatially resolved spectroscopy combined with chemometrics[J]. Spectrochimica acta part A: Molecular and biomolecular spectroscopy, 2024, 312: ID 124089.

[10]
MA J J, YANG L Y, GAO W L, et al. Rapid, in situ evaluation of sunflower seed freshness and vigor using Raman microspectroscopy scanning of carotenoids[J]. Food chemistry, 2024, 460: ID 140530.

[11]
ZHU H F, YANG R B, LU M M, et al. Identification of maize seed vigor under different accelerated aging times using hyperspectral imaging and spectral deep features[J]. Computers and electronics in agriculture, 2025, 231: ID 109980.

[12]
SHI R, ZHANG H, WANG C, et al. Data fusion-driven hyperspectral imaging for non-destructive detection of single maize seed vigor[J]. Measurement, 2025, 253: ID 117416.

[13]
SHI W M, ZHU H F, LU M M, et al. A pumpkin seed vitality detection model based on deep spectral features[J]. Computers and electronics in agriculture, 2025, 236: ID 110457.

[14]
WU N, WENG S Z, CHEN J X, et al. Deep convolution neural network with weighted loss to detect rice seeds vigor based on hyperspectral imaging under the sample-imbalanced condition[J]. Computers and electronics in agriculture, 2022, 196: ID 106850.

[15]
FU S, LIU J, GAO J L, et al. Improving the estimation accuracy of alfalfa quality based on UAV hyperspectral imagery by using data enhancement and synergistic band selection strategies[J]. Computers and electronics in agriculture, 2025, 234: ID 110305.

[16]
BLAZHKO U, SHAPAVAL V, KOVALEV V, et al. Comparison of augmentation and pre-processing for deep learning and chemometric classification of infrared spectra[J]. Chemometrics and intelligent laboratory systems, 2021, 215: ID 104367.

[17]
吴至境, 刘富强, 李志刚, 等. 基于DCGAN数据增强的樱桃番茄可溶性固形物含量光谱检测方法[J]. 食品科学, 2025, 46(2): 214-221.

WU Z J, LIU F Q, LI Z G, et al. Spectroscopic method for detection of soluble solid content in cherry tomato using deep convolutional generative adversarial network-based data augmentation[J]. Food science, 2025, 46(2): 214-221.

[18]
郭香兰, 王立, 金学波, 等. 基于生成对抗网络和深度森林结合的粮食加工过程污染物小样本数据扩充及预测[J]. 食品科学, 2024, 45(12): 22-30.

GUO X L, WANG L, JIN X B, et al. Expansion and prediction of small sample data of contaminants in grain processing using combination of generative adversarial networks and deep forest[J]. Food science, 2024, 45(12): 22-30.

[19]
LI H, ZHANG L, SUN H, et al. Discrimination of unsound wheat kernels based on deep convolutional generative adversarial network and near-infrared hyperspectral imaging technology[J]. Spectrochimica acta part A: Molecular and biomolecular spectroscopy, 2022, 268: ID 120722.

[20]
BAO X S, HUANG D Y, YANG B Y, et al. Combining deep convolutional generative adversarial networks with visible-near infrared hyperspectral reflectance to improve prediction accuracy of anthocyanin content in rice seeds[J]. Food control, 2025, 174: ID 111218.

[21]
QI H N, HUANG Z H, JIN B C, et al. SAM-GAN: An improved DCGAN for rice seed viability determination using near-infrared hyperspectral imaging[J]. Computers and electronics in agriculture, 2024, 216: ID 108473.

[22]
ZHANG G W, PAN Y, ZHANG L M. Semi-supervised learning with GAN for automatic defect detection from images[J]. Automation in construction, 2021, 128: ID 103764.

[23]
ZHAI D H, HU B J, GONG X, et al. ASS-GAN: Asymmetric semi-supervised GAN for breast ultrasound image segmentation[J]. Neurocomputing, 2022, 493: ID 204-216.

[24]
HE R, TIAN Z G, ZUO M J. A semi-supervised GAN method for RUL prediction using failure and suspension histories[J]. Mechanical systems and signal processing, 2022, 168: ID 108657.

[25]
ONWIMOL D, CHAKRANON P, WONGGASEM K, et al. Non-destructive assessment of hemp seed vigor using machine learning and deep learning models with hyperspectral imaging[J]. Journal of agriculture and food research, 2025, 21: ID 101836.

[26]
WONGCHAISUWAT P, CHAKRANON P, YINPIN A, et al. Rapid maize seed vigor classification using deep learning and hyperspectral imaging techniques[J]. Smart agricultural technology, 2025, 10: ID100820.

[27]
ZHANG L, WEI Y G, LIU J C, et al. A hyperspectral band selection method based on sparse band attention network for maize seed variety identification[J]. Expert systems with applications, 2024, 238: ID 122273.

[28]
HEI Z D, SUN W F, YANG H Y, et al. Novel domain-adaptive Wasserstein generative adversarial networks for early bearing fault diagnosis under various conditions[J]. Reliability engineering & system safety, 2025, 257: ID 110847.

[29]
GULRAJANI I, AHMED F, ARJOVSKY M, et al. Improved Training of Wasserstein GANs[EB/OL]. arXiv: 1704.00028, 2017.

[30]
KARIMI A, Kouzehkanan Z M, HOSSEINI R, et al. Introducing One Sided Margin Loss for Solving Classification Problems in Deep Networks[EB/OL]. arXiv: 2206.01002, 2022.

[31]
CHENG T, CHEN G, WANG Z C, et al. Hyperspectral and imagery integrated analysis for vegetable seed vigor detection[J]. Infrared physics & technology, 2023, 131: ID 104605.

[32]
HAN L, YANG G J, YANG X D, et al. An explainable XGBoost model improved by SMOTE-ENN technique for maize lodging detection based on multi-source unmanned aerial vehicle images[J]. Computers and electronics in agriculture, 2022, 194: ID 106804.

[33]
SABERIOON M, GHOLIZADEH A, GHAZNAVI A, et al. Enhancing soil organic carbon prediction of LUCAS soil database using deep learning and deep feature selection[J]. Computers and electronics in agriculture, 2024, 227: ID 109494.

[34]
VASWANI A, SHAZEER N, PARMAR N, et al. Attention Is All You Need[EB/OL]. arXiv: 1706.03762, 2017.

[35]
WU N, ZHANG Y, NA R S, et al. Variety identification of oat seeds using hyperspectral imaging: Investigating the representation ability of deep convolutional neural network[J]. RSC advances, 2019, 9(22): 12635-12644.

Outlines

/