[目的/意义] 复杂果园环境中果实目标的精确识别,是苹果采摘机器人作业的关键前提。然而,果园环境中不同的光照环境和遮挡情况对模型的泛化能力提出了严峻要求;同时机器人边缘端计算平台有限的算力资源,对视觉分割模型的计算效率也提出挑战。为此,本研究基于YOLOv11n架构提出一种轻量化实例分割模型SSW-YOLOv11n,提升在差异工况下果实掩膜的分割精度及边缘侧的推理效率。 [方法] 首先,SSW-YOLOv11n模型在颈部网络引入分组混洗卷积(Group Shuffle Convolution, GSConv)和VoV群组混洗CSP模块(Variety of VoV with Group Standard Cross Stage Partial, VoVGSCSP),实现了在降低计算量的同时提升对模型精度和特征表达能力,构建轻量化、高效融合特征的Slim-Neck结构;其次,在骨干网络与颈部网络连接的三个输出端引入简单无参数注意力模块(Simple, Parameter-Free Attention Module, SimAM),对前向传播的特征进行加权处理,增强模型对关键区域的感知能力;最后,采用智能交并比损失函数(Wise Intersection over Union Loss, Wise-IoU)替代原始损失函数,通过引入距离与几何因素的综合权重调节机制,实现对边界框的有效优化。 [结果和讨论] 实验结果表明,相较于原始YOLOv11n模型,SSW-YOLOv11n在Box mAP50和Mask mAP50上分别提升了1.7和2.4个百分点,计算量和模型权重分别减少了12.5%和22.8%;模型在边缘侧NVIDIA Jetson TX2平台推理帧率可达29.8 FPS,相较于YOLOv11n提升了18.7%。 [结论] 验证了所提方法在提升分割精度与降低计算开销方面的有效性,为苹果采摘机器人的实际应用提供了技术基础。