欢迎您访问《智慧农业(中英文)》官方网站! English

专题--智慧畜牧技术创新与可持续发展 栏目所有文章列表

    (按年度、期号倒序)
        一年内发表的文章 |  两年内 |  三年内 |  全部
    Please wait a minute...
    选择: 显示/隐藏图片
    1. 肉牛生理指标智能监测技术研究进展与展望
    张帆, 周梦婷, 熊本海, 杨振刚, 刘民泽, 冯文晓, 唐湘方
    智慧农业(中英文)    2024, 6 (4): 1-17.   DOI: 10.12133/j.smartag.SA202312001
    摘要1173)   HTML80)    PDF(pc) (1471KB)(1434)    收藏

    [目的/意义] 随着自动化、数智化技术的快速发展及其相关技术在肉牛养殖上的逐步推广利用,肉牛智能化养殖技术研究也取得了一定进步。肉牛的生理指标如运动量、体温、心率、呼吸频率,以及反刍量等变化反映了肉牛的健康或亚健康状态。基于多种传感器采集到的数据以及机器学习、数据挖掘及模型化分析等技术的利用,肉牛的生理指标可由智能感知装备尤其接触式设备自动获取并用于发情、产犊、健康和应激的监测。[进展]针对肉牛养殖过程生理指标的智能监测技术及其利用价值进行了系统分析,分析了生理指标监测技术在实际生产中的应用现状,总结了肉牛生理指标监测的难点和挑战,并提出了未来发展方向。[结论/展望]肉牛生理指标的智能监测与利用既提高数据采集的时效性和准确性,有利于提高一线人员工作效率,促进肉牛养殖的智能化水平及健康养殖水平。结合当前中国肉牛实际饲养现状和肉牛生理指标智能监测传感器的研究现状,未来需降低接触类相关设备能耗、提高使用寿命;提高各监测数据的相互融合深度分析,提高监测准确率;加强非接触、高精度、自动化的数据采集分析技术研发,减少人工佩戴设备的工作量和设备使用成本。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    2. 基于时空流特征融合的俯视视角下奶牛跛行自动检测方法
    代昕, 王军号, 张翼, 王鑫杰, 李晏兴, 戴百生, 沈维政
    智慧农业(中英文)    2024, 6 (4): 18-28.   DOI: 10.12133/j.smartag.SA202405025
    摘要865)   HTML31)    PDF(pc) (1828KB)(536)    收藏

    [目的/意义] 奶牛跛行检测是规模化奶牛养殖过程中亟待解决的重要问题,现有方法的检测视角主要以侧视为主。然而,侧视视角存在着难以消除的遮挡问题。本研究主要解决侧视视角下存在的遮挡问题。 [方法] 提出一种基于时空流特征融合的俯视视角下奶牛跛行检测方法。首先,通过分析深度视频流中跛行奶牛在运动过程中的位姿变化,构建空间流特征图像序列。通过分析跛行奶牛行走时躯体前进和左右摇摆的瞬时速度,利用光流捕获奶牛运动的瞬时速度,构建时间流特征图像序列。将空间流与时间流特征图像组合构建时空流融合特征图像序列。其次,利用卷积块注意力模块(Convolutional Block Attention Module, CBAM)改进PP-TSMv2(PaddlePaddle-Temporal Shift Module v2)视频动作分类网络,构建奶牛跛行检测模型Cow-TSM(Cow-Temporal Shift Module)。最后,分别在不同输入模态、不同注意力机制、不同视频动作分类网络和现有方法4个方面对比,进行奶牛跛行实验,以探究所提出方法的优劣性。 [结果和讨论] 共采集处理了180段奶牛图像序列数据,跛行奶牛与非跛行奶牛视频段数比例为1∶1,所提出模型识别精度达到88.7%,模型大小为22 M,离线推理时间为0.046 s。与主流视频动作分类模型TSM、PP-TSM、PP-TSMv2、SlowFast和TimesFormer模型相比,综合表现最好。同时,以时空流融合特征图像作为输入时,识别精度分别比单时间模态与单空间模态分别提升12%与4.1%,证明本研究中模态融合的有效性。通过与通道注意力(Squeeze-and-Excitation, SE)、卷积核注意力(Selective Kernel, SK)、坐标注意力(Coordinate Attention, CA)与CBAM不同注意力机制进行消融实验,证明利用CBAM注意力机制构建奶牛跛行检测模型效果最佳。最后,与现有跛行检测方法进行对比,所提出的方法同时具有较好的性能和实用性。 [结论] 本研究能够避免侧视视角下检测跛行奶牛时出现的遮挡问题,对于减少奶牛跛行发生率、提高牧场经济效益具有重要意义,符合牧场规模化建设的需求。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    3. 基于边缘计算和改进MobileNet v3的奶牛反刍行为实时监测方法
    张宇, 李相廷, 孙雅琳, 薛爱迪, 张翼, 姜海龙, 沈维政
    智慧农业(中英文)    2024, 6 (4): 29-41.   DOI: 10.12133/j.smartag.SA202405023
    摘要948)   HTML46)    PDF(pc) (1694KB)(307)    收藏

    [目的/意义] 随着奶牛养殖业向规模化、精准化和信息化养殖迅速发展,对奶牛健康的监测和管理需求也日益增加。实时监测奶牛的反刍行为对于第一时间获取奶牛健康的相关信息以及预测奶牛疾病具有至关重要的意义。目前,针对奶牛反刍行为的监测已经提出了多种策略,包括基于视频监控、声音识别、传感器监测等方法,但是这些方法普遍存在实时性不足的问题。为了减轻数据传输的数量与云端计算量,实现对奶牛反刍行为的实时监测,基于边缘计算的思想提出了一种实时对奶牛反刍行为进行监测的方法。 [方法] 使用自主设计的边缘设备实时地采集并处理奶牛的六轴加速度信号,基于六轴数据提出了基于联邦式与拆分式边缘智能这两种不同的策略对奶牛反刍行为实时识别方法展开研究。在基于联邦式边缘智能的奶牛反刍行为实时识别方法研究中,通过协同注意力机制改进MobileNet v3网络提出了CA-MobileNet v3网络,进而利用CA-MobileNet v3网络和FedAvg模型聚合算法,设计了联邦式边缘智能模型。在基于拆分式边缘智能的奶牛反刍行为实时识别方法研究中,利用融合协同注意力机制的MobileNet v3网络和Bi-LSTM网络,设计了基于MobileNet-LSTM的拆分式边缘智能模型。 [结果和讨论] 对比了MobileNet v3、CA-MobileNet、联邦式边缘智能模型,以及拆分式边缘智能模型的识别准确率,其中基于CA-MobileNet v3的联邦式边缘智能模型的平均查准率、召回率、 F1-Score、特异性以及准确率分别达到97.1%、97.9%、97.5%、98.3%和98.2%,达到了最佳识别效果。 [结论] 本研究为奶牛反刍行为的监测提供了一种实时有效的方法,所提出的方法可以在实际应用中使用。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    4. CSD-YOLOv8s:基于无人机图像的密集小目标羊只检测模型
    翁智, 刘海鑫, 郑志强
    智慧农业(中英文)    2024, 6 (4): 42-52.   DOI: 10.12133/j.smartag.SA202401004
    摘要1269)   HTML92)    PDF(pc) (1772KB)(538)    收藏

    [目的/意义] 天然牧场下放牧牲畜数量的准确检测是规模化养殖场改造升级的关键。为满足规模化养殖场对大批羊群实现精准实时的检测需求,提出一种高精度、易部署的小目标检测模型CSD-YOLOv8s(CBAM SPPFCSPC DSConv-YOLOv8s),实现无人机高空视角下小目标羊只个体的实时检测。 [方法] 首先,使用无人机获取天然草原牧场中包含不同背景及光照条件下的羊群视频数据并与下载的部分公开数据集共同构成原始图像数据。通过数据清洗和标注整理生成羊群检测数据集。其次,为解决羊群密集和相互遮挡造成的羊只检测困难问题,基于YOLO(You Only Look Once)v8模型构建具有跨阶段局部连接的SPPFCSPC(Spatial Pyramid Pooling Fast-CSPC)模块,提升网络特征提取和特征融合能力,增强模型对小目标羊只的检测性能。在模型的Neck部分引入了卷积注意力模块(Convolutional Block Attention Module, CBAM),从通道和空间两个维度增强网络的抗干扰能力,提升网络对复杂背景的抑制能力,进一步提高对密集羊群的检测性能。最后,为提升模型的实时性和可部署性,将Neck网络的标准卷积改为具有可变化内核的轻量卷积C2f_DS(C2f-DSConv)模块,减小了模型的参数量并提升了模型的检测速度。 [结果和讨论] 与YOLO、Faster R-CNN(Faster Regions with Convolutional Neural Networks)及其他经典网络模型相比,改进后的CSD-YOLOv8s模型在检测速度和模型大小相当的情况下,在羊群检测任务中具有更高的检测精度。Precision达到95.2%,mAP达到93.1%,FPS(Frames Per Second)达到87 f/s,并对不同遮挡程度的羊只目标具有较强的鲁棒性,有效解决了无人机检测任务中因羊只目标小、背景噪声大、密集程度高导致羊群漏检和误检严重的问题。公开数据集验证结果表明,提出的模型对其他不同物体的检测精度均有所提高,特别是在羊只检测方面,检测精度提升了9.7%。 [结论] 提出的CSD-YOLOv8s在无人机图像中更精准地检测草原放牧牲畜,对不同程度的聚集和遮挡目标实现精准检测,且具有较好的实时性,为养殖场大规模畜禽检测提供了技术支撑,具有广泛的应用潜力。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    5. 基于改进实例分割算法的区域养殖生猪计数系统
    张岩琪, 周硕, 张凝, 柴秀娟, 孙坦
    智慧农业(中英文)    2024, 6 (4): 53-63.   DOI: 10.12133/j.smartag.SA202310001
    摘要1180)   HTML64)    PDF(pc) (2077KB)(592)    收藏

    [目的/意义] 针对现有规模化猪场生猪计数需求场景多,人工计数效率低、成本高等问题,提出一种基于改进实例分割深度学习算法和微信公众平台的区域养殖生猪计数方法。 [方法] 首先,利用智能手机拍摄养殖场猪只视频,对视频抽帧进一步生成图像数据集。其次,通过改进卷积块注意力模块(Convolutional Block Attention Module, CBAM)中忽略通道与空间相互作用及通道注意力中降维操作带来的效率较低问题,提出高效全局注意力模块,并将该模块引入基于回归分析的单阶段实例分割网络YOLO(You Only Look Once)v8中对获取的生猪图像进行分割,构建新的识别模型YOLOv8x-Ours,以实现高精度的生猪计数。最后,基于微信公众平台开发微信小程序,并嵌入综合表现最优的生猪计数模型,实现使用智能手机拍摄图像进行生猪快速计数。 [结果和讨论] 在测试集上的试验结果表明,与现有实例分割模型相比,引入高效全局注意力的YOLOv8x-Ous模型获得66%的平均精度(AP(50∶95)),平均绝对误差(Mean Absolute Error, MAE)、均方根误差(Root Mean Square Error, RMSE)和R2分别为1.727、2.168和0.949,表现出较高的准确性和稳定性。模型计算猪只数量误差小于3头猪的图像数量占测试图像总数量的93.8%,相比两阶段实例分割算法Mask R-CNN(Region Convolutional Neural Network)提升7.6%;单幅图像平均处理时间仅为64 ms,是Mask R-CNN的1/8。 [结论] 该方法经济高效,为规模化猪场的生猪计数提供了一种技术方案。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    6. 基于多模态图像信息及改进实例分割网络的肉牛体尺自动测量方法
    翁智, 范琦, 郑志强
    智慧农业(中英文)    2024, 6 (4): 64-75.   DOI: 10.12133/j.smartag.SA202310007
    摘要1171)   HTML40)    PDF(pc) (3345KB)(1278)    收藏

    [目的/意义] 牛的体尺参数是反映牛身体发育状况的关键指标,也是牛选育过程的关键因素。为解决规模化肉牛牧场复杂环境对肉牛体尺的测量需求,设计了一种图像采集装置以及体尺自动测量算法。 [方法] 首先搭建肉牛行走通道,当肉牛通过通道后进入限制装置,用英特尔双目深度相机D455对牛只右侧图像进行RGB与深度图的采集。其次,为避免复杂环境背景的影响,提出一种改进后的实例分割网络Mask2former来对牛只二维图进行前景轮廓提取,对轮廓进行区间划分,利用计算曲率分析方法找到所需体尺测点。然后,将原始深度图转换为点云数据,对点云进行点云滤波、分割和深度图牛只区域的空值填充,以保留牛体区域的点云完整,从而找到所需测点并返回到二维数据中。最后,将二维像素点投影到三维点云中,利用相机参数计算出投影点的世界坐标,从而进行体尺的自动化计算,最终提取肉牛体高、十字部高、体斜长和管围4种体尺参数。[结果与讨论]改进的实例分割网络与Mask R-CNN、PointRend、Queryinst等模型相比具有更好的分割结果。采用本研究测得的这4种体尺平均相对误差分别为4.32%、3.71%、5.58%和6.25%。 [结论] 本研究开发的肉牛图像采集装置及相应的图像处理方法可以满足该牧场对肉牛体尺无接触自动测量误差小于8%的精度要求,为非接触式肉牛体尺自动化测量提供了理论与实践指导。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    7. 猪三维点云体尺自动计算模型Pig Back Transformer
    王宇啸, 石源源, 陈招达, 吴珍芳, 蔡更元, 张素敏, 尹令
    智慧农业(中英文)    2024, 6 (4): 76-90.   DOI: 10.12133/j.smartag.SA202401023
    摘要1278)   HTML41)    PDF(pc) (2776KB)(1175)    收藏

    [目的/意义] 为了提高体尺关键点定位准确率,猪三维点云体尺自动测量方法会采用点云分割,在各个分割后局部点云定位测量关键点,以减少点云之间相互干扰。然而点云分割网络通常需要消耗较大计算资源,且现有测量点定位效果仍有待提升空间。本研究旨在通过设计关键点生成网络从猪体点云中提取出各体尺测量所需关键点。在降低显存资源需求的同时提高测量关键点定位效果,提高体尺测量的效率和精度。 [方法] 针对猪三维表面点云进行体尺测量,提出了一种定位猪体尺关键点的模型Pig Back Transformer。模型分为两个模块,分别设计了两种改进的Transformer自注意力编码器,第一模块为全局关键点模块,首先设计了一种猪背部边缘点提取算法用于获取边缘点,再使用edge encoder编码器以边缘点集合作为输入,edge encoder的edge attention中加入了边缘点和质点的偏移距离信息;第二模块为关键点生成模块,使用了back attention机制的back encoder,其中加入了与质心和第一模块生成的全局关键点的偏移量,并将偏移量与点云注意力通过按位max pooling操作结合,最后通过生成猪的体尺测量关键点和背脊走向点。最后设计了使用关键点和背脊走向点作为输入的体尺算法。 [结果和讨论] 对比关键点和背脊走向点生成任务上Pig Back Transformer表现最佳,并对比体尺计算结果与人工测量结果,体长相对误差为0.63%,相对PointNet++、Point Transformer V2、Point Cloud Transforme、OctFormer PointTr等模型有较大提升。 [结论] Pig Back Transformer能相对准确地生成猪体尺关键点,提高体尺测量数据准确度,并且通过点云特征定位体尺关键点节省了计算资源,为无接触牲畜体尺测量提供了新思路。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    8. 基于改进YOLOv8n-pose和三维点云分析的蒙古马体尺自动测量方法
    李明煌, 苏力德, 张永, 宗哲英, 张顺
    智慧农业(中英文)    2024, 6 (4): 91-102.   DOI: 10.12133/j.smartag.SA202312027
    摘要1141)   HTML55)    PDF(pc) (2477KB)(1654)    收藏

    [目的/意义] 准确高效地获取马匹体尺信息是马产业现代化进程中的关键环节。传统的人工测量方法耗时长、工作量大,且会对马匹造成一定应激反应。因此,实现准确且高效的体尺参数自动测量对于制定蒙古马早期育种计划至关重要。 [方法] 选择Azure Kinect深度相机获取蒙古马双侧RGB-D数据,以YOLOv8n-pose为基础,通过在C2f模块中引入可变形卷积(Deformable Convolution v2, DCNv2),同时添加洗牌注意力机制(Shuffle Attention, SA)模块和优化损失函数(SCYLLA-IoU Loss, SIoU)的方法,利用余弦退火法动态调整学习率,提出一种名为DSS-YOLO(DCNv2-SA-SIoU-YOLO)的模型用于蒙古马体尺关键点的检测。其次,将RGB图中的二维关键点坐标与深度图中对应深度值相结合,得到关键点三维坐标,并实现蒙古马点云信息的转换。利用直通滤波、随机抽样一致性(Random Sample Consensus, RANSAC)、统计离群值滤波、主成分分析法(Principal Component Analysis, PCA)完成点云处理与分析。最终根据关键点坐标自动计算体高、体斜长、臀高、胸围和臀围5项体尺参数。 [结果和讨论] DSS-YOLO的平均关键点检测精度为92.5%;dDSS为7.2个像素;参数量和运算量分别仅为3.48 M和9.1 G。体尺参数自动测量结果与人工测量值相比,各项体尺参数的整体平均绝对误差为3.77 cm;平均相对误差为2.29%。 [结论] 研究结果可为蒙古马运动性能相关遗传参数的确定提供技术支撑。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0
    9. 羊场自动导航喷药机器人设计与实验
    范铭铄, 周平, 李淼, 李华龙, 刘先旺, 麻之润
    智慧农业(中英文)    2024, 6 (4): 103-115.   DOI: 10.12133/j.smartag.SA202312016
    摘要960)   HTML30)    PDF(pc) (2160KB)(661)    收藏

    [目的/意义] 大规模肉羊畜舍人工消毒存在费时费力、覆盖不全和消毒不彻底的问题,为保持畜舍卫生和肉羊健康,本研究提出一种羊场自动导航喷药机器人。 [方法] 从硬件、语义分割模型和控制算法3个方面设计了自动导航喷药机器人。硬件部分包括履带底盘、摄像头和折叠式喷药装置。语义分割模型部分通过引入压缩通道网络注意力(Squeeze-and-Excitation Network, SENet)和基于场景改进的十字交叉注意力(Criss-Cross Attention,CCA)模块,提出一种双注意力ENet语义分割模型(Double Attention ENet, DAENet)。在控制算法方面,针对机器人在面对岔路时无法控制行进方向的问题,利用模拟真实道路的方法,在羊舍外的道路上绘出车道线,提出了道路中心点识别和车道线中心点识别两种算法来计算机器人行进过程中的导航点。为了实现上述两种算法,使用了两台摄像头并设计了摄像头切换算法,依靠此算法实现两台摄像头的切换,并控制喷药装置的开关;提出了一种偏移量与速度计算算法控制机器人履带左右轮速度,实现对于机器人行走的控制。 [结果和讨论] DAENet模型在图像分割任务中的平均交并比(Mean Intersection over Union, mIoU)达到了0.945 3;摄像头切换算法测试结果表明摄像头的切换时间在15 s以内,机器人能正确、快速地带动喷药装置的开关;中心点与偏移量计算算法测试的结果表明,在处理多帧视频流时,算法平均处理一帧图片所用的时间为0.04~0.055 s,帧率为20~24 f/s,满足实际工作的实时性要求;羊场实地的整体测试结果表明,机器人完成了两个羊舍的自动导航和消毒任务,并且未碰撞路边料槽,行进轨迹偏移量未超过0.3 m。在0.2 m/s的行进速度下,药箱里的药液能够满足两个羊舍的消毒任务。机器人处理图像的平均帧率为22.4 f/s,对于信息处理的准确性和实时性能够满足实验指标要求。喷药覆盖圈舍地面超过90%,满足实验指标要求。 [结论] 本研究提出的羊舍自动导航喷药机器人以语义分割模型DAENet为基础,中心点识别算法为核心,通过与硬件设计和控制算法的相互配合,能够在确保安全性和实时性的前提下,实现在羊舍内的自动导航和全覆盖喷药。

    图表 | 参考文献 | 相关文章 | 多维度评价 | 评论0