Welcome to Smart Agriculture 中文
Topic--Intelligent Agricultural Knowledge Services and Smart Unmanned Farms (Part 2)

Chinese Kiwifruit Text Named Entity Recognition Method Based on Dual-Dimensional Information and Pruning

  • QI Zijun 1 ,
  • NIU Dangdang , 1 ,
  • WU Huarui 2, 3, 4 ,
  • ZHANG Lilin 1 ,
  • WANG Lunfeng 1 ,
  • ZHANG Hongming , 1
Expand
  • 1. College of Information Engineering, Northwest A&F University, Yangling 712100, China
  • 2. National Engineering Research Center for Information Technology in Agriculture, Beijing 100097, China
  • 3. Information Technology Research Center, Beijing Academy of Agriculture and Forestry Sciences, Beijing 100097, China
  • 4. Key Laboratory of Digital Village Technology, Ministry of Agriculture and Rural Affairs, Beijing 100097, China
NIU Dangdang, E-mail: ;
ZHANG Hongming, E-mail:

QI Zijun, E-mail:

Received date: 2024-10-20

  Online published: 2025-04-04

Supported by

Shaanxi Province Qin Chuang Yuan "Scientist + Engineer" Team Building Project(2022KXJ-67)

National Natural Science Foundation of China(62206222)

Copyright

copyright©2025 by the authors

Abstract

[Objective] Chinese kiwifruit texts exhibit unique dual-dimensional characteristics. The cross-paragraph dependency is complex semantic structure, whitch makes it challenging to capture the full contextual relationships of entities within a single paragraph, necessitating models capable of robust cross-paragraph semantic extraction to comprehend entity linkages at a global level. However, most existing models rely heavily on local contextual information and struggle to process long-distance dependencies, thereby reducing recognition accuracy. Furthermore, Chinese kiwifruit texts often contain highly nested entities. This nesting and combination increase the complexity of grammatical and semantic relationships, making entity recognition more difficult. To address these challenges, a novel named entity recognition (NER) method, KIWI-Coord-Prune(kiwifruit-CoordKIWINER-PruneBi-LSTM) was proposed in this research, which incorporated dual-dimensional information processing and pruning techniques to improve recognition accuracy. [Methods] The proposed KIWI-Coord-Prune model consisted of a character embedding layer, a CoordKIWINER layer, a PruneBi-LSTM layer, a self-attention mechanism, and a CRF decoding layer, enabling effective entity recognition after processing input character vectors. The CoordKIWINER and PruneBi-LSTM modules were specifically designed to handle the dual-dimensional features in Chinese kiwifruit texts. The CoordKIWINER module applied adaptive average pooling in two directions on the input feature maps and utilized convolution operations to separate the extracted features into vertical and horizontal branches. The horizontal and vertical features were then independently extracted using the Criss-Cross Attention (CCNet) mechanism and Coordinate Attention (CoordAtt) mechanism, respectively. This module significantly enhanced the model's ability to capture cross-paragraph relationships and nested entity structures, thereby generating enriched character vectors containing more contextual information, which improved the overall representation capability and robustness of the model. The PruneBi-LSTM module was built upon the enhanced dual-dimensional vector representations and introduced a pruning strategy into Bi-LSTM to effectively reduce redundant parameters associated with background descriptions and irrelevant terms. This pruning mechanism not only enhanced computational efficiency while maintaining the dynamic sequence modeling capability of Bi-LSTM but also improved inference speed. Additionally, a dynamic feature extraction strategy was employed to reduce the computational complexity of vector sequences and further strengthen the learning capacity for key features, leading to improved recognition of complex entities in kiwifruit texts. Furthermore, the pruned weight matrices become sparser, significantly reducing memory consumption. This made the model more efficient in handling large-scale agricultural text-processing tasks, minimizing redundant information while achieving higher inference and training efficiency with fewer computational resources. [Results and Discussions] Experiments were conducted on the self-built KIWIPRO dataset and four public datasets: People's Daily, ClueNER, Boson, and ResumeNER. The proposed model was compared with five advanced NER models: LSTM, Bi-LSTM, LR-CNN, Softlexicon-LSTM, and KIWINER. The experimental results showed that KIWI-Coord-Prune achieved F1-Scores of 89.55%, 91.02%, 83.50%, 83.49%, and 95.81%, respectively, outperforming all baseline models. Furthermore, controlled variable experiments were conducted to compare and ablate the CoordKIWINER and PruneBi-LSTM modules across the five datasets, confirming their effectiveness and necessity. Additionally, the impact of different design choices was explored for the CoordKIWINER module, including direct fusion, optimized attention mechanism fusion, and network structure adjustment residual optimization. The experimental results demonstrated that the optimized attention mechanism fusion method yielded the best performance, which was ultimately adopted in the final model. These findings highlight the significance of properly designing attention mechanisms to extract dual-dimensional features for NER tasks. Compared to existing methods, the KIWI-Coord-Prune model effectively addressed the issue of underutilized dual-dimensional information in Chinese kiwifruit texts. It significantly improved entity recognition performance for both overall text structures and individual entity categories. Furthermore, the model exhibited a degree of generalization capability, making it applicable to downstream tasks such as knowledge graph construction and question-answering systems. [Conclusions] This study presents an novel NER approach for Chinese kiwifruit texts, which integrating dual-dimensional information extraction and pruning techniques to overcome challenges related to cross-paragraph dependencies and nested entity structures. The findings offer valuable insights for researchers working on domain-specific NER and contribute to the advancement of agriculture-focused natural language processing applications. However, two key limitations remain: 1) The balance between domain-specific optimization and cross-domain generalization requires further investigation, as the model's adaptability to non-agricultural texts has yet to be empirically validated; 2) the multilingual applicability of the model is currently limited, necessitating further expansion to accommodate multilingual scenarios. Future research should focus on two key directions: 1) Enhancing domain robustness and cross-lingual adaptability by incorporating diverse textual datasets and leveraging pre-trained multilingual models to improve generalization, and 2) Validating the model's performance in multilingual environments through transfer learning while refining linguistic adaptation strategies to further optimize recognition accuracy.

Cite this article

QI Zijun , NIU Dangdang , WU Huarui , ZHANG Lilin , WANG Lunfeng , ZHANG Hongming . Chinese Kiwifruit Text Named Entity Recognition Method Based on Dual-Dimensional Information and Pruning[J]. Smart Agriculture, 2025 , 7(1) : 44 -56 . DOI: 10.12133/j.smartag.SA202410022

0 引 言

中国是全球最大的猕猴桃生产国。猕猴桃作为一种高经济价值的水果,在农业生产中占据举足轻重的地位。猕猴桃相关的文本数据涵盖了农艺技术、病害防治和市场营销等广泛领域,具有高度的实用价值1。对猕猴桃相关的文本数据进行有效处理和分析,不仅能够有效提升猕猴桃产业管理效率,同时还能为精准农业和智能农业系统的构建提供数据支持和技术保障,已经成为一个极具潜力的研究方向。命名实体识别作为自然语言处理的重要任务,为猕猴桃文本中关键实体的高效提取提供了技术基础。
中文命名实体识别(Chinese Named Entity Recognition, CNER)任务是信息检索和推荐系统搭建等一系列自然语言处理(Natural Language Processing, NLP)下游任务的基础和关键2。该任务需要准确理解和处理大量的中文文本信息,进而将具有特定意义的实体从相关文本中提取出来,并将其归入预定类别3。准确的实体识别能够显著提高搜索引擎的准确性及推荐系统的相关性,进而优化用户体验,提高信息获取的效率4-6。例如,通过精确识别出文本中的关键实体,系统可以更准确地理解用户的查询意图,从而提供更为相关和精准的搜索结果或推荐内容,满足用户需求,增强用户满意度7
针对中文文本命名实体识别任务的方法,总体上可以分为基于规则、基于字典匹配、基于机器学习,以及基于深度学习的方法四类。其中,前三种方法高度依赖于大量的手工构建和耗时耗力的模式匹配与特征工程8, 9,泛化能力有限10,因此基于深度学习的方法成为了完成中文命名实体识别任务的首要选择,已经成功并广泛应用于医学病历识别11, 12、古汉语识别13、葡萄相关实体识别14和社交媒体文本识别15等多个领域。
在中文猕猴桃文本领域,命名实体识别旨在从非结构化中文猕猴桃文本中识别出猕猴桃相关实体的边界与类别,如种类、病害、产地等实体,这对于构建猕猴桃知识图谱、智能问答系统等下游任务16-18有着至关重要的作用。因此,准确而高效地识别出中文猕猴桃文本中的相关命名实体,对于保障猕猴桃种植业健康发展及精准农业相关实践具有重要意义。
由于中文猕猴桃文本的段落上下文具有高度的连贯性和跨段依赖性,其独特的信息结构对命名实体识别提出了更高的挑战和要求。这一双维度特性具体表现为多段落信息的跨段依赖性和字符序列的高度嵌套性和组合性两个方面。其中,多段落信息的跨段依赖性主要体现在:中文猕猴桃文本对猕猴桃品种、病害、产地等实体往往会在不同段落中反复描述和详细阐述。这种复杂的语义结构导致单一段落内的信息不足以全面捕捉实体的上下文关联,模型需要具有强大的跨段语义捕捉能力,能够在全局范围内理解实体间的语义联系,而现有大多数模型主要依赖局部上下文,对长距离依赖的处理能力有限,从而影响识别的准确性。此外,中文猕猴桃文本中,如“眉县猕猴桃”这样的组合实体,既包含单一实体“眉县”又涉及与其他字符和词语的紧密关联,体现了字符序列的高度嵌套性和组合性,这种特性增加了词语间语法和语义关系的复杂性。传统方法在面对嵌套实体时,容易出现拆分错误或整体识别不完整的问题,缺乏对语义组合性的深入建模能力。
Zhang等19研究表明,未能识别或充分利用中文猕猴桃文本的这一独特双维度特性,大多聚焦于单维度特征的提取,而忽略了文本间的全局语义关联和复杂实体嵌套关系。这种局限性导致传统方法在处理领域特定文本时,难以兼顾识别精度和效率。例如基于局部文本的特征提取方法无法捕捉跨段关联、单一注意力机制难以对组合实体实现精准分辨等,特别是在领域数据中复杂实体关系显著的情况下,模型性能受限更加明显。
本研究针对以上问题以及在中文猕猴桃文本中所发现的双维特性,提出了一种考虑水平与垂直双维度文本信息的命名实体识别模型KIWI-Coord-Prune(Kiwifruit-CoordKIWINER-PruneBi-LSTM)。该模型由字嵌入层、CoordKIWINER层、PruneBi-LSTM层以及自注意力机制和解码层四部分构成。通过以上各个部分的协同作用,KIWI-Coord-Prune在领域数据集,以及人民日报、ClueNER、Boson和ResumeNER四个公开数据集上均实现了较好的F 1值,显著优于参与对比的五个经典模型,充分验证了模型对中文猕猴桃文本命名实体识别任务的适用性和有效性。

1 材料和方法

1.1 数据集构建与标注

鉴于中文猕猴桃文本缺少公开标注数据集20的现状,本研究从中国知网(https://www.cnki.net/)、百度百科(https://baike.baidu.com/)、中国农业农村信息网(http://www.agri.cn/)和国家农业科学数据中心(https://www.agridata.cn/)收集了有关猕猴桃相关领域的公开数据信息。经过预处理,删除了如广告、网页标签等无关干扰内容,最终整理得到了一个包含62 093个句子的中文猕猴桃数据集,将其作为训练集,用于模型学习与理解猕猴桃文本数据的文本特征与实体特征。
接着,从训练集中选取了11 620个句子组成测试集。如图1示例所示,采用了BMESO(Begin,Middle,End,Single,Outside)标注方案21对测试集进行多层次标注,用来评估模型对领域命名实体的识别效果。其中B表示实体名称的开始,M和E分别表示实体的内部和实体的结束,实体后缀为猕猴桃的具体属性,S表示单个实体,O表示语料文本中的非实体。为确保标注的准确性,完成标注后请领域专家进行审核。最终,构建了一个包含10个猕猴桃属性,共20 173个实体的猕猴桃文本数据集,命名为KIWIPRO,不同类型的实体统计见表1
图1 中文猕猴桃文本命名实体识别研究多层次标注示例

Fig. 1 Multi-level annotation example for named entity recognition in Chinese kiwifruit texts

表1 中文猕猴桃文本命名实体识别研究KIWIDPRO信息统计表

Table 1 Information statistics table of KIWIPRO for named entity recognition in Chinese kiwifruit texts

类别标签(释义) 类别 类别定义 示例 实体数量/个
KIWI(Variety) 品种 不同品种的猕猴桃名称 中华猕猴桃(Chinese kiwifruit) 3 821
DIS(Disease) 病害 猕猴桃容易遭受的病害 软腐病(soft rot) 1 402
PEST(Insect Pest) 虫害 猕猴桃容易遭受的虫害 蝙蝠蛾(Hawk moth) 1 320
PART(Part) 部位 猕猴桃易受病害侵扰的部位 果实(Fruit) 5 489
MED(Pesticide) 农药 处理猕猴桃病害的药剂 多菌灵(Carbendazim) 1 394
LOC(Location) 位置 不同品种猕猴桃的产地 陕西 (Shaanxi) 4 094
COL(Color) 颜色 猕猴桃果肉颜色 红色(red),绿色(green) 1 268
TAS(Taste) 口感 猕猴桃果肉口感 酸(Sour),甜(Sweet) 892
SHA(Shape) 形状 猕猴桃果实形状 椭圆形(Elliptical) 168
NUT(Nutritional) 营养成分 猕猴桃果实所含营养成分 维生素C(Vitamin C) 325

1.2 数据特征

与通用语料和公开数据集相比,中文猕猴桃文本具有较强的领域特性19,具体体现为以下三个方面。
1)组合实体广泛存在。在中文猕猴桃文本中,实体不仅仅只是单一实体,还广泛存在由多个单一实体或非实体嵌套形成的组合实体。例如在“眉县猕猴桃”这一组合实体中,“眉县”为单一实体,“猕猴桃”为非实体。这类组合实体的起始和结束部分之间可能存在其他单一实体或非实体词汇,但组合实体的整体才是模型所需要正确识别与标注的,这可视为中文猕猴桃文本信息中的水平维度。
2)跨行的数据依赖较为常见。中文猕猴桃文本描述猕猴桃相关信息时,不同类别的实体出现的位置较为分散,但又呈现出一定的规律性。例如在描述猕猴桃品种的一段文本中,品种产地、果实形状和果肉口感等实体往往出现在开头部分;而关于猕猴桃品种可能会遭受的虫害和部位,以及预防治疗所需要的药剂等实体,通常出现在文本的中部或结尾部分。即中文猕猴桃文本存在跨行的数据依赖情况,特定的实体在文本的不同部分呈一定规律被提及,这可视为中文猕猴桃文本信息中的垂直维度。
3)存在具有内部结构性特点的部分实体。中文猕猴桃文本中存在着许多诸如“根系”“枝条”这样的部分实体,这类实体具有内部的结构性特点。例如,在描述猕猴桃植株结构的文本中,“根系”和“枝条”经常被并列提及,作为植物主体的不同部分来进行阐释。相关文本也通常会同时讨论这些部分的功能,病害及生长习性等要素,这些实体在叙述中相互关联,形成了一种水平上的信息流;而与此同时,“根系”可以进一步细分为“主根”和“侧根”,“枝条”又可以进一步细分为“主枝”和“侧枝”。这些子部分在与总体相关的同时,也可能拥有自身独立的属性,进而又形成了一种垂直方向的信息流,这种水平与垂直双维度的内部结构性特点给模型提取上下文关系带来了一定难度。
已有研究主要针对以上三种特性中的每一种特性分散性地进行特征增强,未能发现并充分利用其所共有的双维度特征。

1.3 KIWI-Coord-Prune模型

基于中文猕猴桃文本中所发现的双维度特征,提出了一种考虑水平与垂直双维度文本信息的中文猕猴桃文本命名实体识别模型KIWI-Coord-Prune。该模型通过字符嵌入、CoordKIWINER提取双维信息、PruneBi-LSTM剪枝优化,以及自注意力机制和CRF层解码,实现了高效且精准的中文猕猴桃文本命名实体识别,有效解决了文本中多维度信息未被充分利用的问题。模型自下而上依次为字嵌入层、CoordKIWINER层、PruneBi-LSTM层,以及自注意力机制和CRF层,该模型在输入字向量后能够输出相应的实体识别结果,模型结构如图2所示。
图2 KIWI-Coord-Prune模型结构

Fig. 2 Architecture of KIWI-Coord-Prune model

其中,字嵌入层采用n-gram信息优化文本的局部结构表示并进行文本向量化;CoordKIWINER层通过对输入特征图在两个方向上进行自适应平均池化,并在卷积操作后将特征图分为垂直和水平两个分支单独提取信息,显著增强模型捕捉文本中跨段关联和嵌套实体特征等复杂关系的能力;PruneBi-LSTM层通过剪枝机制,有效减少背景描述、无关名词等大量重复无关信息的干扰,同时强化模型对关键特征的学习能力,进一步提升模型对猕猴桃文本中复杂实体的识别能力;自注意力机制和解码层分别采用并行连接交叉注意力机制(Parallel Connected Cross Attention, PCAT)和条件随机场(Conditional random field, CRF)来进一步提升模型特征提取能力和解码。

1.3.1 字符嵌入层

在中文命名实体识别领域,需要将文本中的字符或词汇映射为特定维度的矢量,以便计算机能够进行处理和识别22,猕猴桃文本亦需遵循这一规则。因此,采用矢量表示技术,将中文猕猴桃文本中的每个字符训练转化为字符矢量,从而为上层模型提供数值化的输入数据。
图2所示,字符嵌入层将输入的字符序列 C ={c 1c 2,...,cn }(以“眉县产出的猕猴桃……根系和枝条”为例)通过字符嵌入映射为稠密矢量序列 V ={v 1v 2,...,vn },将其作为CoordKIWINER层的输入。其中每个字符ci 对应于一个d-维嵌入矢量vi。这一映射过程使用嵌入矩阵 E R d ×∣ V 来实现,其中∣V∣表示字符集的大小,d是嵌入维度。具体的映射方式如公式(1)所示。
Vi = E [:,indexci )]
式中:indexci )为字符ci 在字符集中的索引; E [:,indexci )]为嵌入矩阵 E 中对应于ci 的列。鉴于中文猕猴桃文本的复杂性,为了便于在训练集中获取到更丰富的语义信息,本研究使用预训练的嵌入矩阵来初始化 E
另外,考虑到中文猕猴桃文本富含语义和语法信息,因此本文采用字符的n-gram信息优化文本的局部结构表示,将离散的文本信息转换为连续的矢量空间,进而为CoordKIWINER层捕捉各类字符的语义信息提供坚实的基础。

1.3.2 CoordKIWINER层

在自然语言处理中,文本信息通常包含多个层次的语义结构23, 24。而在中文猕猴桃文本中,文本特征主要可以归结为水平维度和垂直维度两大类。
其中水平维度反映的是文本序列的线性流动,能够突出字符或词语在句子及段落中的顺序关系,它着重于文本中字符或词汇的邻近性。例如在句子“眉县产出的猕猴桃品种优良”中,“眉县”“产出的”“猕猴桃”是一个连续的组合实体,它们的线性顺序关系至关重要25,直接决定了组合实体的识别成功与否。水平维度的主要任务是捕捉这种连续字符序列的语义关联,模型需要理解文本中的局部上下文信息,帮助识别词组级别的命名实体。
而垂直维度反映的是某个字符或词汇在其全局上下文中的关联性,特别是段落、篇章层次的上下文联系。例如,在描述猕猴桃病害的文本段落中,“细菌性软腐病”这一实体可能出现在段落的中部,而相关的防治方法可能出现在后文的其他位置。垂直维度捕捉的是这种长距离依赖关系,即不同部分的字符、词汇在文本全局中的联系,能够帮助模型理解那些分布较为分散、跨句甚至跨段的实体信息。
基于所发现的中文猕猴桃文本双维特性,本研究所提出了CoordKIWINER模块,并将其应用到中文猕猴桃文本命名实体识别模型KIWI-Coord-Prune中的CoordKIWINER层(如图2所示)。在此模块中,水平维度和垂直维度的信息分别通过交叉注意力机制(Criss-Cross Attention, CCNet)26与坐标注意力机制(Coordinate Attention, CoordAtt)27两个部分独立提取。具体方式如下。
令上一层的输入{v 1v 2,...,vn }为 X,设 X RC × H × W 为输入的特征张量,其中 C 表示通道数, H W 分别代表高度和宽度。该模块首先对 X 应用两个独立的注意力机制CoordAtt与CCNet,分别产生两组特征图 X coord X ccnet。其中特征图 X coord具有双通道特性,能够通过分别输入的文本信息中高度和宽度执行自适应平均池化,提取水平和垂直方向上的上下文信息,增强模型对文本特征的表示能力; X ccnet也能够进一步利用文本水平维度的位置信息。随后,这两组特征图通过融合函数F()28进行整合,以产生最终的增强特征图 X enhanced,具体如公式(2)~公式(4)所示。
X coord = CoordAtt X
X ccnet = CCNetAtt X
X enhanced = F( X coord X ccnetθ)
式中:CoordAtt()和CCNetAtt()分别为坐标注意力和交叉注意力模块;F()为特征融合函数;θ为可学习的参数集。本模块中特征融合函数F()来自Squeeze-and-Excitation(SE)模块28,它通过重新校准通道间的权重,能够动态调整水平维度和垂直维度特征的重要性。这不仅能够增加后续模型的表达能力,也提高了其对关键信息的捕捉效率。
CoordKIWINER层通过两个注意力机制,分别捕捉文本的水平和垂直维度特征,水平维度的提取通过自适应池化捕捉字符之间的顺序关系,而垂直维度的提取通过交叉注意力机制捕捉全局依赖。最终,通过特征融合函数将两者结合,增强了矢量序列{v 1v 2,...,vn }的特征表示,进而能够为后续的命名实体识别提供更强的表达能力和鲁棒性。

1.3.3 PruneBi-LSTM层

基于上一模块对双维矢量文本信息充分利用的前提下,此模块在Bi-LSTM29的基础上,采用剪枝策略,减少模型中的冗余权重参数,使得Bi-LSTM能够在保持动态时序建模能力的基础上,进一步提升模型的计算效率。该层不仅在处理如{v 1v 2,...,vn }这样的矢量序列时降低了计算复杂度,还通过剪枝策略去除模型中不重要的权重,使模型更加专注于对关键特征的学习,从而提升命名实体识别的精度。
首先介绍基本的LSTM与Bi-LSTM29, 30的实现细节,LSTM由遗忘门、输入门和输出门组成,三个门用来控制信息流。假设时间步t的字符xt 经过CoordKIWINER模块处理后得到了加强的字符表示 x t c。那么单向LSTM计算如公式(5)~公式(10)所示:
i t = σ ( W x i x t c + W h i h t - 1 + b i )
f t = σ ( W x f x t c + W h f h t - 1 + b f ) )
o t = σ ( W x o x t c + W h o h t - 1 + b o )
c t ~ = t a n h   ( W x c x t c + W h c h t - 1 + b c )
c t = f t c t - 1 + i t c t ~
h t = o t t a n h   ( c t )
式中: itftotct 分别为时刻t的输入门、遗忘门、输出门和记忆细胞;σ为sigmoid启动函数;tanh为双曲正切启动函数; W b 分别为相应门中的权重矩阵与偏置矢量; x tt时刻的输入矢量; c t ~t时刻的候选记忆细胞;ht 为LSTM单元的隐藏状态,即每个单元的输出; 为按元素点乘计算。
Bi-LSTM可以形式化地表示为公式(11)~公式(13),前向与后向LSTM的输出通过级连得到时间步t字符xt 的编码表示,并作为下一层CRF层的输入。
h t c = L S T M f o r w a r d ( x t c , h t - 1 c )  
h t c = L S T M b a c k w a r d ( x t c , h t + 1 c )
h t c = [ h t c ; h t c ]
式中: h t c 为从左到右前向LSTM计算得到的隐藏状态; h t - 1 c 为前一个时间步的隐藏状态; h t c 为从右到左后向LSTM计算得到的隐藏状态; h t + 1 c 为下一个时间步的隐藏状态; x t c为时间步t的输入特征(经过前层处理后的字符向量); h t c由前向LSTM与后向LSTM拼接得到,为最终的编码表示。
在以LSTM30与Bi-LSTM为基础的前提下,本研究所提出的PruneBi-LSTM模块的主要贡献与改进可以归纳为以下两点。
1)权重剪枝策略。本模块定义了一个剪枝函数Prune(),该函数能够根据剪枝比率α对模型的权重进行处理,去除那些对任务贡献较小的权重,从而减少计算量。Prune()函数首先对网络中的权重张量 W 进行处理,将其展平成一维向量,并按绝对值大小排序。然后,根据剪枝比率α确定剪枝阈值τ,最后将所有绝对值小于等于τ的权重置为零,可以表示为公式(14)
W = W ⊙(∣ W ∣>τ
式中: W 为剪枝后的权重张量,小于阈值τ的权重已经被置零;⊙为元素相乘操作,用来将绝对值小于等于阈值τ的权重置为零; W 为原始权重张量,包含每个时间步上的输入门、遗忘门、输出门,以及记忆细胞的权重矩阵和偏置项,具体表示为公式(15)
W ={ W f W i W o W C b f b i b o b C
式中: W f W i W o 分别为遗忘门、输入门和输出门的输入权重矩阵; W C 为记忆细胞的权重矩阵; b f b i b o b C 分别表示相应的偏置向量。
鉴于中文猕猴桃文本中存在嵌套实体和长距离依赖实体的特性,将初次剪枝比率α设定为0.1,以确保模型能够充分学习大部分特征。同时采取动态调整策略,使模型在初期阶段保留更多的权重,具有足够的表达能力学习复杂的农业文本信息。随着训练的进行,逐步增大剪枝比率,以进一步减少冗余权重,提升模型的计算效率。具体调整策略如下。
在初期,设定α=0.1,保留大部分权重。
在中期,随着模型逐渐收敛,以每10个训练轮次增加 0.05的速度逐步增加α,直至α达到0.3~0.5的范围。
在后期,当模型接近收敛时,提高α至0.5,移除更多冗余权重。
通过以上三步,使模型可以在剪枝过程中保持对双维信息的敏感度,同时逐步优化计算性能。
2)动态特征提取。结合剪枝后的权重,PruneBi-LSTM模块利用Bi-LSTM结构捕获文本序列的前向和后向上下文信息,从而实现对文本特征的动态提取。
通过将绝对值小于剪枝阈值τ的权重置零,从而使得模型的权重矩阵变为稀疏矩阵。而稀疏矩阵在硬件计算中能够减少乘法运算和内存占用,因此剪枝后的模型在处理大规模猕猴桃文本数据时能够以更低的计算成本进行推理。
此外,剪枝后的权重矩阵更加稀疏,存储所需的内存也大幅减少。这使得模型在处理复杂农业文本任务时,不但能够规避冗余信息,而且还能够以更少的资源实现更高效的推理和训练。
通过以上两点改进,PruneBi-LSTM层在减少模型参数的同时,仍保留了Bi-LSTM对上下文依赖的建模能力,进而确保了针对中文猕猴桃文本中嵌套复杂实体的精确识别。

1.3.4 自注意力机制和解码层

命名实体识别作为一种序列标注问题,其预测标签序列中的每个标签并非通过独立预测得到的,而是需要结合前后相邻的标签才能准确地得出预测结论31。例如,对于一个由多个字符组成的实体而言,其每个字符的标签中关于实体类别的标签是一致的。如果是独立地预测其中一个字符的标签,则无法利用这一信息,可能会导致预测错误。PruneBi-LSTM层虽然能够很好地学习到当前字符的上下文信息,但其对标签的预测是独立的,也不可避免地会产生标签偏置的问题。因此,在此模块后加入并行连接交叉注意力机制模块进一步提升模型特征提取能力的同时,后接一个最常用的CRF解码层来对标签序列进行联合译码,使其根据前后位置的标签对当前位置的标签进行准确预测,进而得到全局最优的标签序列。
具体来讲,通过PruneBi-LSTM模块处理后得到的语句特征矢量序列{v 1v 2,...,vn },令 H ={v 1v 2,...,vn },计算可能的输出标签序列 Y 的条件概率,计算如公式(16)公式(17)所示。
P Y | H = e x p S H , Y Y Y X e x p S H , Y
S H , Y = i , k λ k t k y i - 1 , y i , h , i +                                     i , 1 μ l s t y i , h , i
式中:tksl 均为特征函数;tk 是状态特征函数,用于提取状态序列的特征,其当前时刻的状态yi 依赖于前一时刻的状态yi-1 的影响;st 是转移特征函数,用于提取观测序列的特征,其当前时刻的状态yi 受当前时刻输入特征hi 的影响,特征函数只能取值0或者1,当某个特征满足时取1,不满足时则取0;λkμl 分别是两个特征函数的权重,用于衡量当前特征的重要程度; Y k 表示输入序列 X 所有可能的输出标签序列;S H Y )为得分函数,由状态特征函数与转移特征函数加和得出,用于衡量输入特征向量 H 与标签序列 Y 之间的匹配程度。得分函数得分越高,则模型认为该标签序列 Y 与输入 H 的匹配度越高。
最后,将条件概率最大的输出标签序列 Y *作为输入语句 X 最终的输出序列,如公式(18)所示。
Y * = a r g   m a x P Y | H

1.4 实验参数与环境设置

本研究的超参数配置经过参考相关研究并反复实验后确定,具体配置情况如表2所示。
表2 中文猕猴桃文本命名实体识别研究实验超参数设置

Table 2 Hyper-parameter settings for NER in Chinese kiwifruit texts

参数名称 取值 参数名称 取值
字符向量维度 50 词典向量维度 50
批大小 16 epoch 数 70
学习率 0.008 Dropout 率 0.5
学习率衰减 0.05 Prune LSTM 隐藏层大小 200
在字符嵌入层中,字符向量维度和词典向量维数均设置为 50。在Prune Bi-LSTM层中,正向和反向Prune LSTM 的维度大小设置为200,Prune LSTM 层数为1。为了防止过拟合的现象发生,本研究将dropout率32设定为0.5。在模型训练过程中,epoch数量设置为70,批大小设置为16。模型训练过程中采用随机梯度下降法进行优化,初始学习率为0.008,学习率衰减率为0.05。实验环境如表3所示。
表3 中文猕猴桃文本命名实体识别研究实验环境配置

Table. 3 Experimental environment setup for NER in Chinese kiwifruit texts

实验环境 配置参数
操作系统 Windows 11(x64)
CPU 英特尔 酷睿i9-13900H
GPU NVIDIA GeForce RTX4060(8 GB)
内存 64 GB
硬盘 2 T
Python版本 3.7.16
Pytorch版本 1.8.1
本研究使用了五个数据集进行实验:KIWIDPRO、人民日报、ClueNER、Boson和ResumeNER数据集。其中,KIWIDPRO为本研究自建数据集,其他四个数据集为公开数据集。
除了自建的KIWIDPRO数据集,人民日报数据集是最经典的中文命名实体识别数据集之一。该数据集基于人民日报多年的新闻报道,包含了大量的标注信息,涵盖人名、地名、机构名等多个实体类别;ClueNER数据集由中文语言理解评测基准提供,涵盖人名,地名,组织名等多种实体类型,具有较高的多样性和实用性;Boson数据集主要涉及金融、科技等领域的专业术语和实体,广泛用于中文NER的研究和评估;ResumeNER数据集也是常用的中文命名实体识别数据集,主要涵盖个人简历中的名称、职位、项目经验、获奖情况等相关实体。这五个数据集均分别被划分为训练集、验证集和测试集,比例为8∶1∶1。

2 结果与分析

2.1 评价指标

在中文命名实体识别领域,精确率(Precision, P)、召回率(Recall, R)和F 1得分(F 1-Score, F 133被用来评估不同模型的性能34,因此实验采用PRF 1作为评价指标,如公式(19)~公式(21)所示。
P = T P T P + F P × 100 %
R = T P T P + F N × 100 %
F 1 = 2 P × R P + R × 100 %
其中,TP(True Positives)为所有正样本中被正确识别为正样本的数量,FP(False Positives)是指负样本被错误地识别为正样本的数量;FN(False Negatives)是指正样本被错误地识别为负样本的数量。所有预测为正样本的结果中,预测正确的正样本越多P值越高;把测试数据中所有正样本预测对的越多R值越高;F 1值是PR的调和平均数,是对模型综合能力的评价。

2.2 在KIWIDPRO数据集上的实验

本研究选取了多个具有代表性的中文命名实体识别模型参与对比试验,包括LSTM、Bi-LSTM、LR-CNN35、Softlexicon-LSTM36,以及KIWINER。其中,LR-CNN、Softlexicon-LSTM,以及KIWINER均为基于词典的中文NER模型,实验结果如表4所示。
表4 KIWI-Coord-Prune模型在KIWIDPRO数据集上的对比实验结果

Table. 4 Comparative experimental results of the KIWI-Coord-Prune model on the KIWIDPRO dataset

模型 P/% R/% F 1/%
LSTM 74.85 79.86 77.27
Bi-LSTM 81.43 89.59 85.31
LR-CNN 86.36 90.86 88.55
Softlexicon-LSTM 85.84 90.26 87.99
KIWINER 87.09 90.47 88.75
KIWI-Coord-Prune 87.27 91.95 89.55

注:表中粗体表示六个模型在实验中的最佳结果。

表4可知,KIWI-Coord-Prune模型取得的F 1值高达89.55%,比其他具有代表性的模型高出0.80~12.28个百分点,具有显著优势。同时与基线模型KIWINER相比,KIWI-Coord-Prune的性能有了显著的提升,主要得益于其能够充分发掘和利用中文猕猴桃文本中所蕴含的双维度信息,特别是在处理复杂实体嵌套、跨段关联等方面表现出色。
此外,基于字符的LSTM和Bi-LSTM模型以及基于词典的LR-CNN和Softlexicon-LSTM模型的识别实验结果均低于KIWI-Coord-Prune,这进一步凸显了领域特征提取能力在中文猕猴桃文本命名实体识别中的重要性。传统的LSTM和Bi-LSTM模型尽管在一般的命名实体识别任务中具备一定优势,但由于其仅依赖单向或双向的字符序列建模方式,无法全面捕捉中文猕猴桃文本中复杂的水平和垂直信息特性,因而在多层嵌套实体和长距离依赖关系的处理上存在明显不足。而基于词典的LR-CNN和Softlexicon-LSTM模型虽然通过引入外部词典增强了上下文建模能力,但其特征提取方式较为通用,难以有效适配中文猕猴桃文本特有的领域知识结构,导致在处理组合实体和跨段实体关联时效果有限。
综上,KIWI-Coord-Prune模型在中文猕猴桃文本命名实体识别中取得的优异结果,不仅验证了其在领域数据集上的有效性,也表明其在复杂嵌套实体处理、跨段语义关联捕捉等方面的优势。

2.3 在公开数据集上的实验

为验证KIWI-Coord-Prune模型的泛化能力,在人民日报,ClueNER、Boson和ResumeNER四个公开数据集进行了实验,结果如表5~8所示。由于人民日报数据集中的实体分布较为均衡,且部分实体较为独立、实体关系简单,这些固有特性可能影响模型的识别效果;另外,Boson数据集中存在大量非标准化语言、拼音缩写、符号和表情等口语化表达,而这些在中文猕猴桃文本中较为罕见。再者,剪枝后的特征集主要集中于复杂实体,这可能导致简单实体的漏检。因而最终在人民日报数据集上,召回率略低于KIWINER;而在Boson数据集上,尽管P低于Softlexicon-LSTM和KIWINER,但仍取得了最佳的F 1值。
表5 KIWI-Coord-Prune模型在人民日报数据集上的对比实验结果

Table. 5 Comparative experimental results of the KIWI-Coord-Prune model on the People's Daily dataset

模型 P/% R/% F 1/%
LSTM 80.53 75.36 77.86
Bi-LSTM 85.75 80.67 83.13
LR-CNN 90.25 89.42 89.83
Softlexicon-LSTM 89.78 87.50 88.63
KIWINER 91.13 90.74 90.93
KIWI-Coord-Prune 91.96 90.09 91.02

注:表中粗体表示六个模型在实验中的最佳结果。

表6 KIWI-Coord-Prune模型在ClueNER数据集上的对比实验结果

Table. 6 Comparative experimental results of the KIWI-Coord-Prune model on the ClueNER dataset

模型 P/% R/% F 1/%
LSTM 71.99 73.09 72.54
Bi-LSTM 76.84 78.13 77.48
LR-CNN 82.13 84.15 83.13
Softlexicon-LSTM 77.39 81.72 79.49
KIWINER 81.05 80.01 80.52
KIWI-Coord-Prune 82.86 84.15 83.50

注:表中粗体表示六个模型在实验中的最佳结果。

表7 KIWI-Coord-Prune模型在Boson数据集上的对比实验结果

Table 7 Comparative experimental results of the KIWI-Coord-Prune model on the Boson dataset

模型 P/% R/% F 1/%
LSTM 76.16 68.85 72.32
Bi-LSTM 81.78 72.50 76.86
LR-CNN 79.45 81.51 80.47
Softlexicon-LSTM 85.12 80.06 82.51
KIWINER 84.40 82.40 83.39
KIWI-Coord-Prune 82.74 84.26 83.49

注:表中粗体表示六个模型在实验中的最佳结果。

表8 KIWI-Coord-Prune模型在ResumeNER数据集上的对比实验结果

Table 8 Comparative experimental results of the KIWI-Coord-Prune model on the ResumeNER dataset

模型 P/% R/% F 1/%
LSTM 85.41 82.32 83.84
Bi-LSTM 92.32 91.42 91.87
LR-CNN 95.37 94.84 95.11
Softlexicon-LSTM 95.30 95.77 95.53
KIWINER 95.58 95.11 95.34
KIWI-Coord-Prune 95.69 95.93 95.81

注:表中粗体表示六个模型在实验中的最佳结果。

在人民日报和Boson数据集上,尽管KIWI-Coord-Prune模型的PR指标略低于部分对比模型,但其F 1值始终保持最高,充分说明该模型在准确性与全面性之间取得了良好的平衡,具备更加优异的综合性能。
总体而言,本模型在这四个数据集上均取得了最佳F 1值,表明KIWI-Coord-Prune不仅在中文农业猕猴桃文本领域具有显著优势,还具备良好的泛化能力。同时也表明,双维信息不仅仅存在于中文猕猴桃文本领域,许多其他领域也可能具有类似的双维信息,并且这些信息可通过本模型有效提取。

2.4 消融实验

KIWI-Coord-Prune模型对双维特性加以充分利用的核心在于CoordKIWINER和PruneBi-LSTM两个模块。因此,本节通过控制变量法对这两个关键模块进行消融实验,以验证其有效性和合理性。

2.4.1 CoordKIWINER模块效果分析

为验证CoordKIWINER模块的有效性,将KIWI-Coord-Prune模型中的CoordKIWINER模块更换为AttSoftlexicon,在猕猴桃数据集与四个公开数据集上进行对比试验。实验使用F 1值作为评价指标,结果如图3蓝色与橙色折线所示。在所有数据集上,KIWI-Coord-Prune模型均取得最佳F 1值。该结果表明,增强字符矢量中水平与垂直双维度文本信息,不仅能够有效提升模型对于中文猕猴桃文本中双维度专业术语和组合嵌套实体的识别能力并具有性能优势,同时在其他领域也具有一定的泛化能力。
图3 CoordKIWINER模块和PruneBi-LSTM模块消融与对比实验结果

Fig.3 Ablation and comparative experimental results of the CoordKIWINER and the PruneBi-LSTM module

进一步分析图3可知,加入能有效利用文本双维信息的CoordKIWINER模块后,模型在中文猕猴桃数据集KIWIDPRO上的性能提升幅度最大,达1.14个百分点,显著高于在其他数据集上的0.16、0.02、0.28和0.29个百分点。这也再次印证了中文猕猴桃文本信息中所蕴含有较为突出的双维特性,并表明在文本信息数据量相同的情况下,CoordKIWINER模块能够从中文猕猴桃文本中提取出更为丰富的领域特征。

2.4.2 PruneBi-LSTM模块效果分析

为验证PruneBi-LSTM模块的有效性,将KIWI-Coord-Prune模型中的PruneBi-LSTM模块更换为常见的Bi-LSTM,并在猕猴桃数据集与四个公开数据集上进行了对比试验。实验采用F 1值作为评价指标,结果如图3蓝色和绿色折线所示。实验表明,KIWI-Coord-Prune模型在五个数据集上均取得最佳F 1值。这表明所设计的PruneBi-LSTM模块不仅具有领域特性,还具备良好的泛化能力。
图3可以看出,使用PruneBi-LSTM模块相比普通的Bi-LSTM编码层,模型在中文猕猴桃数据集KIWIDPRO和人民日报这两个数据集上的性能提升最大,分别达1.84和1.69个百分点。原因可能在于,人民日报作为官方媒体,其语言风格较为一致和规范,因而与中文猕猴桃数据集同样具有领域性。PruneBi-LSTM模块所采用的权重剪枝策略和动态特征提取方法,能够有效应对这种领域性强、语言规范性高的文本,从而提升识别效果。

2.5 不同的CoordKIWINER模块设计方法对模型的影响

为了更好地提取文本双维信息特征,CoordKIWINER模块在设计时采用了直接融合、优化注意力机制融合和网络结构调整残差优化这3种不同的设计方法,采用不同设计方法时模型的性能参数结果如图4所示。
图4 三种不同的CoordKIWINER模块设计方法实验结果对比

Fig. 4 Comparison of experimental results for three different CoordKIWINER module design methods

实验结果表明,CoordKIWINER模块采用优化注意力机制融合法的参数化综合方式效果最好,获得了最高的F 1值(89.55%);直接融合法效果最差;网络结构调整残差优化法效果介于两者之间。原因可能是直接融合法仅对不同注意力特征进行简单叠加,导致模型不能充分提取双维文本信息;网络结构调整残差优化法虽然改善了梯度流动并赋予矢量更多文本特征,但也会使得模型过于庞大和复杂,难以为后续模型提供关键领域文本特征;而优化注意力机制融合法通过局部与全局信息的整合,通过1×1卷积来降低维度提升计算效率,并结合自适应池化丰富了双维文本信息的表达。因此,最终选择实验结果较好的优化注意力机制融合法来作为CoordKIWINER模块的设计方法。

2.6 模型各类实体识别效果分析

表9对比了LSTM模型、Bi-LSTM模型、LR-CNN模型、Softlexicon-LSTM模型、KIWINER模型和本模型在10类猕猴桃相关实体上的识别效果,评价指标为F 1值,量纲为百分比(%)。
表9 不同模型针对猕猴桃不同类别实体的识别效果对比 ( %)

Table 9 Comparative analysis of recognition performance of different models on various kiwifruit entity categories

类别标签 类别 LSTM Bi-LSTM LR-CNN Softlexicon-LSTM KIWINER KIWI-Coord-Prune
KIWI 品种 79.57 80.01 83.73 84.15 85.64 85.88
DIS 病害 75.32 76.52 81.16 86.04 87.39 88.03
PEST 虫害 77.56 78.91 83.67 85.75 88.06 88.54
PART 部位 80.63 86.21 89.28 91.66 93.25 95.32
MED 农药 75.12 76.13 78.39 79.96 80.34 81.03
LOC 位置 75.03 80.12 83.43 86.32 88.41 89.76
COL 颜色 81.91 82.51 85.98 88.06 89.54 90.11
TAS 口感 77.24 82.02 84.44 84.96 87.20 88.65
SHA 形状 79.88 82.80 85.82 88.57 91.13 91.28
NUT 营养成分 75.32 76.96 79.15 81.24 83.67 83.72
可见,本研究提出的模型识别效果优于其他模型,特别是在“部位”和“形状”两个类别上,本模型识别的F 1值可高达95.32%和91.28%,表现出色。在“病害”类别中,本文模型与LSTM、Bi-LSTM和LR-CNN模型相比,针对病害实体类别的识别率有显著提升。例如在识别实体“细菌性软腐病”时,由于LSTM模型只能利用输入序列的历史信息来预测当前状态,无法考虑未来的上下文信息、Bi-LSTM模型对长距离依赖的病害实体处理能力较弱,以及LR-CNN模型过于依赖局部窗口特征的缘故,导致三个模型均只能识别出“细菌”和“软腐病”两个部分实体,从而造成实体识别效果不理想。相比之下,本模型通过并行的双维特征提取机制,有效捕捉了“细菌性软腐病”中词与词之间的水平关系,以及该实体与上下文中其他相关病害词的垂直依赖关系。此外,剪枝策略帮助模型进一步去除冗余信息,从而准确识别出完整的实体“细菌性软腐病”。在虫害类别中,本模型与KIWINER模型相比,识别能力提升了0.48个百分点,原因是该类别存在虫害嵌套、歧义等干扰信息,例如在识别一些具有相似名称的实体如“褐飞虱”和“白背飞虱”时,KIWINER模型区分能力不足,倾向于将其统一识别为“飞虱”,而本模型能够更好地通过剪枝策略保留更为关键的信息,从而减少实体混淆,实现了对“褐飞虱”和“白背飞虱”的准确识别。在另外一些部分实体类别如“品种”和“营养成分”的识别过程中,虽然本模型与KIWINER等其他模型表现接近,但依旧有优势,进一步体现了其在复杂实体识别任务中的适应性和鲁棒性。

3 结 论

本研究结合中文猕猴桃文本中普遍存在的双维度特征,提出了一种结合水平与垂直双维度文本信息的中文猕猴桃文本命名实体识别方法KIWI-Coord-Prune,并设计了CoordKIWINER与PruneBi-LSTM两个模块,有效解决了中文猕猴桃文本双维度信息未被利用这一问题,进而提升了针对猕猴桃文本命名实体识别的识别效果。实验结果表明,所提出的模型在10个猕猴桃属性实体上的识别率高达89.55%,并在人民日报、ClueNER、Boson和ResumeNER四个公开数据集上也取得了优异的效果,验证了模型的有效性和一定的泛化能力。
然而,本研究仍存在以下两点局限性:一是模型在领域特化与跨领域泛化能力之间的平衡尚需进一步探索,其在非农业领域文本中的适应性有待实证验证;二是模型在多语言环境下的适配性也有待进一步扩展。
因此,未来研究将聚焦于以下两方面的优化:一是通过引入多领域文本数据及跨语言预训练模型,进一步增强模型的领域鲁棒性和跨语言适应性;二是通过迁移学习验证模型在多语言场景下的有效性,并结合语言学特性进一步优化其识别性能。期待通过以上的优化改进,能够更好地服务于信息检索和推荐系统搭建等一系列自然语言处理下游任务。

利益冲突声明

本研究不存在研究者以及与公开研究成果有关的利益冲突。

1
齐秀娟, 郭丹丹, 王然, 等. 我国猕猴桃产业发展现状及对策建议[J]. 果树学报, 2020, 37(5): 754-763.

QI X J, GUO D D, WANG R, et al. Development status and suggestions on Chinese kiwifruit industry[J]. Journal of fruit science, 2020, 37(5): 754-763.

2
计洁, 金洲, 王儒敬, 等. 基于递进式卷积网络的农业命名实体识别方法[J]. 智慧农业(中英文), 2023, 5 (1): 122-131.

JI J, JIN Z, WANG R J, et al. Progressive convolutional net based method for agricultural named entity recognition[J]. Smart agriculture, 2023, 5(1): 122-131.

3
GOLSHAN P N, DASHTI H R, AZIZI S, et al. A study of recent contributions on information extraction[EB/OL]. arXiv:1803.056 67, 2018.

4
GUPTA N, SINGH S, ROTH D. Entity linking via joint encoding of types, descriptions, and context[C]// Proceedings of the 2017 Conference on Empirical Methods in NaturalLanguage Processing. San Diego, USA: ACL, 2017: 2681-2690.

5
GENG Z Q, CHEN G F, HAN Y M, et al. Semantic relation extraction using sequential and tree-structured LSTM with attention[J]. Information sciences, 2020, 509: 183-192.

6
JI B, LIU R, LI S S, et al. A hybrid approach for named entity recognition in Chinese electronic medical record[J]. BMC medical informatics and decision making, 2019, 19(2): ID 64.

7
张善文, 王振, 王祖良. 结合知识图谱与双向长短时记忆网络的小麦条锈病预测[J]. 农业工程学报, 2020, 36(12): 172-178.

ZHANG S W, WANG Z, WANG Z L. Prediction of wheat stripe rust disease by combining knowledge graph and bidirectional long short term memory network[J]. Transactions of the Chinese society of agricultural engineering, 2020, 36(12): 172-178.

8
刘浏, 王东波. 命名实体识别研究综述[J]. 情报学报, 2018, 37(3): 329-340.

LIU L, WANG D B. A review on named entity recognition[J]. Journal of the China society for scientific and technical information, 2018, 37(3): 329-340.

9
赵继贵, 钱育蓉, 王魁, 等. 中文命名实体识别研究综述[J]. 计算机工程与应用, 2024, 60(1): 15-27.

ZHAO J G, QIAN Y R, WANG K, et al. Survey of Chinese named entity recognition research[J]. Computer engineering and applications, 2024, 60(1): 15-27.

10
杜晋华, 尹浩, 冯嵩. 中文电子病历命名实体识别的研究与进展[J]. 电子学报, 2022, 50(12): 3030-3053.

DU J H, YIN H, FENG S. Research and development of named entity recognition in Chinese electronic medical record[J]. Acta electronica sinica, 2022, 50(12): 3030-3053.

11
陈婕卿, 竹志超, 张锋, 等. 中文电子病历命名实体识别方法研究[J]. 医学信息学杂志, 2024, 45(4): 78-84.

CHEN J Q, ZHU Z C, ZHANG F, et al. Study on Named Entity Recognition of Chinese Electronic Medical Records[J]. Journal of medical informatics, 2024, 45(04): 78-84.

12
ZHANG Z Q, ZHENG X W, ZHANG J S. Machine reading comprehension based named entity recognition for medical text[J/OL]. Multimedia tools and applications, 2025. (2025-01-07)[2025-02-13].

13
张文东, 吴子炜, 宋国昌, 等. 基于SiKuBERT与多元数据嵌入的中医古籍命名实体识别[J]. 华南理工大学学报(自然科学版), 2024, 52(6): 128-137.

ZHANG W D, WU Z W, SONG G C, et al. Named entity recognition of traditional Chinese medicine classics based on SiKuBERT and multivariate data embedding[J]. Journal of South China university of technology (natural science edition), 2024, 52(6): 128-137.

14
聂啸林, 张礼麟, 牛当当, 等. 面向葡萄知识图谱构建的多特征融合命名实体识别[J]. 农业工程学报, 2024, 40(3): 201-210.

NIE X L, ZHANG L L, NIU D D, et al. Multi-feature fusion named entity recognition method for grape knowledge graph construction[J]. Transactions of the Chinese society of agricultural engineering, 2024, 40(3): 201-210.

15
毕达天, 张雪, 孔婧媛, 等. 基于异质图注意力网络与多特征融合的跨社交媒体用户识别研究[J]. 情报学报, 2024, 43(10): 1213-1226.

BI D T, ZHANG X, KONG J Y, et al. User identification across social media based on heterogeneous graph attention network and multi-feature fusion[J]. Journal of the China society for scientific and technical information, 2024, 43(10): 1213-1226.

16
ARAS G, MAKAROĞLU D, DEMIR S, et al. An evaluation of recent neural sequence tagging models in Turkish named entity recognition[J]. Expert systems with applications, 2021, 182: ID 115049.

17
DRURY B, ROCHE M. A survey of the applications of text mining for agriculture[J]. Computers and electronics in agriculture, 2019, 163: ID 104864.

18
李书琴, 张明美, 刘斌. 融合字词语义信息的猕猴桃种植领域命名实体识别研究[J]. 农业机械学报, 2022, 53(12): 323-331.

LI S Q, ZHANG M M, LIU B. Kiwifruit planting entity recognition based on character and word information fusion[J]. Transactions of the Chinese society for agricultural machinery, 2022, 53(12): 323-331.

19
ZHANG L L, NIE X L, ZHANG M M, et al. Lexicon and attention-based named entity recognition for kiwifruit diseases and pests: A Deep learning approach[J]. Frontiers in plant science, 2022, 13: ID 1053449.

20
季源泽, 李霏. CMNER: 基于微博的中文多模态实体识别数据集[J]. 计算机技术与发展, 2024, 34(10): 110-117.

JI Y Z, LI F. CMNER: A Chinese multimodal NER dataset based on weibo[J]. Computer technology and development, 2024, 34(10): 110-117.

21
XU Y, TAN X, TONG X, et al. A robust chinese named entity recognition method based on integrating dual-layer features and csbert[J]. Applied sciences, 2024, 14(3): ID 1060.

22
LIANG J Q, LI D C, LIN Y T, et al. Named entity recognition of Chinese crop diseases and pests based on RoBERTa-wwm with adversarial training[J]. Agronomy, 2023, 13(3): ID 941.

23
YOUNG T, HAZARIKA D, PORIA S, et al. Recent trends in deep learning based natural language processing[J]. IEEE computational intelligence magazine, 2018, 13(3): 55-75.

24
KHURANA D, KOLI A, KHATTER K, et al. Natural language processing: State of the art, current trends and challenges[J]. Multimedia tools and applications, 2023, 82(3): 3713-3744.

25
张宏鸣, 齐梓均, 赵春江, 等. 一种考虑双维信息的中文猕猴桃文本命名实体识别方法: CN202410434428.0[P]. 2024-07-12.

26
HUANG Z L, WANG X G, HUANG L C, et al. CCNet: Criss-cross attention for semantic segmentation[C]// 2019 IEEE/CVF International Conference on Computer Vision (ICCV). Piscataway, New Jersey, USA: IEEE, 2019: 603-612.

27
HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design[C]// 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, New Jersey, USA: IEEE, 2021: 13708-13717.

28
HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, New Jersey, USA: IEEE, 2018: 7132-7141.

29
HUANG Z, XU W, YU K. Bidirectional LSTM-CRF models for sequence tagging[EB/OL]. arXiv:1508.01991, 2015.

30
DONG C H, ZHANG J J, ZONG C Q, et al. Character-based LSTM-CRF with radical-level features for Chinese named entity recognition[C]// Natural Language Understanding and Intelligent Applications. Cham, Germany: Springer International Publishing, 2016: 239-250.

31
AKBIK A, BLYTHE D, VOLLGRAF R. Contextual string embeddings for sequence labeling[C]// Proceedings of the 27th International Conference on Computational Linguistics. San Diego, USA: ACL, 2018: 1638-1649.

32
MURPHY K, SCHÖLKOPF B, SRIVASTAVA N, et al. Dropout: A simple way to prevent neural networks from overfitting[J]. Journal of machine learning research, 2014, 15(1): 1929-1958.

33
GRIDACH M. Character-level neural network for biomedical named entity recognition[J]. Journal of biomedical informatics, 2017, 70: 85-91.

34
LI S Y, QI R Z, ZHANG S N. Chinese named entity recognition based on boundary enhancement with multi-class information[J]. Applied sciences, 2023, 13(23): ID 12925.

35
GUI T, MA R T, ZHANG Q, et al. CNN-based Chinese NER with lexicon rethinking[C]// Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence. Macao, China: International Joint Conferences on Artificial Intelligence, 2019: 4982-4988.

36
MA R, PENG M, ZHANG Q, et al. Simplify the usage of lexicon in Chinese NER[EB/OL]. arXiv: 1908.05969, 2019.

Outlines

/