CSpace
ACRank:在神经排序模型中引入检索公理知识
薄琳1; 庞亮2; 张朝亮3; 王钊伟3; 董振华3; 徐君1; 文继荣1
2023
发表期刊计算机学报
ISSN0254-4164
卷号46期号:10页码:2117
摘要传统的信息检索(Information Retrieval,IR)是知识驱动的方法,如以BM25、LMIR等为代表的检索模型在设计过程中考虑词频、逆文档频率、文档长度等关键因素计算查询-文档的相关性得分.这些关键因素被总结为IR公理,在传统模型的设计和评价中起到了至关重要的作用.如词频规则认为有更多查询词的文档更相关.与之相对,数据驱动的神经排序模型基于大量的标注数据与精巧的神经网络结构自动学习相关性评分函数,带来了显著的排序精度提升.传统IR公理知识是否能用来提升神经排序模型的效果是一个值得研究的重要问题且已有学者进行了初步探索,其首先通过公理指导增强数据生成,然后利用生成的标注数据直接训练神经网络.但IR公理的形式是通过比较匹配信号的强弱给出两个文档间相对的相关关系,而非直接给出文档的相关度标签.针对这一问题,本文提出了一种通过对比学习将IR公理知识引入神经排序模型的框架,称为ACRank.ACRank利用信息检索公理生成增强数据,抽取不同文档的匹配信号,利用对比学习拉开匹配信号间差距,使正样本匹配信号强于负样本,通过上述方式,ACRank将IR公理知识自然地融入到数据驱动的神经排序模型中.ACRank作为通用框架,可应用于不同规则,本文选择词频规则进行实验,基于大规模公开数据集上的实验结果表明,ACRank能够有效提升已有神经检索模型如BERT的排序精度,相关分析实验验证了该框架的有效性.
关键词neural ranking model information retrieval axiom contrastive learning knowledge driven data driven 神经检索模型 信息检索公理 对比学习 知识驱动 数据驱动
语种英语
文献类型期刊论文
条目标识符http://119.78.100.204/handle/2XEOYT63/38098
专题中国科学院计算技术研究所
作者单位1.中国人民大学
2.中国科学院计算技术研究所
3.深圳华为技术有限公司
推荐引用方式
GB/T 7714
薄琳,庞亮,张朝亮,等. ACRank:在神经排序模型中引入检索公理知识[J]. 计算机学报,2023,46(10):2117.
APA 薄琳.,庞亮.,张朝亮.,王钊伟.,董振华.,...&文继荣.(2023).ACRank:在神经排序模型中引入检索公理知识.计算机学报,46(10),2117.
MLA 薄琳,et al."ACRank:在神经排序模型中引入检索公理知识".计算机学报 46.10(2023):2117.
条目包含的文件
条目无相关文件。
个性服务
推荐该条目
保存到收藏夹
查看访问统计
导出为Endnote文件
谷歌学术
谷歌学术中相似的文章
[薄琳]的文章
[庞亮]的文章
[张朝亮]的文章
百度学术
百度学术中相似的文章
[薄琳]的文章
[庞亮]的文章
[张朝亮]的文章
必应学术
必应学术中相似的文章
[薄琳]的文章
[庞亮]的文章
[张朝亮]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。