Institute of Computing Technology, Chinese Academy IR
面向大规模语料的语言模型研究新进展 | |
骆卫华1; 刘群2; 白硕3 | |
2009 | |
发表期刊 | 计算机研究与发展 |
ISSN | 1000-1239 |
卷号 | 000期号:010页码:1704 |
摘要 | N元语言模型是统计机器翻译、信息检索、语音识别等很多自然语言处理研究领域的重要工具.由于扩大训练语料规模和增加元数对于提高系统性能很有帮助,随着可用语料迅速增加,面向大规模训练语料的高元语言模型(如N≥5)的训练和使用成为新的研究热点.介绍了当前这个问题的最新研究进展,包括了集成数据分治、压缩和内存映射的一体化方法,基于随机存取模型的表示方法,以及基于分布式并行体系的语言模型训练与查询方法等几种代表性的方法,展示了它们在统计机器翻译中的性能,并比较了这些方法的优缺点. |
关键词 | 语言模型 数据压缩 随机存取模型 布隆过滤器 分布式并行体系 |
语种 | 英语 |
文献类型 | 期刊论文 |
条目标识符 | http://119.78.100.204/handle/2XEOYT63/35060 |
专题 | 中国科学院计算技术研究所期刊论文_中文 |
作者单位 | 1.中国科学院大学 2.中国科学院计算技术研究所 3.上海证券交易所 |
推荐引用方式 GB/T 7714 | 骆卫华,刘群,白硕. 面向大规模语料的语言模型研究新进展[J]. 计算机研究与发展,2009,000(010):1704. |
APA | 骆卫华,刘群,&白硕.(2009).面向大规模语料的语言模型研究新进展.计算机研究与发展,000(010),1704. |
MLA | 骆卫华,et al."面向大规模语料的语言模型研究新进展".计算机研究与发展 000.010(2009):1704. |
条目包含的文件 | 条目无相关文件。 |
个性服务 |
推荐该条目 |
保存到收藏夹 |
查看访问统计 |
导出为Endnote文件 |
谷歌学术 |
谷歌学术中相似的文章 |
[骆卫华]的文章 |
[刘群]的文章 |
[白硕]的文章 |
百度学术 |
百度学术中相似的文章 |
[骆卫华]的文章 |
[刘群]的文章 |
[白硕]的文章 |
必应学术 |
必应学术中相似的文章 |
[骆卫华]的文章 |
[刘群]的文章 |
[白硕]的文章 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论