神经机器翻译(NMT)相关资料整理
摘要:作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明。谢谢! 1 简介 自2013年提出了神经机器翻译系统之后,神经机器翻译系统取得了很大的进展。最近几年相关的论文,开源系统也是层出不穷。本文主要梳理了神经机器翻译入门、进阶所需
阅读全文
posted @
2017-01-12 08:12
老顽童2007
阅读(15509)
推荐(3) 编辑
结巴分词5--关键词抽取
摘要:作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明。谢谢! 1 简介 关键词抽取就是从文本里面把跟这篇文档意义最相关的一些词抽取出来。这个可以追溯到文献检索初期,当时还不支持全文搜索的时候,关键词就可以作为搜索这篇论文的词语。
阅读全文
posted @
2016-12-14 07:49
老顽童2007
阅读(31866)
推荐(5) 编辑
结巴分词4--词性标注
摘要:作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明。谢谢! 1 简介 词性(part of speech)是词汇基本的语法范畴,通常也称为词类,主要用来描述一个词在上下文的作用。例如,描述一个概念的词就是名词,在下文引用这个名
阅读全文
posted @
2016-12-12 17:58
老顽童2007
阅读(16878)
推荐(1) 编辑
结巴分词3--基于汉字成词能力的HMM模型识别未登录词
摘要:作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明。谢谢! 1 算法简介 在 "结巴分词2 基于前缀词典及动态规划实现分词" 博文中,博主已经介绍了基于前缀词典和动态规划方法实现分词,但是如果没有前缀词典或者有些词不在前缀词典
阅读全文
posted @
2016-11-23 08:01
老顽童2007
阅读(12445)
推荐(4) 编辑
结巴分词2--基于前缀词典及动态规划实现分词
摘要:作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明。谢谢! 1 简介 jieba分词主要是基于统计词典,构造一个前缀词典;然后利用前缀词典对输入句子进行切分,得到所有的切分可能,根据切分位置,构造一个有向无环图;通过动态规划算
阅读全文
posted @
2016-11-21 08:11
老顽童2007
阅读(13003)
推荐(1) 编辑
结巴分词1--结巴分词系统介绍
摘要:作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明。谢谢! 0 起因 由于博主之前做了一些文本挖掘的项目,在项目中或多或少的用到了分词模块,对于中文分词,博主一般使用Python开发的 "jieba分词" 组件。最近,博主想阅
阅读全文
posted @
2016-11-18 08:16
老顽童2007
阅读(10962)
推荐(3) 编辑