随笔分类 - NLP
摘要:图解Transformer 前言 Attention这种机制最开始应用于机器翻译的任务中,并且取得了巨大的成就,因而在最近的深度学习模型中受到了大量的关注。在在这个基础上,我们提出一种完全基于Attention机制来加速深度学习训练过程的算法模型-Transformer。事实证明Transforme
阅读全文
摘要:网上比较好的几篇关于最大熵模型解释的博文: https://wenku.baidu.com/view/ba92eb045a8102d277a22f2e.html https://www.jianshu.com/p/e7c13002440d https://blog.csdn.net/v_july_v
阅读全文
摘要:从冷战到深度学习:一篇图文并茂的机器翻译史 从冷战到深度学习:一篇图文并茂的机器翻译史 选自Vas3k.com 作者:Ilya Pestov 英语版译者:Vasily Zubarev 中文版译者:Panda 实现高质量机器翻译的梦想已经存在了很多年,很多科学家都为这一梦想贡献了自己的时间和心力。从早
阅读全文
摘要:怎么来的? 我们平时用的精度accuracy,也就是整体的正确率 acc = predict_right_num / predict_num 这个虽然常用,但不能满足所有任务的需求。比如,因为香蕉太多了,也不能拨开人工的一个一个的看它的好坏(我爱吃啊,想想就心疼),此时我们就需要有一种方法,代替拨开
阅读全文
摘要:1.用LTP命名实体识别时 句号。本该是/O 为什么有的句号却没有被标记出呢? 2.每段文字开始前,总会有一个/O 为什么? 图片如下
阅读全文