上一页 1 2 3 4 5 6 ··· 8 下一页
摘要: 一、GRU算法 GRU(Gate Recurrent Unit,循环门单元)是循环神经网络(Recurrent Neural Network, RNN)的一种。和LSTM(Long-Short Term Memory)一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。 在LSTM中引入了 阅读全文
posted @ 2021-03-17 00:08 早起的小虫子 阅读(4440) 评论(0) 推荐(0) 编辑
摘要: Dice距离用于度量两个集合的相似性,因为可以把字符串理解为一种集合,因此Dice距离也会用于度量字符串的相似性。此外,Dice系数的一个非常著名的使用即实验性能评测的F1值。Dice系数定义如下: Dice 系数可以计算两个字符串的相似度: $Dice(s1,s2)=\frac{2*comm(s1 阅读全文
posted @ 2021-03-16 11:42 早起的小虫子 阅读(1778) 评论(0) 推荐(0) 编辑
摘要: TextRank 算法是一种用于文本的基于图的排序算法,其基本思想来源于谷歌的 PageRank算法,通过把文本分割成若干组成单元(句子),构建节点连接图,用句子之间的相似度作为边的权重,通过循环迭代计算句子的TextRank值,最后抽取排名高的句子组合成文本摘要。 自动文本摘要是自然语言处理(NL 阅读全文
posted @ 2021-03-16 10:56 早起的小虫子 阅读(1233) 评论(0) 推荐(0) 编辑
摘要: 一、概述 文本情感分析(Sentiment Analysis)是指利用自然语言处理和文本挖掘技术,对带有情感色彩的主观性文本进行分析、处理和抽取的过程。情感分析任务按其分析的粒度可以分为篇章级,句子级,词或短语级;按其处理文本的类别可分为基于产品评论的情感分析和基于新闻评论的情感分析;按其研究的任务 阅读全文
posted @ 2021-03-12 10:14 早起的小虫子 阅读(3926) 评论(0) 推荐(0) 编辑
摘要: 一、前言 文本分类(Text Classification或Text Categorization,TC),或者称为自动文本分类(Automatic Text Categorization),是指计算机将载有信息的一篇文本映射到预先给定的某一类别或某几类别主题的过程。文本分类另外也属于自然语言处理领 阅读全文
posted @ 2021-03-11 22:19 早起的小虫子 阅读(4466) 评论(0) 推荐(0) 编辑
摘要: 序列标注问题是自然语言中最常见的问题,在深度学习火起来之前,常见的序列标注问题的解决方案都是借助于HMM模型,最大熵模型,CRF模型。尤其是CRF,是解决序列标注问题的主流方法。随着深度学习的发展,RNN在序列标注问题中取得了巨大的成果。而且深度学习中的end-to-end,也让序列标注问题变得更简 阅读全文
posted @ 2021-02-13 22:40 早起的小虫子 阅读(498) 评论(0) 推荐(0) 编辑
摘要: 什么是注意力(Attention)? 注意力机制可看作模糊记忆的一种形式。记忆由模型的隐藏状态组成,模型选择从记忆中检索内容。深入了解注意力之前,先简要回顾Seq2Seq模型。传统的机器翻译主要基于Seq2Seq模型。该模型分为编码层和解码层,并由RNN或RNN变体(LSTM、GRU等)组成。编码矢 阅读全文
posted @ 2021-02-13 13:57 早起的小虫子 阅读(371) 评论(0) 推荐(0) 编辑
摘要: 一、Seq2Seq简介 seq2seq 是一个Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列。Encoder 中将一个可变长度的信号序列变为固定长度的向量表达,Decoder 将这个固定长度的向量变成可变长度的目标的信号序列。 很多自然语言处理任务,比如聊天机器人, 阅读全文
posted @ 2021-02-12 23:10 早起的小虫子 阅读(7004) 评论(0) 推荐(0) 编辑
摘要: 1.0 什么是注意力机制? 注意力机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐从而增加部分区域的观察精细度的机制。例如人的视觉在处理一张图片时,会通过快速扫描全局图像,获得需要重点关注的目标区域,也就是注意力焦点。然后对这一区域投入更多的注意力资源,以获得更多所需要关注的目标的细 阅读全文
posted @ 2021-02-09 23:06 早起的小虫子 阅读(822) 评论(0) 推荐(0) 编辑
摘要: 目录 Transformer 1. 前言 2. Transformer详解3. 总结 2.1 Transformer整体结构 2.2 输入编码 2.3 Self-Attention 2.4 Multi-Head Attention 2.5 位置编码 2.6 残差结构 2.7 解码器结构 2.8 Th 阅读全文
posted @ 2021-02-06 13:25 早起的小虫子 阅读(4208) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 8 下一页