随笔分类 -  NLP学习

摘要:条件随机场 作者:elfin 参考资料来源:《统计学习方法》第二版 Top Bottom 1、概率图模型 概率图定义: 由图表示的概率分布,这个概率分布假设为 P(Y)Y是一组随机变量。 ​ 由无向图 G=(V,E) 表示概率 阅读全文
posted @ 2021-11-19 17:00 巴蜀秀才 阅读(391) 评论(0) 推荐(0) 编辑
摘要:隐马尔可夫 作者:elfin 参考资料来源:《统计学习方法》第二版 本文主要基于李航老师的《统计学习方法》第二版与在学校期间残留的记忆书写,如有差池,望指教! Top Bottom 代码开源:https://github.com/firstelfin/HMM 1、隐马尔可夫简介 ​ 在很多人看来,H 阅读全文
posted @ 2021-07-28 08:56 巴蜀秀才 阅读(321) 评论(0) 推荐(0) 编辑
摘要:Autoformer:用于长期序列预测的自相关分解Transformer 作者:elfin 参考资料来源:Autoformer 摘要 ​ 时间的长依赖预测是极端天气预警和长期能源消耗规划等实际应用的关键需求。本文研究时间序列的长期预测问题。先前的tranformer模型采用各种自我注意机制来发现长期 阅读全文
posted @ 2021-07-14 14:31 巴蜀秀才 阅读(1850) 评论(0) 推荐(1) 编辑
摘要:Swin Transformer 作者:elfin Top Bottom 1、Batch Normalization 使用BN时,我们只需要使用torch.nn.BatchNorm2d()指定通道数即可。它会在每个通道上分别求均值和方差在进行标准化。 1.1 数据准备 import torch Ba 阅读全文
posted @ 2021-04-29 17:28 巴蜀秀才 阅读(230) 评论(0) 推荐(0) 编辑
摘要:LSTM::只需研究一次 作者:elfin 资料来源:torch.nn.LSTM Top Bottom 1、简述RNN ​ 在传统的统计学中,有一门专门介绍时间序列的课程。其主要研究事件的发生与时间(可以是广义的)有较强的关联,这时传统机器学习算法并不能很好地解决这种带有时序的数据预测、特征挖掘。随 阅读全文
posted @ 2021-04-07 18:01 巴蜀秀才 阅读(473) 评论(0) 推荐(0) 编辑
摘要:ubunt环境准备 此次实验我们以Ubuntu18.04为基础,我的实验环境是Windows中的虚拟机(18.04)下,实验docker拉取一个Ubuntu18.04的镜像,生成一个容器。其挂载我宿主机用户目录下的test目录到容器内的/home 镜像下载命令 docker pull ubuntu: 阅读全文
posted @ 2020-08-24 18:20 巴蜀秀才 阅读(883) 评论(0) 推荐(0) 编辑
摘要:NLP资源 目录: skip-gram 模型介绍: 一文详解 Word2vec 之 Skip-Gram 模型(结构篇)、 word2vec原理(一) CBOW与Skip-Gram模型基础、 word2vec原理(二) 基于Hierarchical Softmax的模型、 word2vec原理(三) 阅读全文
posted @ 2020-05-05 10:07 巴蜀秀才 阅读(109) 评论(0) 推荐(0) 编辑
摘要:目录 1. 模型原理 1.1 论文 1.2 网络结构 2. 实现 回到顶部 1. 模型原理 1.1 论文 Yoon Kim在论文(2014 EMNLP) Convolutional Neural Networks for Sentence Classification提出TextCNN。 将卷积神经 阅读全文
posted @ 2020-03-08 23:00 巴蜀秀才 阅读(2396) 评论(0) 推荐(0) 编辑
摘要:给定两个单词 word1 和 word2,计算出将 word1 转换成 word2 所使用的最少操作数 。 你可以对一个单词进行如下三种操作: 插入一个字符 删除一个字符 替换一个字符 代码实现: 1 # 编辑距离 2 class Solution: 3 def minDistance(self, 阅读全文
posted @ 2019-11-19 16:30 巴蜀秀才 阅读(259) 评论(0) 推荐(0) 编辑
摘要:数据来源:https://leetcode-cn.com/problems/longest-increasing-subsequence/ 最大子序和 给定一个整数数组 nums ,找到一个具有最大和的连续子数组(子数组最少包含一个元素),返回其最大和。 代码如下所示: 1 class Soluti 阅读全文
posted @ 2019-11-19 14:23 巴蜀秀才 阅读(809) 评论(0) 推荐(0) 编辑
摘要:TF-IDF TF-IDF统计的是词库所有词的出现频率与在文件级出现频率的倒数的对数乘积。 TF:即词语出现的频率。 IDF:记每个词出现的文件数为 file_i,总文件数为file_num,IDF[I] = log(file_num/(1+file_i)) TF-IDF = TF * IDF 1 阅读全文
posted @ 2019-11-15 13:25 巴蜀秀才 阅读(447) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示