摘要: 1 import torch 2 from torch import nn, optim 3 from torch.autograd import Variable 4 import torch.nn.functional as F 5 6 CONTEXT_SIZE = 2 # 2 words to 阅读全文
posted @ 2019-06-24 14:42 交流_QQ_2240410488 阅读(559) 评论(0) 推荐(0) 编辑
摘要: 奇异值分解(Singular Value Decomposition,SVD)是一种矩阵分解(Matrix Decomposition)的方法。除此之外,矩阵分解还有很多方法,例如特征分解(Eigendecomposition)、LU分解(LU decomposition)、QR分解(QR deco 阅读全文
posted @ 2019-06-24 14:10 交流_QQ_2240410488 阅读(774) 评论(0) 推荐(0) 编辑
摘要: 最近有个任务:利用 RNN 进行句子补全,即给定一个不完整的句子,预测其后续的字词。本文使用了 Seq2Seq 模型,输入为 5 个中文字词,输出为 1 个中文字词。目录 关于RNN 语料预处理 搭建数据集 搭建模型 训练模型 测试模型 保存/加载模型 1.关于RNN 自被提出以来,循环神经网络(R 阅读全文
posted @ 2019-06-24 10:37 交流_QQ_2240410488 阅读(601) 评论(0) 推荐(0) 编辑
摘要: 最近有个任务:利用 RNN 进行句子补全,即给定一个不完整的句子,预测其后续的字词。本文使用了 Seq2Seq 模型,输入为5个中文字词,输出为一个中文字词。 目录 关于RNN 语料预处理 搭建数据集 搭建模型 训练模型 测试模型 保存/加载模型 1.关于RNN 自被提出以来,循环神经网络(Recu 阅读全文
posted @ 2019-06-24 10:34 交流_QQ_2240410488 阅读(1028) 评论(0) 推荐(0) 编辑
摘要: 1.debug,全部打印 2.打断点debug,出现单步调试等按钮,只运行断点前 3.setup over 调试一行代码 4.setup out 运行断点后面所有代码 5.debug窗口显示调试按钮 6.运行到对应的点会显示变量的值 7.step into:单步执行,遇到子函数就进入并且继续单步执行 阅读全文
posted @ 2019-06-22 22:05 交流_QQ_2240410488 阅读(1267) 评论(0) 推荐(0) 编辑
摘要: step into:单步执行,遇到子函数就进入并且继续单步执行(简而言之,进入子函数); step over:在单步执行时,在函数内遇到子函数时不会进入子函数内单步执行,而是将子函数整个执行完再停止,也就是把子函数整个作为一步。有一点,经过我们简单的调试,在不存在子函数的情况下是和step into 阅读全文
posted @ 2019-06-22 21:59 交流_QQ_2240410488 阅读(1714) 评论(0) 推荐(0) 编辑
摘要: 1、终端(terminal) 终端(termimal)= tty(Teletypewriter, 电传打印机),作用是提供一个命令的输入输出环境,在linux下使用组合键ctrl+alt+T打开的就是终端,可以认为terminal和tty是同义词。 2、shell shell是一个命令行解释器,是l 阅读全文
posted @ 2019-06-22 21:25 交流_QQ_2240410488 阅读(1808) 评论(0) 推荐(0) 编辑
摘要: pytorch 的 Variable 对象中有两个方法,detach和 detach_ 本文主要介绍这两个方法的效果和 能用这两个方法干什么。 detach 官方文档中,对这个方法是这么介绍的。 返回一个新的 从当前图中分离的 Variable。返回的 Variable 永远不会需要梯度如果 被 d 阅读全文
posted @ 2019-06-22 17:41 交流_QQ_2240410488 阅读(236) 评论(0) 推荐(0) 编辑
摘要: 记录一下对RNN,LSTM,GRU基本原理(正向过程以及简单的反向过程)的个人理解 RNN Recurrent Neural Networks,循环神经网络 (注意区别于recursive neural network,递归神经网络) 为了解决DNN存在着无法对时间序列上的变化进行建模的问题(如自然 阅读全文
posted @ 2019-06-22 15:48 交流_QQ_2240410488 阅读(849) 评论(0) 推荐(0) 编辑
摘要: 本文中的RNN泛指LSTM,GRU等等 CNN中和RNN中batchSize的默认位置是不同的。 CNN中:batchsize的位置是position 0. RNN中:batchsize的位置是position 1. 在RNN中输入数据格式: 对于最简单的RNN,我们可以使用两种方式来调用,torc 阅读全文
posted @ 2019-06-22 15:43 交流_QQ_2240410488 阅读(4389) 评论(1) 推荐(2) 编辑