摘要: 1、softmax 函数 Softmax(x) 也是一个 non-linearity, 但它的特殊之处在于它通常是网络中一次操作. 这是因为它接受了一个实数向量并返回一个概率分布.其定义如下. 定义 x 是一个实数的向量(正数或负数都无所谓, 没有限制). 然后, 第i个 Softmax(x) 的组 阅读全文
posted @ 2019-06-22 15:30 交流_QQ_2240410488 阅读(8776) 评论(0) 推荐(0) 编辑
摘要: 零 seq2seq是从序列到序列的学习过程,最重要的是输入序列和输出序列是可变长的,这种方式就非常灵活了,典型的机器翻译就是这样一个过程。 一 最基本的seq2seq网络架构如下所示: 可以看到,encoder构成一个RNN的网络,decoder也是一个RNN的网络。训练过程和推断过程有一些不太一样 阅读全文
posted @ 2019-06-22 15:23 交流_QQ_2240410488 阅读(518) 评论(0) 推荐(0) 编辑
摘要: squeeze的用法主要就是对数据的维度进行压缩或者解压。 先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。squeeze(a)就是将a中所有为1的维度删掉。不为 阅读全文
posted @ 2019-06-22 14:43 交流_QQ_2240410488 阅读(1398) 评论(0) 推荐(0) 编辑
摘要: 发现 对于torch.matmul和torch.bmm,都能实现对于batch的矩阵乘法: a = torch.rand((2,3,10))b = torch.rand((2,2,10))### matmal()res1 = torch.matmul(a,b.transpose(1,2))print 阅读全文
posted @ 2019-06-22 14:14 交流_QQ_2240410488 阅读(5967) 评论(0) 推荐(0) 编辑
摘要: import torch x = torch.randn(128, 20) # 输入的维度是(128,20)m = torch.nn.Linear(20, 30) # 20,30是指维度output = m(x)print('m.weight.shape:\n ', m.weight.shape)p 阅读全文
posted @ 2019-06-22 13:24 交流_QQ_2240410488 阅读(13634) 评论(0) 推荐(0) 编辑
摘要: 基于BP神经网络与遗传算法实现盾构砂浆性能优化方法技术 技术编号:14113655阅读:494留言:0更新日期:2016-12-07 11:00 基于BP神经网络与遗传算法实现盾构砂浆性能优化方法技术 技术编号:14113655阅读:494留言:0更新日期:2016-12-07 11:00 本发明专 阅读全文
posted @ 2019-06-22 11:09 交流_QQ_2240410488 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 刚从图像处理的hole中攀爬出来,刚走一步竟掉到了另一个hole(fire in the hole*▽*) 1.RNN中的attentionpytorch官方教程:https://pytorch.org/tutorials/intermediate/seq2seq_translation_tutor 阅读全文
posted @ 2019-06-22 10:59 交流_QQ_2240410488 阅读(4484) 评论(1) 推荐(0) 编辑
摘要: 前面阐述注意力理论知识,后面简单描述PyTorch利用注意力实现机器翻译 Effective Approaches to Attention-based Neural Machine Translation 简介 Attention介绍 在翻译的时候,选择性的选择一些重要信息。详情看这篇文章 。 本 阅读全文
posted @ 2019-06-21 17:47 交流_QQ_2240410488 阅读(3854) 评论(0) 推荐(0) 编辑
摘要: Linear 是module的子类,是参数化module的一种,与其名称一样,表示着一种线性变换。 创建 parent 的init函数 Linear的创建需要两个参数,inputSize 和 outputSize inputSize:输入节点数 outputSize:输出节点数 所以Linear 有 阅读全文
posted @ 2019-06-21 16:44 交流_QQ_2240410488 阅读(426) 评论(0) 推荐(0) 编辑
摘要: 在pytorch里面实现word embedding是通过一个函数来实现的:nn.Embedding 1 2 3 4 5 6 7 8 9 10 11 12 13 # -*- coding: utf-8 -*- import numpy as np import torch import torch. 阅读全文
posted @ 2019-06-21 16:37 交流_QQ_2240410488 阅读(230) 评论(0) 推荐(0) 编辑