摘要: 今天要讲的是天才哈夫曼的哈夫曼编码,这是树形数据结构的一个典型应用。 !!!敲黑板!!!哈夫曼树的构建以及编码方式将是我们的学习重点。 老方式,代码+解释,手把手教你Python完成哈夫曼编码的全过程。、 首先,我先假设你已经有了二叉树的相关知识,主要就是概念和遍历方式这些点。如果没有这些知识储备, 阅读全文
posted @ 2019-06-24 22:14 交流_QQ_2240410488 阅读(352) 评论(0) 推荐(0) 编辑
摘要: 更多16 更多16 最近在看一本名叫《Python Algorithm: Mastering Basic Algorithms in the Python Language》的书,刚好看到提到这个Counter类(P84的Listing 4.6下的Tip)。 1.collections模块 coll 阅读全文
posted @ 2019-06-24 17:49 交流_QQ_2240410488 阅读(437) 评论(0) 推荐(0) 编辑
摘要: Python List extend()方法 Python 列表 描述 extend() 函数用于在列表末尾一次性追加另一个序列中的多个值(用新列表扩展原来的列表)。 语法 extend()方法语法: 参数 seq -- 元素列表。 返回值 该方法没有返回值,但会在已存在的列表中添加新的列表内容。 阅读全文
posted @ 2019-06-24 17:47 交流_QQ_2240410488 阅读(1515) 评论(0) 推荐(0) 编辑
摘要: 本文内容:1. Xavier 初始化2. nn.init 中各种初始化函数3. He 初始化 torch.init https://pytorch.org/docs/stable/nn.html#torch-nn-init 1. 均匀分布torch.nn.init.uniform_(tensor, 阅读全文
posted @ 2019-06-24 17:37 交流_QQ_2240410488 阅读(3660) 评论(0) 推荐(0) 编辑
摘要: 转载请注明 AIQ - 最专业的机器学习大数据社区 http://www.6aiq.com AIQ 机器学习大数据 知乎专栏 点击关注 链接地址: https://github.com/lonePatient/chinese-word2vec-pytorch 大概 6 次 epochs 之后,可得到 阅读全文
posted @ 2019-06-24 16:30 交流_QQ_2240410488 阅读(894) 评论(0) 推荐(0) 编辑
摘要: 文章目录 skip-gram pytorch 朴素实现网络结构训练过程:使用nn.NLLLoss()batch的准备,为unsupervised,准备数据获取(center,contex)的pair:采样时的优化:Subsampling降低高频词的概率skip-gram 进阶:negative sa 阅读全文
posted @ 2019-06-24 16:26 交流_QQ_2240410488 阅读(1086) 评论(0) 推荐(0) 编辑
摘要: 本文截取自《PyTorch 模型训练实用教程》,获取全文pdf请点击: tensor-yu/PyTorch_Tutorial​github.com 版权声明:本文为博主原创文章,转载请附上博文链接! 我们所说的优化,即优化网络权值使得损失函数值变小。但是,损失函数值变小是否能代表模型的分类/回归精度 阅读全文
posted @ 2019-06-24 15:48 交流_QQ_2240410488 阅读(507) 评论(0) 推荐(0) 编辑
摘要: 首先在变量的操作上:Tensor对象支持在原对象内存区域上修改数据,通过“+=”或者torch.add()方法而Variable不支持在原对象内存区域上修改数据Variable对象可求梯度,并且对Variable对象的操作,操作会被记录,可通过grad_fn属性查看上一次的操作,可通过data属性访 阅读全文
posted @ 2019-06-24 15:17 交流_QQ_2240410488 阅读(1489) 评论(0) 推荐(0) 编辑
摘要: Pytorch官网的解释是:一个保存了固定字典和大小的简单查找表。这个模块常用来保存词嵌入和用下标检索它们。模块的输入是一个下标的列表,输出是对应的词嵌入。 torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max 阅读全文
posted @ 2019-06-24 15:06 交流_QQ_2240410488 阅读(2584) 评论(0) 推荐(0) 编辑
摘要: 继承不是为了继承里面原来的属性和值么,不初始化的话,会有什么问题? 继承不是为了继承里面原来的属性和值么,不初始化的话,会有什么问题? 继承不是为了继承里面原来的属性和值么,不初始化的话,会有什么问题? 继承不是为了继承里面原来的属性和值么,不初始化的话,会有什么问题? 2015-04-04源自:p 阅读全文
posted @ 2019-06-24 15:02 交流_QQ_2240410488 阅读(3345) 评论(0) 推荐(0) 编辑
摘要: 1 import torch 2 from torch import nn, optim 3 from torch.autograd import Variable 4 import torch.nn.functional as F 5 6 CONTEXT_SIZE = 2 # 2 words to 阅读全文
posted @ 2019-06-24 14:42 交流_QQ_2240410488 阅读(557) 评论(0) 推荐(0) 编辑
摘要: 奇异值分解(Singular Value Decomposition,SVD)是一种矩阵分解(Matrix Decomposition)的方法。除此之外,矩阵分解还有很多方法,例如特征分解(Eigendecomposition)、LU分解(LU decomposition)、QR分解(QR deco 阅读全文
posted @ 2019-06-24 14:10 交流_QQ_2240410488 阅读(765) 评论(0) 推荐(0) 编辑
摘要: 最近有个任务:利用 RNN 进行句子补全,即给定一个不完整的句子,预测其后续的字词。本文使用了 Seq2Seq 模型,输入为 5 个中文字词,输出为 1 个中文字词。目录 关于RNN 语料预处理 搭建数据集 搭建模型 训练模型 测试模型 保存/加载模型 1.关于RNN 自被提出以来,循环神经网络(R 阅读全文
posted @ 2019-06-24 10:37 交流_QQ_2240410488 阅读(594) 评论(0) 推荐(0) 编辑
摘要: 最近有个任务:利用 RNN 进行句子补全,即给定一个不完整的句子,预测其后续的字词。本文使用了 Seq2Seq 模型,输入为5个中文字词,输出为一个中文字词。 目录 关于RNN 语料预处理 搭建数据集 搭建模型 训练模型 测试模型 保存/加载模型 1.关于RNN 自被提出以来,循环神经网络(Recu 阅读全文
posted @ 2019-06-24 10:34 交流_QQ_2240410488 阅读(1015) 评论(0) 推荐(0) 编辑