上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 20 下一页
摘要: Huffman Implementation with Python 码表 | Token | Frequency | | | | | a | 10 | | e | 15 | | i | 12 | | s | 3 | | t | 4 | | space | 13 | | n | 1 | 生成 Huf 阅读全文
posted @ 2018-07-05 23:26 健康平安快乐 阅读(158) 评论(0) 推荐(0) 编辑
摘要: Tree Implementation with Python List of List 代码如下: 阅读全文
posted @ 2018-07-05 11:07 健康平安快乐 阅读(137) 评论(0) 推荐(0) 编辑
摘要: PyTorch 使用心得 模板 标准库 计算设备(张量类型) 设置 tensor 的默认类型 设置程序优先使用 CUDA (e.g. GPU) Cosine作为损失函数 变量 类型转换 Tensor to float 阅读全文
posted @ 2018-07-04 22:51 健康平安快乐 阅读(408) 评论(0) 推荐(0) 编辑
摘要: Deep Learning Terminologies batch full batch 已知在梯度下降中,需要对所有样本进行处理过后然后走一步(梯度更新),那么如果我们的样本规模的特别大的话效率就会比较低。假如有 5000 万个样本的话,走一轮迭代就会非常的耗时。这个时候的梯度下降叫做 full 阅读全文
posted @ 2018-07-02 22:49 健康平安快乐 阅读(192) 评论(0) 推荐(0) 编辑
摘要: Linear Regression with PyTorch Problem Description 初始化一组数据 $(x,y)$,使其满足这样的线性关系 $y = w x + b$ 。然后基于反向传播法,用均方误差(mean squared error) $$ MSE = \frac{1}{n} 阅读全文
posted @ 2018-06-10 23:14 健康平安快乐 阅读(332) 评论(0) 推荐(0) 编辑
摘要: Breast Cancer on PyTorch Code 损失函数图像: nn.Sequential 模型性能: 阅读全文
posted @ 2018-06-05 18:05 健康平安快乐 阅读(871) 评论(0) 推荐(0) 编辑
摘要: Linux 命令梳理 待梳理命令 nohup time(https://stackoverflow.com/questions/556405/what-do-real-user-and-sys-mean-in-the-output-of-time1) 用户管理 groupadd 新建用户组 grou 阅读全文
posted @ 2018-06-02 11:25 健康平安快乐 阅读(429) 评论(0) 推荐(0) 编辑
摘要: Python3 Iterator and Generator iterator 主要是利用 iter 函数 generator 使用上述程序,读取如下文件(zh.txt) 程序输出: Reference "Python3 迭代器与生成器" 阅读全文
posted @ 2018-05-31 14:37 健康平安快乐 阅读(130) 评论(0) 推荐(0) 编辑
摘要: numpy 学习笔记 导入 numpy 包 声明 ndarray 的几种方法 方法一,从list中创建 [[1 2 3] [4 5 6] [7 8 9]] 方法二,指定维度,不赋值 [[9.66308774e 312 2.47032823e 322 0.00000000e+000 0.0000000 阅读全文
posted @ 2018-05-26 13:16 健康平安快乐 阅读(230) 评论(0) 推荐(0) 编辑
摘要: 一种基于 Numpy 的 TF IDF 实现报告 摘要 本文使用了一种 state of the art 的矩阵表示方法来计算每个词在每篇文章上的 TF IDF 权重(特征)。本文还将介绍基于 TF IDF 的文档相似度查询方法。 系统介绍 本节将着重介绍我的 TF IDF 系统使用方法。 本系统由 阅读全文
posted @ 2018-05-26 08:54 健康平安快乐 阅读(945) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 20 下一页