摘要: step 1 用高斯分布生成两类点 step 2 画一条初始直线,先定义两个点(x1, 0)和(x2, 100),x1属于(0, 50),x2属于(50, 100),有了两个点之后,画出一条直线 step 3判断误分类点正确分类1:w1*x+w2*y+b>0且label=1正确分类2:w1*x+w2 阅读全文
posted @ 2017-09-26 07:54 Joyce_song94 阅读(321) 评论(0) 推荐(0) 编辑
摘要: Each variable has a [.grad_fn] attribute that references a Function that has created the Variable(except for Variables created by the user their grad_ 阅读全文
posted @ 2017-09-05 19:26 Joyce_song94 阅读(2666) 评论(0) 推荐(0) 编辑
摘要: 用variable实现nn.module 实现optim 实现two_layer模型 实现dynamic_net 阅读全文
posted @ 2017-09-05 10:40 Joyce_song94 阅读(451) 评论(0) 推荐(0) 编辑
摘要: 在学习浏览网页test过程中遇到的一些需要研究一下才能看懂的函数,在这里做一下记录,供以后翻看学习 1. maximum() 2. isinstance() 3. type() 4. 关于loss.data[0]的一点思考 loss 是variable,loss.data 是tensor,里面只有一 阅读全文
posted @ 2017-09-04 20:40 Joyce_song94 阅读(446) 评论(0) 推荐(0) 编辑
摘要: 用numpy实现搭建一个简单的forward和backward 用tensor实现搭建一个简单的forward和backward 用variable实现forward和backward 用variable实现relu函数 阅读全文
posted @ 2017-09-04 17:20 Joyce_song94 阅读(491) 评论(0) 推荐(0) 编辑
摘要: Outline: (1) Graph-based Methods (2) Transition-based Methods (3) Neural Graph-based Methods (4) Neural Transition-based Methods (5) Applications Poin 阅读全文
posted @ 2017-08-29 21:45 Joyce_song94 阅读(611) 评论(0) 推荐(0) 编辑
摘要: 要区分这三个概念,需要先讲一下损失函数L(Y,f(x))的概念。 损失函数:针对单个具体样本,表示模型预测值与真实样本值之间的差距。损失函数越小,说明模型对于该样本预测越准确。常见损失函数有0-1损失函数、平方损失函数、绝对损失函数、对数损失函数(对数似然损失函数)。 经验风险:对所有训练样本都求一 阅读全文
posted @ 2017-08-28 15:04 Joyce_song94 阅读(11131) 评论(0) 推荐(4) 编辑
摘要: 大纲: (1)概述:机器学习概述、感知器、应用 (2)基础模型:前馈神经网络、卷积神经网络、循环神经网络、网络正则化与优化、应用 (3)进阶模型:注意力机制与外部记忆、无监督学习、概率图模型、深度生成模型、深度强化学习、模型独立的学习方式 整理的知识点: 1. 机器学习历史:1950~1965(规则 阅读全文
posted @ 2017-08-28 09:24 Joyce_song94 阅读(600) 评论(0) 推荐(0) 编辑
摘要: 对于一个模型,都可以从以下几个方面进行调参: 1. 对weight和bias进行初始化(效果很好,一般都可以提升1-2%) Point 1 (CNN): Point 2 (LSTM): (1)Bias vectors are initialized to zero, except the bias 阅读全文
posted @ 2017-08-11 20:04 Joyce_song94 阅读(561) 评论(0) 推荐(0) 编辑
摘要: 1. pytorch提供接口 method 1 torch.nn.init里面有很多初始化分布 method 2 http://pytorch.org/docs/master/nn.html conv.py中有定义函数 阅读全文
posted @ 2017-08-09 15:08 Joyce_song94 阅读(553) 评论(0) 推荐(0) 编辑