摘要: 梳理pytorch,整理看到的规范代码,长久更新...(5.19更新LSTM代码) 阅读全文
posted @ 2020-05-02 00:36 Neo_DH 阅读(337) 评论(0) 推荐(0) 编辑
摘要: 本篇假设已经了解Lagrange函数,对偶的基本原理,针对的问题是对没有约束的函数$f(w)$如何变换为对偶,进行分布式计算。 阅读全文
posted @ 2020-04-26 12:16 Neo_DH 阅读(438) 评论(0) 推荐(0) 编辑
摘要: 学习Multi-task中任务损失函数权重,以及tensorflow.keras通过编写损失函数层来实现复杂的损失函数 阅读全文
posted @ 2020-04-25 23:53 Neo_DH 阅读(1630) 评论(0) 推荐(1) 编辑
摘要: 变分推断总结,内容包括变分推断求解目标,中场理论,指数分布求解例子和随机梯度变分推断 阅读全文
posted @ 2020-04-25 00:00 Neo_DH 阅读(395) 评论(0) 推荐(0) 编辑
摘要: RNN笔记 [TOC] 模型结构 循环神经网络可以用来处理一些序列问题,其网络结构如下(图片来源于 "colah's blog" ) 在$t$时刻输入的特征$\, \mathbf x\, $ 经过A的处理变换为$\, \mathbf h_t$,其中A代表一定的处理过程,不同的RNN结构处理过程也不近 阅读全文
posted @ 2019-08-27 23:01 Neo_DH 阅读(265) 评论(0) 推荐(0) 编辑
摘要: Logistic Regression [TOC] 模型介绍 ​ 逻辑回归作为一个判别模型,其形式如下: $$ p(y=1\vert \mathbf x)=Ber\left(y\vert \text{sigm}\left(\mathbf w^T\mathbf x\right)\right) $$ 参 阅读全文
posted @ 2019-07-20 07:35 Neo_DH 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 因为自己平时写计算的代码比较多,很少写树结构的(决策树算法的实现零零整整花了近两周),所以数据结构和代码效率上待优化的地方应该还有很多,仅提供给大家借鉴。代码建议在文本编辑器上浏览。 类的定义 自己网上搜到的代码很多都没有定义类,我自己对于这样的代码很是不喜欢,一点点看算法流程是看不下去的。因为是树 阅读全文
posted @ 2019-05-06 17:00 Neo_DH 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 无约束问题的最小化 最近在看"Machine Learning A Probability Perspective"的逻辑回归,因为算法比较多,一起看书的伙伴们就决定把"Convex Optimization"讲优化算法的内容看一下。 在阅读以下内容之前,要记住问题的出发点,即给定无约束的凸问题该用 阅读全文
posted @ 2019-05-06 09:37 Neo_DH 阅读(1014) 评论(0) 推荐(0) 编辑
摘要: 本文包含的内容有: 参数的求解 截距项的处理 脊回归 参数的计算技巧 贝叶斯角度的线性回归 引言 线性回归作为一个统计学里最基础的模型,广泛应用在各个场景下:如对房价的预测,销售额的预测。 基础的线性回归模型表达如下: $$ \begin{align } y&=\rm{w}^Tx+\varepsil 阅读全文
posted @ 2019-04-22 13:03 Neo_DH 阅读(410) 评论(0) 推荐(0) 编辑
摘要: 高斯分布相乘、积分整理 文章包括的内容有: 一元高斯分布相乘的分布 多元高斯分布相乘的分布 [] 一元高斯的卷积分布 应用:对多元高斯分布的参数推断 应用:高斯线性系统的推导 前三部分的参考文献Products and Convolutions of Gaussian Probability Den 阅读全文
posted @ 2019-04-20 10:30 Neo_DH 阅读(11835) 评论(0) 推荐(0) 编辑