11 2021 档案

摘要:拉格朗日乘数法 拉格朗日乘数法 KKT条件 互补松弛条件的解释 实例 对偶问题 SVM的对偶问题求解 阅读全文
posted @ 2021-11-20 21:15 英飞 阅读(105) 评论(0) 推荐(0) 编辑
摘要:支持向量机 SVM 算法思想概述 背景知识 间隔最大化 间隔 定义 7.2 求解最大间隔 方法1 转化为凸函数求解 算法7.1 输入: 线性可分训练数据集 T={(x1,y1),(x2,y2),,(xN,yN)},其中$x_i \in \mathcal{X}=R 阅读全文
posted @ 2021-11-20 21:11 英飞 阅读(80) 评论(0) 推荐(0) 编辑
摘要:GAN 的后序 参考资料 网络博客 令人拍案叫绝的Wasserstein GAN - 知乎 (zhihu.com) 生成式对抗网络GAN有哪些最新的发展,可以实际应用到哪些场景中? - 知乎 (zhihu.com) 从动力学角度看优化算法:GAN的第三个阶段 - 知乎 (zhihu.com) 视频讲 阅读全文
posted @ 2021-11-16 21:27 英飞 阅读(28555) 评论(0) 推荐(0) 编辑
摘要:我在b站读研究生——跟着李沐读论文1 ——Gan 读论文 标题+作者+时间+期刊+被引 generative adversarial Nets 生成对抗网络 作者 Ian J.Goodfellow 深度学习(花书)的作者 摘要 Abstract 我们推出了一个通过对抗过程来估计生成模型的新的结构,在 阅读全文
posted @ 2021-11-16 21:18 英飞 阅读(348) 评论(0) 推荐(0) 编辑
摘要:广义线性模型GLM 判断标准非常简单,响应变量y独立则GLM,否则GLMM。这就是最本质的判断标准,其它的标准都是基于这个标准来的 指数分布族 概率密度为 fX(x;θ)=h(x)e( η(θ)T(x)+A(θ) )阅读全文
posted @ 2021-11-16 20:51 英飞 阅读(568) 评论(0) 推荐(0) 编辑
摘要:熵 ,KL散度,交叉熵,JS散度,Wasserstein 距离(EarthMover距离) 信息量 香农(Shannon)认为“信息是用来消除随机不确定性的东西”,也就是说衡量一个事件信息量大小就看这个信息消除事件不确定性的程度。 从编码的角度 设信源X可发出的消息符号集合为$A= { a_i | 阅读全文
posted @ 2021-11-16 17:02 英飞 阅读(761) 评论(0) 推荐(0) 编辑
摘要:最大似然估计 一 基本知识 1 .1概率理解——贝叶斯派与频率派 频率派:概率是一个确定的值,模型中的参数也是一个确定的值。样本数据是由确定的概率分布生成的,因此数据是随机的。多次重复试验,使用事件发生的频率近似代替概率 。 对于一个模型或者也可说一个分布中的参数,我们相信它是固定不变的,是固有的属 阅读全文
posted @ 2021-11-16 16:50 英飞 阅读(649) 评论(0) 推荐(0) 编辑
摘要:线性回归 符号约定 : 算法流程 理解 使用训练数据来找到线性回归方程中的参数w0,w1,,wn使得回归方程的预测值和真实值的误差最小。 这个误差可以使用 平方衡量 ,也可以使用 绝对值 等方式衡量。 寻找的过程可以直接解优化方程,也可以使用迭代法不断更新。 求解 目标函数 :$ 阅读全文
posted @ 2021-11-01 09:48 英飞 阅读(188) 评论(0) 推荐(1) 编辑
摘要:决策树 机器学习,西瓜书p80 表4.2 使用信息增益生成决策树及后剪枝 阅读全文
posted @ 2021-11-01 09:41 英飞 阅读(1184) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示