随笔分类 -  机器学习

摘要:博客:博客园 | CSDN | blog 写在前面 损失函数是学习的指挥棒。 前段时间有个活,让我对定义损失函数有了新的认识,遂记录一下。 这里隐去具体的背景,只描述问题。 给定一个训练集(可视为全集的有效采样)XN个样本,每个样本xiD维特征,样本已做归一化处理,现希望将 阅读全文
posted @ 2020-07-08 17:59 shine-lee 阅读(702) 评论(2) 推荐(0) 编辑
摘要:[TOC] 博客: "blog.shinelee.me" | "博客园" | "CSDN" 交叉熵损失与均方误差损失 常规分类网络最后的softmax层如下图所示,传统机器学习方法以此类比, 一共有K类,令网络的输出为[y^1,,y^K],对应每个类别的概 阅读全文
posted @ 2019-12-12 22:26 shine-lee 阅读(13213) 评论(2) 推荐(7) 编辑
摘要:博客:blog.shinelee.me | 博客园 | CSDN 写在前面 Feature scaling,常见的提法有“特征归一化”、“标准化”,是数据预处理中的重要技术,有时甚至决定了算法能不能work以及work得好不好。谈到feature scaling的必要性,最常用的2个例子可能是: 特 阅读全文
posted @ 2019-11-02 18:27 shine-lee 阅读(35126) 评论(12) 推荐(44) 编辑
摘要:形而上者谓之道,形而下者谓之器,化而裁之谓之变;推而行之谓之通,举而措之天下之民,谓之事业。——《易经·系辞》 天地间本就存在种种规律和法则 ,这些规律和法则在物质世界相互作用、不断演化形成了世间万象,比如水蒸气遇冷液化成雨,比如万有引力让苹果落到地上。世间万象称之为“形”或“象”。 世间之 “形” 阅读全文
posted @ 2018-07-23 14:53 shine-lee 阅读(1017) 评论(2) 推荐(1) 编辑
摘要:终于要开始写自己的第一篇博客啦,真有点小激动(手足无措=。=!)。因为最近正在琢磨机器学习,第一篇博客就从学的第一个算法开始:k-nearest neighbors algorithm即k近邻算法。**************************************正文分界线********... 阅读全文
posted @ 2014-08-14 14:09 shine-lee 阅读(458) 评论(0) 推荐(0) 编辑

51La
点击右上角即可分享
微信分享提示