随笔分类 - 机器学习
摘要:博客:博客园 | CSDN | blog 写在前面 损失函数是学习的指挥棒。 前段时间有个活,让我对定义损失函数有了新的认识,遂记录一下。 这里隐去具体的背景,只描述问题。 给定一个训练集(可视为全集的有效采样),个样本,每个样本有维特征,样本已做归一化处理,现希望将
阅读全文
摘要:[TOC] 博客: "blog.shinelee.me" | "博客园" | "CSDN" 交叉熵损失与均方误差损失 常规分类网络最后的softmax层如下图所示,传统机器学习方法以此类比, 一共有类,令网络的输出为,对应每个类别的概
阅读全文
摘要:博客:blog.shinelee.me | 博客园 | CSDN 写在前面 Feature scaling,常见的提法有“特征归一化”、“标准化”,是数据预处理中的重要技术,有时甚至决定了算法能不能work以及work得好不好。谈到feature scaling的必要性,最常用的2个例子可能是: 特
阅读全文
摘要:形而上者谓之道,形而下者谓之器,化而裁之谓之变;推而行之谓之通,举而措之天下之民,谓之事业。——《易经·系辞》 天地间本就存在种种规律和法则 ,这些规律和法则在物质世界相互作用、不断演化形成了世间万象,比如水蒸气遇冷液化成雨,比如万有引力让苹果落到地上。世间万象称之为“形”或“象”。 世间之 “形”
阅读全文
摘要:终于要开始写自己的第一篇博客啦,真有点小激动(手足无措=。=!)。因为最近正在琢磨机器学习,第一篇博客就从学的第一个算法开始:k-nearest neighbors algorithm即k近邻算法。**************************************正文分界线********...
阅读全文