上一页 1 ··· 4 5 6 7 8 9 下一页
摘要: 线性表:由零个或多个数据元素组成的有限序列。 元素之间有先后关系,若有多个元素,第一个无前驱最后一个无后继,其他元素都只有一个前驱和后继。(一对一关系) 数据类型:一组性质相同的值的集合及定义在此集合上的一些操作的总称。 抽象数据类型:一个数学模型及定义在该模型上的一组操作。(对已有数据类型进行抽象 阅读全文
posted @ 2019-07-22 16:21 王朝君BITer 阅读(376) 评论(0) 推荐(0) 编辑
摘要: 程序设计 = 数据结构 + 算法 数据结构:逻辑结构(数据对象中数据元素之间的相互关系)和物理结构(数据的逻辑结构在计算机中的存储形式)。 逻辑结构:集合结构(只有同属一个集合的关系)、线性结构(一对一的关系)树形结构(存在一对多的层次关系)、图形结构(多对多的关系)。 物理结构:顺序存储(把数据放 阅读全文
posted @ 2019-07-22 15:10 王朝君BITer 阅读(134) 评论(0) 推荐(0) 编辑
摘要: docker是什么?为什么会出现? 容器虚拟化技术;轻量级的虚拟机(但不是虚拟机) 开发:提交代码 ——> 运维:部署 在这中间,因为环境和配置,出现问题 ——> 把代码/配置/系统/数据...自底至上一起打包成镜像 一次封装构建,到处运行 docker:用于将应用以轻量级容器的形式pack、shi 阅读全文
posted @ 2019-07-22 10:22 王朝君BITer 阅读(286) 评论(0) 推荐(0) 编辑
摘要: 一、bagging 用于基础模型复杂、容易过拟合的情况,用来减小 variance(比如决策树)。基础模型之间没有太多联系(相对于boosting来说),训练可以并行。但用 bagging 并不能有助于把数据拟合的更准(那是减小 bias,要用 boosting)。 每次训练一个基础模型,都从 N 阅读全文
posted @ 2019-07-18 16:29 王朝君BITer 阅读(3384) 评论(0) 推荐(0) 编辑
摘要: 关于特征工程很棒的一篇博客。地址:https://www.cnblogs.com/jasonfreak/p/5448385.html 阅读全文
posted @ 2019-07-18 11:40 王朝君BITer 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 一、主要思想:最大间隔 间隔(最小距离;函数间隔与几何间隔)、对偶(KKT条件;拉格朗日乘数法)、核方法(低维直接算高维内积;Gram 矩阵半正定) 二、hard-margin 线性可分 三、soft-margin 基本上线性可分,允许存在一点点错误。 引入松弛变量 四、kernel trick 非 阅读全文
posted @ 2019-07-17 21:13 王朝君BITer 阅读(191) 评论(0) 推荐(0) 编辑
摘要: 一、深度学习建模与调试流程 先看训练集上的结果怎么样(有些机器学习模型没必要这么做,比如决策树、KNN、Adaboost 啥的,理论上在训练集上一定能做到完全正确,没啥好检查的) Deep Learning 里面过拟合并不是首要的问题,或者说想要把神经网络训练得好,至少先在训练集上结果非常好,再考虑 阅读全文
posted @ 2019-07-16 17:41 王朝君BITer 阅读(1186) 评论(0) 推荐(1) 编辑
摘要: 前向计算:没啥好说的,一层一层套着算就完事了 y = f( ... f( Wlayer2T f( Wlayer1Tx ) ) ) 反向求导:链式法则 单独看一个神经元的计算,z (就是logit)对 wi 的偏微分等于 xi : 再看多层的情况,z 经过 激活函数得到 a,而 a 在下一层和 w3  阅读全文
posted @ 2019-07-16 17:31 王朝君BITer 阅读(272) 评论(0) 推荐(0) 编辑
摘要: 软分类:y 的取值只有正负两个离散值,例如 {0, 1} 硬分类:y 是正负两类区间中的连续值,例如 [0, 1] 一、感知机 主要思想:分错的样本数越少越好 用指示函数统计分错的样本数作为损失函数,不可微; 对错误分类样本,∑ -yi * f(xi) = ∑ -yi * WTxi (因为求和项一定 阅读全文
posted @ 2019-07-15 22:41 王朝君BITer 阅读(2946) 评论(0) 推荐(0) 编辑
摘要: θ* = argmin L(θ) 梯度方向:损失函数等高线的法线方向(切线方向,变化最快的方向) θt+1 = θt - ηg(θt) 关于梯度下降的Tips: 1. 调整学习率 adaptive learning rates 简单直觉的想法:训练刚开始的时候可以用比较大的学习率;经过一些epoch 阅读全文
posted @ 2019-07-15 17:51 王朝君BITer 阅读(530) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 下一页