随笔分类 - 机器学习
摘要:目录1. 引入2. Hierarchical Softmax3. 负样本negtive sample训练 参考链接:https://www.cnblogs.com/pinard/p/7243513.html 1. 引入 铺垫基础知识 霍夫曼树, 霍夫曼树的建立过程如下: 输入:权值为 输出:对应的霍
阅读全文
摘要:目录1. soft NMS2. GIOU DIOU CIOU3. DIoU4. CIoU5. Focal loss6. ASPP空洞池化7. PAN8. MISH激活函数9. SAM10 其他的 YOLO-v4 那么多的首字母大写 略缩名字 五花八门 下面就一一解读 bag of freebies训
阅读全文
摘要:目录 代码仓地址: https://github.com/qqwweee/keras-yolo3.git 创建虚拟环境 三方件安装 Python 3.7.5 conda 4.1.6 pip3 uninstall keras-nightly pip3 uninstall -y tensorflow p
阅读全文
摘要:目录1. 01_first_graph2. session run3. global_variables_initializer4. InteractiveSession5. get_default_graph6. life_cicycle07 linear_regression8. manual_
阅读全文
摘要:目录1. Normalization2. MobileNet 1. Normalization feature map shape 记为[N, C, H, W],其中 N 表示 batch size,即 N个样本;C 表示通道数;H、W 分别表示特征图的高度、宽度。这几个方法主要的区别就是在: BN
阅读全文
摘要:目录1. 什么是感受野 1. 什么是感受野 CNN与DNN 不同之处局部连接 卷积的计算: 假设有一个 55 的图像,使用一个 33 的 filter 进行卷积,得到一个 3*3 的 Feature Map 彩色图片 3通道: 一个卷积核 得到一层 feature_map 在一个特征图里面,所有的神
阅读全文
摘要:目录1. 举例2. python实现 1. 举例 2. python实现 import numpy as np from sklearn.datasets import fetch_mldata from sklearn.utils.extmath import safe_sparse_dot de
阅读全文
摘要:目录 Max Entropy Markov Model MEMM,即最大熵马尔科夫模型,属于判别式模型。 最大熵模型 + 隐马尔可夫模型 HMMM没办法加入新的特征,MEMM是判别式模型,这就允许它可以加入更多的Features。 观测独立假设对应的就是朴素贝叶斯的条件独立性假设,即t+1时刻的y状
阅读全文
摘要:目录1. 熵的定义2. 最大熵模型算法3. 逻辑回归 与 最大熵 之间的关系 参考:https://www.cnblogs.com/pinard/p/6972299.html 最大熵模型(maximum entropy model, MaxEnt)也是很典型的分类算法了,它和逻辑回归类似,都是属于对
阅读全文
摘要:目录 待补充 参考资料 刘建平博客 pinard
阅读全文
摘要:目录1. 暴力求解法2. 前向算法求HMM观测序列的概率3. 从后往前推 后向算法 1. 暴力求解法 任意一条路径都有可能得到需要的观测结果: 如果我们的隐藏状态数N非常多的那就麻烦了,此时我们预测状态有NT种组合,算法的时间复杂度是O(TNT)阶的 2. 前向算法求HMM观测序列的概率 在前向算法
阅读全文
摘要:目录1. Hidden Markov Model2. HMM模型定义 注:参考链接 https://www.cnblogs.com/pinard/p/6945257.html 1. Hidden Markov Model 隐马尔科夫模型(Hidden Markov Model,以下简称HMM)是比较
阅读全文
摘要:目录1. 贝叶斯公式2. 朴素贝叶斯算法3. 其他的贝叶斯模型 1. 贝叶斯公式 P(A|B) 后验概率在B事件发生的基础上A发生的概率, 举例: 血液检测呈阳性患XX病的概率, 已知拍西瓜清脆的声音,西瓜成熟的概率是不是会大一点, 相亲功能否成功是有一定的概率,但是如果知道对方是一个高富帅(或者白
阅读全文
摘要:目录1. 复习条件概率2. 正式进入3. 生成式 与判别式 这个阶段的内容,采用概率论的思想,从样本里面学到知识(训练模型),并对新来的样本进行预测。 主要算法:贝叶斯分类算法、隐含马尔可夫模型、最大熵模型、条件随机场。 通过本阶段学习,掌握NLP自然语言处理的一些基本算法,本阶段的理解对于后续完成
阅读全文
摘要:目录
阅读全文
摘要:目录1. 复习2. GBDT3. gbdt应用于二分类:3. gbdt应用于多类4. 叶子节点输出值c的计算5. GBDT的其他应用6. GBDT+LR 代码实现 1. 复习 再开始学习GBDT算法之前 先复习一下之前的 线性回归 逻辑回归(二分类) 多分类 线性回归 找到一组W 使得 L 最小 进
阅读全文
摘要:目录1. adaboost算法的基本思想2. 具体实现 1. adaboost算法的基本思想 集成学习是将多个弱模型集成在一起 变成一个强模型 提高模型的准确率,一般有如下两种: bagging: 不同的base model可以并行计算,输出预测结果少数服从多数,回归问题则对多个模型输出的结果求平均
阅读全文
摘要:目录1. 概念什么是bagging3. 代码4. 代码2 1. 概念 多个决策树组合在一起 对新来的样本进行预测 输出预测结果 有朋友的意见投票, 少数服从多数, 有的给出-1 有的给+1 将这些结果全部加一起 最后取符号是+1 -1 就行 majority can corret minority
阅读全文
摘要:目录1. 剪枝2. CCP—代价复杂度剪枝(CART)4. α值的确定 1. 剪枝 将子树还原成一个叶子节点: 是解决过拟合的一个有效方法。当树训练得过于茂盛的时候会出现在测试集上的效果比训练集上差不少的现象,即过拟合。可以采用如下两种剪枝策略。 前剪枝,设置超参数抑制树的生长, 例如:max_de
阅读全文
摘要:目录1. 决策树2. 举个例子 计算信息增益3. C4.5算法 1. 决策树 决策树是属于有监督机器学习的一种,起源非常早,符合直觉并且非常直观, 模型生成:通过大量数据生成一颗非常好的树,用这棵树来预测新来的数据 预测:来一条新数据,按照生成好的树的标准,落到某一个叶子节点上 决策树的数学表达,递
阅读全文