会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
败家小林
博客园
首页
新随笔
联系
订阅
管理
1
2
3
4
5
6
下一页
2020年11月12日
剑指 Offer 05. 替换空格
摘要: 一、题目展示 请实现一个函数,把字符串 s 中的每个空格替换成"%20"。 示例 1: 输入:s = "We are happy." 输出:"We%20are%20happy." 二、题意理解及思路 1、 首先在PYTHON中关于数据类型的规定是字符串不可变,所以我们是不可能在原字符串的基础上直接进
阅读全文
posted @ 2020-11-12 09:51 败家小林
阅读(88)
评论(0)
推荐(0)
2020年8月5日
深度学习—2.传统神经网络
摘要: 神经网络的起源-线性回归 概念:线性关系来描述输入到输出的映射关系 应用场景: 网络分析、银行风险分析、基金股价预测、天气预报 优化方法:梯度下降 梯度下降法总结 线性回归的局限 非线性激励 常用的非线性激励函数 神经网络的构建 神经元-神经网络 神经元的“并联”和“串联” 神经网络求导-Tenso
阅读全文
posted @ 2020-08-05 23:16 败家小林
阅读(338)
评论(0)
推荐(0)
深度学习-1、概述
摘要: 知识结构 深度学习:传统到现在 深度学习框架比较 基本概念
阅读全文
posted @ 2020-08-05 20:34 败家小林
阅读(116)
评论(0)
推荐(0)
2020年8月3日
课时十一、HMM(隐马尔科夫模型)
摘要: 概述 隐马尔科夫模型的贝叶斯网络 x1和z2不独立,x1和x2也不独立 HMM的确定 hmm的参数 HMM的两个基本性质 HMM的3个基本问题 概率计算问题 直接计算法(暴力计算) 定义:前向概率-后向概率 前向算法 后向算法 前向后向概率的关系 单个状态的概率 监督学习方法 两个状态的联合概率 学
阅读全文
posted @ 2020-08-03 23:09 败家小林
阅读(171)
评论(0)
推荐(0)
2020年8月2日
课时十、主题模型(LDA)
摘要: 朴素贝叶斯的分析 Beta分布 共轭先验分布 Dirichlet分布 期望 对称Dirichlet分布 参数分析 多项分布的共轭分布是Dirichlet分布 LDA 解释 迭代求超参方法 主题个数的确定 相似度最小 选取初始的主题个数K,训练LDA模型,计算各主题之间的相似度 增加或减少K的值,重新
阅读全文
posted @ 2020-08-02 11:45 败家小林
阅读(170)
评论(0)
推荐(0)
2020年7月28日
课时九、贝叶斯网络
摘要: 复习 相对熵 互信息 信息增益 概率 贝叶斯公式带来的思考 朴素贝叶斯 假设 一个特征出现的概率,与其他特征(条件)独立(特征独立性) 含义:对于给定分类条件下,特征独立 每个特征同等重要 朴素贝叶斯的推导 高斯朴素贝叶斯 多项朴素贝叶斯 贝叶斯网络 一个简单的贝叶斯网路 全连接贝叶斯网络 一个“正
阅读全文
posted @ 2020-07-28 21:46 败家小林
阅读(102)
评论(0)
推荐(0)
2020年7月27日
课时八、EM算法(最大期望算法)
摘要: 复习Jensen不等式 引子:K-means算法 EM算法 在统计计算中,最大期望(EM)算法是在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。 最大期望经常用在机器学习和计算机视觉的数据聚
阅读全文
posted @ 2020-07-27 22:56 败家小林
阅读(254)
评论(0)
推荐(0)
2020年7月22日
课时七、聚类
摘要: 聚类 聚类定义 对大量未知标注的数据集,按数据的内在相似性将数据集划分为多个类别,使类别内的数据相似度较大,而类别间的数据相似度较小--无监督 相似度计算方法 Jaccard相似度的由来 余弦相似度与Pearson相似系数 基本思想 给定一个有N个对象的数据集,构造数据的k个簇,k<n 。满足以下条
阅读全文
posted @ 2020-07-22 22:24 败家小林
阅读(249)
评论(0)
推荐(0)
2020年7月21日
课时六、SVM
摘要: 线性可分支持向量机 分割超平面 输入数据 整理符号 推导目标函数 最大间隔分割超平面 拉格朗日乘子法 SVM中系数的求解:SMO 线性可分支持向量机学习算法 线性支持向量机 线性支持向量机学习算法 核函数 经典SVM直接输出类别,不给出后验概率 SVM框架引入Logistic函数,输出条件后验概率
阅读全文
posted @ 2020-07-21 22:07 败家小林
阅读(142)
评论(0)
推荐(0)
2020年7月15日
课时五、boost与adaboost
摘要: 提升的概念 提升算法 提升算法推导 梯度提升决策树 决策树的描述 正则项的定义 目标函数的计算 目标函数继续化简 子树划分 Adaboost 误差上限 方差与偏差 Bagging能够减少训练方差,对于不剪枝的决策树、神经网络等学习器有良好的集成效果 Boosting减少偏差,能够基于泛化能力较弱的学
阅读全文
posted @ 2020-07-15 00:01 败家小林
阅读(228)
评论(0)
推荐(0)
1
2
3
4
5
6
下一页
公告