摘要: —————————————————————————————————————————————————————— 本文为在csdn博主z小白的文章基础上,做了一些自己的理解与扩展,文末附有原文链接,尊重知识产权从我做起。 ————————————————————————————————————————— 阅读全文
posted @ 2020-02-08 20:20 淇则有岸 阅读(32620) 评论(1) 推荐(6) 编辑
摘要: 传统神经网络: 是全连接形式,即样本的每个特征属性都通过所有的隐藏层节点映射,最后输出数据。由于是全连接,所以计算极为复杂,且模型不易学习。 卷积神经网络:卷积神经网络(Convolutional Neural Networks, CNN), CNN可以有效的降低反馈神经网络(传统神经网络)的复杂性 阅读全文
posted @ 2020-02-05 15:10 淇则有岸 阅读(1233) 评论(0) 推荐(0) 编辑
摘要: 1 import tensorflow as tf 2 import numpy as np 3 4 """ 5 使用tensorflow 实现简单的 线性回归 y = np.dot(x, W) + b 6 """ 7 8 def f1(): 9 """ 10 先使用常量进行构建,展示大致的业务逻辑 阅读全文
posted @ 2020-01-15 13:11 淇则有岸 阅读(601) 评论(0) 推荐(0) 编辑
摘要: k个主题时取前k列/前k行 阅读全文
posted @ 2020-01-07 19:55 淇则有岸 阅读(266) 评论(0) 推荐(0) 编辑
摘要: 目录: 隐马尔可夫模型 Viterbi算法(必须掌握) 简述:普通领域不常用,自然语言与金融领域用的比较多,总共涉及到概率问题,求参数问题,取范围问题。 用到的知识点有全概率公式,条件概率公式,边缘概率公式,贝叶斯公式,极大似然估计 概率计算问题 直接计算法 暴力算法 前向算法 后向算法 后向算法不 阅读全文
posted @ 2020-01-06 22:03 淇则有岸 阅读(392) 评论(0) 推荐(0) 编辑
摘要: 目录 最大似然估计 K-means算法 EM算法 GMM算法(实际是高斯混合聚类) 中心思想:①极大似然估计 ②θ=f(θold) 此算法非常老,几乎不会问到,但思想很重要。 EM的原理推导还是蛮复杂的,图片上没法子编辑公式,直接打字无法完美描述整个过程,所以我直接在纸上打出详细过程加以备注 有哪些 阅读全文
posted @ 2020-01-04 14:30 淇则有岸 阅读(449) 评论(0) 推荐(0) 编辑
摘要: 目录: 朴素贝叶斯 贝叶斯网络 朴素贝叶斯 特征属性之间没有关联关系,相互独立的,在此基础上应用贝叶斯定理。 文本数据分类知识 阅读全文
posted @ 2020-01-03 13:40 淇则有岸 阅读(389) 评论(0) 推荐(0) 编辑
摘要: 目录 梯度下降法、拉格朗日乘子法、KKT条件回顾感知器模型回顾SVM线性可分SVM线性不可分核函数SMO SVM线性可分,SVM线性不可分,核函数,要求会推导 ———————————————————————————— 学习率(步长)可以是任何数,如果是二阶偏导数的话,则为牛顿法 优化问题: 给定一个 阅读全文
posted @ 2020-01-02 22:03 淇则有岸 阅读(1225) 评论(0) 推荐(0) 编辑
摘要: 谱聚类是基于谱图理论基础上的一种聚类方法,与传统的聚类方法相比: 具有在任意形状的样本空间上聚类并且收敛于全局最优解的优点。 通过对样本数据的拉普拉斯矩阵的特征向量进行聚类,从而达到对样本数据进行聚类的目的; 其本质是将聚类问题转换为图的最优划分问题,是一种点对聚类算法。谱聚类算法将数据集中的每个对 阅读全文
posted @ 2020-01-01 19:39 淇则有岸 阅读(417) 评论(0) 推荐(1) 编辑
摘要: 原理:先设置两个先验值r1,r2,我把他们理解为内圈外圈,大家可以跟我学。将所有样本放入一个列表,随机选一个样本拿出来作为第一个簇的簇中心点,然后从列表中剩下的所有样本中随机抽取一个,,计算其与簇中心点的距离。 如果大于外圈r1,则不属于此簇,而是拿出去单独成为一簇,并作为簇中心点,从列表中删除此样 阅读全文
posted @ 2020-01-01 18:40 淇则有岸 阅读(1304) 评论(2) 推荐(1) 编辑