神经网络与深度学习-邱锡鹏-学习笔记10-关于概率的一些基本概念
摘要:注解: 1.随机变量和随机事件不等价,一个随机事件可以定义很多随机变量。 2.随机变量是定义在一个随机事件里面的变量,可以有很多种定义方法,比如可以定义出现某一个值的概率,也可以定义出现奇数的概率。 3.概率分布就是所定义的一个随机变量取所有可能值的概率的一个表。对于离散型的随机变量来说,概率分布就
阅读全文
posted @
2021-10-20 12:25
一杯明月
阅读(870)
推荐(0) 编辑
P22 朴素贝叶斯算法
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=22 贝叶斯算法:预测某个样本属于某个类别的概率,最大的概率即为类别。 例如:判断文章1属于科技、金融、娱乐那个类别?文章1属于科技类的概率最大,所以,文章1将被预测为科技类文章。 职业和超重这两个特征是相互
阅读全文
posted @
2021-01-01 15:36
一杯明月
阅读(196)
推荐(0) 编辑
P19 K近邻算法
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=19 注解: 分类算法的判定依据是:目标值是离散值。 注解: K-近邻算法最重要的是看距离的远近,距离近的样本归为一类。 本例中小王与蓝色的小人距离最近,所以他们归为一类。 小王不知道自己所在的区,但是他根据
阅读全文
posted @
2021-01-01 15:30
一杯明月
阅读(189)
推荐(0) 编辑
P17 数据的划分和介绍
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=17 答:不行。 应该:一部分训练,一部分评估。 数据集举例: 三类鸢尾花数据读取代码演示: """ 读取三类鸢尾花数据 li=load_iris() 可以直接使用函数接口实例化对象,返回的是一个字典 """
阅读全文
posted @
2020-12-31 00:21
一杯明月
阅读(383)
推荐(0) 编辑
P15 机器学习算法分类及开发流程
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=15 注解: 监督学习有特征值和目标值,监督学习,谁监督呢?答:类别。 我称监督学习为:有主体监督学习。 非监督学习只有特征值,没有目标值。 我称非监督学习为:无主体监督学习。 学习的重点是监督学习,监督学习
阅读全文
posted @
2020-12-30 18:31
一杯明月
阅读(188)
推荐(0) 编辑
P13 数据降维案例1
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=13
阅读全文
posted @
2020-12-30 18:28
一杯明月
阅读(67)
推荐(0) 编辑
P11 标准化总结及缺失值处理
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=11 注解: 一般是按照列进行填补。 注解: 参数axis=0或者1,指的是按照行或者列填充。 代码演示: """ 缺失值处理 """ from sklearn.preprocessing import Im
阅读全文
posted @
2020-12-30 18:22
一杯明月
阅读(274)
推荐(0) 编辑
P12 数据的降维及特征选择
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=12 注解: 这里了的降维不是指数组的维度,不是1维、2维、3维那个维。 注解: 这个是3维的特征转换为2维的特征。 降维就是把样本的特征的数量减少,比如在分辨男女的时候,把每个样本里面的特征肤色去掉。 注解
阅读全文
posted @
2020-12-30 18:22
一杯明月
阅读(331)
推荐(0) 编辑
P9 归一化以及标准化对比
摘要:知乎参考:https://www.zhihu.com/question/20467170 哔哩哔哩视频参考:http://bilibili.com/video/BV184411Q7Ng?p=9 Python程序举例: """ 对数据进行归一化处理 """ from sklearn.preproces
阅读全文
posted @
2020-12-30 18:21
一杯明月
阅读(224)
推荐(0) 编辑
P8 08 特征预处理-归一化
摘要:注解: 其实就是值的转换。 注解: 这个是特征预处理方法的API。 例子: https://zhuanlan.zhihu.com/p/91125751 一般做机器学习应用的时候大部分时间是花费在特征处理上,其中很关键的一步就是对特征数据进行归一化,那么为什么要归一化呢? 目录: 定义 优点 方法 结
阅读全文
posted @
2020-12-30 18:21
一杯明月
阅读(254)
推荐(0) 编辑
P6 文本特征抽取以及中文问题
摘要:http://bilibili.com/video/BV184411Q7Ng?p=6 """ 演示字典的特征抽取, DictVectorizer是一个类的名字 """ from sklearn.feature_extraction import DictVectorizer def dictvec(
阅读全文
posted @
2020-12-30 18:20
一杯明月
阅读(218)
推荐(0) 编辑
P5 字典特征数据抽取
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=5 注解: 把一句英文转变成了一个二维数组。 注解: 计算机理解不了英文文章,只能理解数据。 特征抽取的示例代码: """ 演示字典的特征抽取, DictVectorizer是一个类的名字 """ from
阅读全文
posted @
2020-12-30 18:19
一杯明月
阅读(175)
推荐(0) 编辑
P4 04 特征工程的定义
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=4 注解: 数据1、数据2、数据3称为样本。 注解: sklearn scikit-learn 注解: 机器学习不需要去除重复值。 皮肤颜色的特征值是“黄”、“白”、“黑”,是字符串,不能直接送入机器学习的模
阅读全文
posted @
2020-12-30 18:19
一杯明月
阅读(100)
推荐(0) 编辑
P1 01 机器学习简介
摘要:http://bilibili.com/video/BV184411Q7Ng?from=search&seid=739809869027647463 注解: 人工智能、机器学习、深度学习3个名次的出现顺序是:人工智能-->机器学习-->深度学习 下面是一些深度学习框架: 注解: 用的最多的是tens
阅读全文
posted @
2020-12-30 18:18
一杯明月
阅读(163)
推荐(0) 编辑
P2 02 机器学习概述
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=2 下面是机器学习的一个应用: 注解: AlphaGo能下赢柯洁,就是机器学习的结果,机器学习了无数的棋盘。 柯洁一天可以学习100盘棋局,比较有限,但是AlphaGo算法一天可以学习成千上万盘棋局,并从中获
阅读全文
posted @
2020-12-30 18:18
一杯明月
阅读(100)
推荐(0) 编辑
P3 03 数据集的构成
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=3 注解: 机器学习的数据格式:csv格式。 注解: 1、2、3是指的第几个人。 GIL:全局解释锁。 多线程运行的时候,Numpy的运算速度比Python的运算速度要快很多。
阅读全文
posted @
2020-12-30 18:18
一杯明月
阅读(145)
推荐(0) 编辑
P79 自实现一个线性回归
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=79 代码示例: """ 写一个线性回归 运用分布式计算机集群进行训练 即:运用多台计算机的cpu和gpu进行参数保存、模型训练和预测 """ import tensorflow as tf """ 定义一个
阅读全文
posted @
2020-12-27 17:39
一杯明月
阅读(217)
推荐(0) 编辑
P78 分布式原理、架构、更新参数模式
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=78 注解: 参数服务器保存的权重参数不在本地,而在远程服务器上面。
阅读全文
posted @
2020-12-27 13:11
一杯明月
阅读(386)
推荐(0) 编辑
P76 验证码识别程序流程及图片数据的处理
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=76 注解: 让交叉熵损失值最小等价于目标值处1对应的概率值最大,直觉上看相当于是强制拟合一个非线性函数,或者说强符合一个非线性函数。 让交叉熵损失值最小等价于目标值处1对应的概率值最大,此时意味着预测值和目
阅读全文
posted @
2020-12-26 23:27
一杯明月
阅读(311)
推荐(0) 编辑
P75 验证码识别原理分析
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=75 注解: 每个字母输出属于26个字母的概率。 注解: 经过卷积神经网络后,每个样本图片的输出应该是[4*26]个概率值。 注解: a是全连接层之后经过softmax运算后的104个概率值,b是26*4个目
阅读全文
posted @
2020-12-26 17:54
一杯明月
阅读(91)
推荐(0) 编辑