随笔分类 -  基础

摘要:+ Image合并(https://blog.csdn.net/AugustMe/article/details/112370003) 阅读全文 »
posted @ 2023-08-28 17:46 哈哈哈喽喽喽 阅读(15) 评论(0) 推荐(0) 编辑
摘要:输入一段文字描述,将文字描述中的自然语言转化成整形的特征(可能存在一个词变成多个整形特征),类似词带模型 每个单词映射成一个整形,映射表的构成由256个Ascii码映射+bpe常见的字符组合统计包bpe_simple_vocab_16e6.txt.gz(是字符组合的列表,列表先后顺序表示字符组合的频 阅读全文 »
posted @ 2022-04-15 11:15 哈哈哈喽喽喽 阅读(803) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/240676850 互信息是信息论中用以评价两个随机变量之间的依赖程度的一个度量。 举个例子:x=今天下雨​与y=今天阴天​,显然在已知y​的情况下, ​发生x的概率会更大​ 在讨论 互信息 之前需要简单的了解一下信息论一些基础的相关概念。 阅读全文 »
posted @ 2022-01-10 21:44 哈哈哈喽喽喽 阅读(996) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/95952096 往期回顾:《二值化图像切割,让机器人视觉识别变得简单高效》 三通道彩色 图片也可以看作是三层二维数组的叠加,每一层二维数组都是一个通道。单通道的图像是灰色的,每个像素pixel只有一个value,数字越高,颜色越白,也就越亮 阅读全文 »
posted @ 2021-10-09 10:44 哈哈哈喽喽喽 阅读(1130) 评论(0) 推荐(0) 编辑
摘要:广播机制的原则 如果两个数组的后缘维度(trailing dimension,即从末尾开始算起的维度)的轴长度相符,或其中的一方的长度为1,则认为它们是广播兼容的。广播会在缺失和(或)长度为1的维度上进行。 这句话乃是理解广播的核心。广播主要发生在两种情况,一种是两个数组的维数不相等,但是它们的后缘 阅读全文 »
posted @ 2021-07-25 22:25 哈哈哈喽喽喽 阅读(135) 评论(0) 推荐(0) 编辑
摘要:#1.更新nvidia驱动 https://www.nvidia.cn/geforce/drivers/ 选择自己电脑显卡的型号(注意:笔记本的话选择型号后面带Notebooks的),下载最新的驱动安装包,点击下一步安装即可。 #2.CUDA10安装 https://developer.nvidia 阅读全文 »
posted @ 2021-07-16 01:05 哈哈哈喽喽喽 阅读(233) 评论(0) 推荐(0) 编辑
摘要:1、矩阵的秩 https://www.zhihu.com/question/21605094 2、矩阵转置求导 设Y=A∗X∗B,那么对X求导 和对X^T求导 所以 阅读全文 »
posted @ 2021-01-28 20:26 哈哈哈喽喽喽 阅读(41) 评论(0) 推荐(0) 编辑
摘要:1、场景 根据用户的收入、贷款、年龄等特征 判断是否给用户发放贷款 根据病人的体检各项指标 判断是否患有癌症 各自手写字体的图片 判断是哪个字 2、求解方式 2.1 是否可以回归进行分类? 答案肯定不可以, 原因一,如下图右图所示,使用回归方法来进行分类任务,效果不好(最好的效果应该是左图的那根线) 阅读全文 »
posted @ 2020-04-12 00:01 哈哈哈喽喽喽 阅读(184) 评论(0) 推荐(0) 编辑
摘要:1、背景 机器学习的error来自2类,一种是bias,一种是variance;优化的时候诊断error来自哪,就可以针对性进行优化 如下图: error来自bias时候,表示打靶的点的均值离靶心的距离; error来自variable表示打靶的点分布在均值的周围的离散程度。 high bias中心 阅读全文 »
posted @ 2020-04-11 21:26 哈哈哈喽喽喽 阅读(182) 评论(0) 推荐(0) 编辑
摘要:1、场景 a.根据历史的PM2.5值, 预测今天的PM2.5 b.根据历史A股上证指数点数,预测今天的上证指数 c.根据某个商品的销售量,预测未来一个月的销售量 2、求解方式 2.1 建模(function set) y = W * X + b 表示一个线性回归 2.2 Loss(定义functio 阅读全文 »
posted @ 2020-04-11 20:38 哈哈哈喽喽喽 阅读(226) 评论(0) 推荐(0) 编辑
摘要:1、理论基础 1.1 如下图所示,梯度下降就是找某个点附近使得loss最小值的参数 1.2 泰格公式 综上:为使Loss最小,应该使和和u,v的方向相反,值为圆圈半径。即为梯度下降方向 2、使用learning-rate进行梯度下降,调参learning-rate的方式是画出loss的变化图,如下。 阅读全文 »
posted @ 2020-04-06 21:29 哈哈哈喽喽喽 阅读(150) 评论(0) 推荐(0) 编辑
摘要:机器学习 监督学习 1、给与机器学习的目标,即需给输入和输出值 2、定义模型函数 3、定于模型的好坏,即损失函数 4、使用算法求最优模型函数 梯度下降w1 = w0 - (dL/dw)x 为什么是减号,比如dL/dw为负数,则增大x方向,w1才是减小的 增加正则项防止过拟合,正则项防过拟合原因是啥? 阅读全文 »
posted @ 2020-04-05 01:14 哈哈哈喽喽喽 编辑

点击右上角即可分享
微信分享提示