04 2024 档案

摘要:1. 激活函数背景 1.1 激活函数作用 全连接层或CNN只是对数据做线性变换,即使添加再多的layer,本质依旧是一个单层神经网络。对此,引入非线性变换,对线性层的输出采用 Pointwise 类型的非线性变换作为下一层的输入,以此解决线性网络表达能力不足的问题。其中的 非线性函数称为 activ 阅读全文
posted @ 2024-04-23 22:17 橘子葡萄火龙果 阅读(28) 评论(0) 推荐(0) 编辑
摘要:图像存储原理:RGB、CMY、HSV(H:色调,S:饱和度,颜色浓淡,V:亮度)。 Opencv应用: 1)HSV颜色空间,利用 H 提取颜色。 2)仿射变换通过三对点求出变换矩阵M;透视变换通过四对点求出变换矩阵M。 3)二值化操作:普通二值化、自适应二值化(判断黑白的阈值由像素点邻域的像素确定) 阅读全文
posted @ 2024-04-19 17:34 橘子葡萄火龙果 阅读(18) 评论(0) 推荐(0) 编辑
摘要:1.1 卷积相关 1)卷积 2)反卷积 (只能做到近似恢复,无法完全恢复原图像) 参考:https://blog.csdn.net/qq_27261889/article/details/86304061 1.2 线性变换相关 1)Linear 2)矩阵相乘类:【mm:二维矩阵相乘;bmm:三维矩阵 阅读全文
posted @ 2024-04-16 11:54 橘子葡萄火龙果 阅读(17) 评论(0) 推荐(0) 编辑
摘要:1. 卷积 1)数学定义:S(t) = ∫ x(a) * w(t -a) da 等价于 S(t) = (x*w)(t) S(t):feature_map 特征图;x(a):input 输入;w:kernel_function 核函数(滤波器,算子) 对于工业数据,数据大多是 离散的、多维的 等,对上 阅读全文
posted @ 2024-04-15 15:05 橘子葡萄火龙果 阅读(29) 评论(0) 推荐(0) 编辑
摘要:1. 感知机与线性模型 单层感知机的表达式和线性分类表达式等同,可以将一个 单层感知机看作是一个线性分类器。单层感知机可以解决 与、或、非 的分类问题,但是不能解决异或分类(非线性)问题。how to solve the problem:多个线性分类器解决线性不可分问题,即:多个单层感知机组合叠加解 阅读全文
posted @ 2024-04-13 22:02 橘子葡萄火龙果 阅读(21) 评论(0) 推荐(0) 编辑
摘要:1. 基本认识 指针是内存地址,指针变量指的是存储内存地址的变量,本质和其它的变量没有区别,只是其它变量位置存储的是值,指针变量位置存储的是一个地址。 做一个比喻,以 int a = 10 为例:申请了一块内存里面存储 int 类型的10,而变量名称 a 就相当于这块内存的一个标签,平时只要说到标签 阅读全文
posted @ 2024-04-10 09:37 橘子葡萄火龙果 阅读(5) 评论(0) 推荐(0) 编辑
摘要:1. 聚类是啥 聚类是一种 无监督学习 算法,聚类会将数据集中的数据分成不同的标签簇,使得簇内的数据相似性尽可能大,簇间的相似性尽可能小。 该 无监督学习 方法,将 没有标签的数据 变成了标签的数据,每个数据的标签就是其所属簇的簇标签。 2. 聚类算法 2.1 K-means 算法思想:事先假设数据 阅读全文
posted @ 2024-04-04 23:11 橘子葡萄火龙果 阅读(31) 评论(0) 推荐(0) 编辑
摘要:1. 模型思想 从样本中选出距离测试点最近的 K 个样本,通过这 K 个样本的属性即可推测出待测样本的属性,分类:取占多数类别的样本;回归:取 K 个样本的平均值。 1.1 KNN三要素 1)K 值得选取:K 过大会导致欠拟合,K值过小会导致过拟合。 2)距离的度量:一般欧式距离。sklearn的A 阅读全文
posted @ 2024-04-04 21:41 橘子葡萄火龙果 阅读(8) 评论(0) 推荐(0) 编辑
摘要:1. 特征工程意义 数据和特征决定了机器学习的上线,而模型和算法只是逼近这个上限。 所有让模型效果变得更好的数据处理方式都可以称作特征工程。 2. 特征工程处理 2.1 数据清洗 选择数据处理工具&查看数据的元数据以及特征信息,对字段意义、数据格式内容等有所认识,基于业务理解对数据进行关联性验证等。 阅读全文
posted @ 2024-04-04 19:48 橘子葡萄火龙果 阅读(30) 评论(0) 推荐(0) 编辑
摘要:1.集成学习思想 1.1 Bagging 用一堆弱学习器,分别去解决同一个分类或回归问题,最终 投票决定分类结果 或 取均值决定回归结果。保证弱学习器的多样性。训练不同模型用的数据集采用【有放回随机抽样】。 1.2 随机森林 基学习器是 决策树,由原来的在所有特征的所有可能分裂点选取最佳分裂点,改成 阅读全文
posted @ 2024-04-03 20:10 橘子葡萄火龙果 阅读(15) 评论(0) 推荐(0) 编辑
摘要:1. 模型理念 香农信息论:一个系统越是混乱,信息熵越高,系统越是有序,信息熵越低。S = ∑ ( -p log(p) ),因此,系统内变量越多,信息熵越大,变量之间出现的概率越平均,信息熵越大。 在银行借贷决策模型中,判定一个人是否可以借贷,每个选中这个人的一个特征数据进行判断,然后再上次判断的基 阅读全文
posted @ 2024-04-03 17:52 橘子葡萄火龙果 阅读(17) 评论(0) 推荐(0) 编辑
摘要:1. 模型理念 利用 条件概率&全概率公式,由果推因,从已知的某个现象特征求得目标属性的方法。 所谓朴素:概率求解的过程中,假设数据特征之间是互相独立的,联合概率可以直接概率密度相乘。 2. 模型构建及特性 2.1 模型推理以及训练参数 由 条件概率公式 可以得知,在已知数据的各项特征前提下,求解当 阅读全文
posted @ 2024-04-03 16:54 橘子葡萄火龙果 阅读(36) 评论(0) 推荐(0) 编辑
摘要:1. 模型理念 在Logistic回归模型中,决策边界一旦能够将数据完全正确的分类,优化过程(梯段下降过程)就会立刻停止,因为在这个时候损失函数已经取得了最小值。而SVM则是求得所有正确解中的最优解。 支持向量积:以决策边界为中心,向两个方向做平行面直到两个平行面都恰好与两个类别的支持向量相交。两个 阅读全文
posted @ 2024-04-03 14:58 橘子葡萄火龙果 阅读(50) 评论(0) 推荐(0) 编辑
摘要:1. 模型理念 对于求解二分类问题,寻找一个决策边界,使得不同类别的点在边界的两侧,并用点到决策边界的 距离 表示该点属于某个类别的 概率。点到决策面的距离 d 直接将点代入决策面公式即可;距离到概率的映射函数需要符合概率的公理化定义,选用Sigmoid函数,(多分类问题选用 Softmax函数)。 阅读全文
posted @ 2024-04-03 11:58 橘子葡萄火龙果 阅读(16) 评论(0) 推荐(0) 编辑
摘要:1.5.1 Numpy常用方法 在Numpy常用方法如:sum,argmin等方法中,经常出现参数 axis。【axis表示维度,从0开始,含义是:如果设置axis=i,则计算会沿着 i 变化的方向操作。】 示例: import sys import numpy as np a = np.arang 阅读全文
posted @ 2024-04-02 18:23 橘子葡萄火龙果 阅读(43) 评论(0) 推荐(0) 编辑