摘要: •数据预处理的几种方法: StandardScaler:确保每个特征的平均值为0,方差为1,使得所有特征在同一量级。但不能保证特征任何特定的最大值和最小值。 RobustScaler:与StandardScaler类似,确保每个特征的统计属性在同一范围,但使用中位数和四分位数。会忽略数据中的异常值。 阅读全文
posted @ 2020-02-26 21:44 啵仔 阅读(131) 评论(0) 推荐(0) 编辑
摘要: •感知机的多个输入信号都有各自固有的权重,这些权重发挥着控制各个信号的重要性的作用。 即权重越大,对应 该权重的 信号的重要性就越高。 •偏置b用来调整神经元被激活的容易程度 •单层感知机的局限性在于只能分割表示线性空间, 多层感知机可以表示非线性空间。 阅读全文
posted @ 2020-02-26 19:33 啵仔 阅读(91) 评论(0) 推荐(0) 编辑
摘要: •mxnet环境搭建帖 在anaconda5.0.1下搭建mxnet (pip版本):http://notes.kohill.cn/mxnet_install CUDA 10.0安装教程:https://blog.csdn.net/shuiyixin/article/details/99935799 阅读全文
posted @ 2020-02-23 16:03 啵仔 阅读(116) 评论(0) 推荐(0) 编辑
摘要: •图像处理三阶段: ①低级:图像预处理,譬如图像降噪、对比度增强、图像尖锐化,以输入和输出都是图像为特点。 ②中级:对图像进行进一步处理,譬如分割,分类等,以输入为图像但输出是从这些图像中提取的特征。 ③高级:理解识别的图像。 阅读全文
posted @ 2020-02-22 22:34 啵仔 阅读(129) 评论(0) 推荐(0) 编辑
摘要: •分类器的不确定度 决策函数(decision_function): 二分类:返回类型为(n_samples, ),为每个样本返回一个浮点数,这个浮点数的正负号代表了预测的分类,值的大小代表了置信度。 多分类:返回类型为(n_samples, n_classes),每一列对应每个类别的“确定度分数” 阅读全文
posted @ 2020-02-20 17:35 啵仔 阅读(130) 评论(0) 推荐(0) 编辑
摘要: •mlp = MLPClassifier(solver = 'lbfgs', random_state = 0) {‘lbfgs’,‘sgd’,‘adam’},默认’adam’。权重优化的求解器:'lbfgs’是准牛顿方法族的优化器;'sgd’指的是随机梯度下降。'adam’是指由Kingma,Di 阅读全文
posted @ 2020-02-19 22:07 啵仔 阅读(187) 评论(0) 推荐(0) 编辑
摘要: •xscale/yscale对数和其它非线性轴 import numpy as np import matplotlib.pyplot as plt #生成一些区间 [0,1]内的数据 y = np.random.normal(loc=0.5, scale=0.4, size=1000) y = y 阅读全文
posted @ 2020-02-17 18:54 啵仔 阅读(184) 评论(0) 推荐(0) 编辑
摘要: •核技巧(kernel trick) 所要解决的问题:向原始数据中添加非线性特征,可以让线性模型变得更强大,但不知道要添加哪些特征,若添加过多的特征。计算开销会很大 原理:直接计算扩展特征表示中数据点之间的距离,而不用实际对扩展进行计算 方法: ①多项式核,在一定阶数内计算原始特征所有可能的多项式; 阅读全文
posted @ 2020-02-17 15:53 啵仔 阅读(149) 评论(0) 推荐(0) 编辑
摘要: •XX, YY = np.meshgrid(xx, yy) meshgrid()函数用两个坐标轴上的点在平面上画网格 https://www.cnblogs.com/shanlizi/p/9127878.html •ax.plot_surface(XX, YY, ZZ, rstride = 8, c 阅读全文
posted @ 2020-02-16 23:23 啵仔 阅读(154) 评论(0) 推荐(0) 编辑
摘要: •hstack(tup) ,参数tup可以是元组,列表,或者numpy数组,返回结果为numpy的数组。 import numpy as np arr1 = np.array([1, 2, 3]) arr2 = np.array([4, 5, 6]) res = np.hstack((arr1, a 阅读全文
posted @ 2020-02-11 14:52 啵仔 阅读(254) 评论(0) 推荐(0) 编辑