为了能到远方,脚下的每一步都不能少.|

园龄:粉丝:关注:

随笔分类 -  机器学习

OpenCV入门笔记
摘要:1、简单使用 https://www.cnblogs.com/Undo-self-blog/p/8423851.html #简单使用 # opencv C++ 模块叫cv2 import cv2 import numpy as np #加载 imread,imshow # numpy类型的数据 ro
229
0
0
决策树原理
摘要:(一) 决策树 1、决策树分类原理 决策树是通过一系列规则对数据进行分类的过程。它提供一种在什么条件下会得到什么值的类似规则的方法。决策树分为分类树和回归树两种,分类树对离散变量做决策树,回归树对连续变量做决策树。 近来的调查表明决策树也是最经常使用的数据挖掘算法,它的概念非常简单。决策树算法之所以
2650
0
0
机器学习三大框架对比
摘要:introduction: Science is NOT a battle, it is a collaboration. We all build on each other's ideas. Science is an act of love, not war. Love for the bea
593
0
0
PCA的数学原理(转)
摘要:PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的
259
0
0
机器学习之正则化(Regularization)
摘要:1. The Problem of Overfitting 1 还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。 如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往
1073
0
0
机器学习(2)之正规方程组
摘要:另外一种线性回归,它是利用矩阵求导的方式来实现梯度下降算法一样的效果。 1. 矩阵的求导 首先定义表示m×n的矩阵,那么对该矩阵进行求导可以用下式表示,可以看出求导后的矩阵仍然为m×n 这里要用到矩阵迹的特性,trace. 对于一个n阶的方阵(n×n),它的迹(tr)为对角线元素之和: 1. 对于一
466
0
0
机器学习(1)之梯度下降(gradient descent)
摘要:梯度下降是线性回归的一种(Linear Regression),首先给出一个关于房屋的经典例子, 面积(feet2) 房间个数 价格(1000$) 2104 3 400 1600 3 330 2400 3 369 1416 2 232 3000 4 540 ... ... .. 上表中面积和房间个数
166
0
0
数据标准化处理-特征缩放(Feature Scaling)
摘要:数据的标准化(normalization)和归一化 数据的标准化(normalization)是将数据按比例缩放,使之落入一个小的特定区间。在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行比较和加权。其中最典型的就是数据的归一化处
3424
0
0
乘法效率的极限
摘要:跟你计算乘法的方式不同,计算机使用了更快的乘法算法。今年夏天,热榜上被一个简单的数学问题刷屏:8÷2(2+2)=? 如果先用8除以2你会得到16;如果先用2乘(2+2),会得到1。所以,那个结果是对的?这个问题的分歧很大以至于上了纽约时报的新闻。正如部分评论所言,即使是专业的数学家也无法将这两者统一
599
0
0
4种协同过滤中的相似度计算方法
摘要:相似度计算对象是向量,或者叫做高维空间下的坐标,那表示这个向量的数值就有两种: 实数值;布尔值,也就是0或者1。 这几种不同计算方法适用于不同的数据种类。 1欧氏距离 欧氏距离,是一个欧式空间下度量距离的方法,不适合布尔向量之间。 2余弦相似度 余弦相似度,度量的是两个向量之间的夹角,其实就是用夹角
1538
0
0
机器/深度学习指南
摘要:怎么入门机器/深度学习? 回答这个问题,最先要考虑的问题是:你有多少时间? 准备用三个月入门,和想要一个月速成,肯定是截然不同的路径。当然我建议大家稳扎稳打,至少可以拿出五个月的时间来学好机器学习的基础知识。 基础很重要,知其所以然很重要。毕竟工具总在进步,每个月都会出现更好的深度学习技术,但基础知
0
0
0
点击右上角即可分享
微信分享提示
深色
回顶
收起