11 2019 档案
摘要:演示代码如下 1 import torch 2 from torch.autograd import Variable 3 import torch.nn.functional as F 4 import matplotlib.pyplot as plt 5 # make fake data 6 n
阅读全文
摘要:4.1什么是人脸识别 (1)人脸验证(face verification):1对1,输入一个照片或者名字或者ID,然后判断这个人是否是本人。 (2)人脸识别(face recognition):1对多,判断这个人是否是系统中的某一个人。 4.2One-shot学习 (1)比如一个公司的员工,一般每个
阅读全文
摘要:3.1目标定位 (1)案例1:在构建自动驾驶时,需要定位出照片中的行人、汽车、摩托车和背景,即四个类别。可以设置这样的输出,首先第一个元素pc=1表示有要定位的物体,那么用另外四个输出元素表示定位框的中心坐标和宽高,再用3个输出元素one-hot表示是三个类别中的哪一类。当第一个元素pc=0时表示是
阅读全文
摘要:关于卷积神经网络的入门基础知识: https://blog.csdn.net/weixin_42451919/article/details/81381294 卷积神经网络的相关公式推导: https://campoo.cc/cnn/ https://www.cnblogs.com/pinard/p
阅读全文
摘要:2.1为什么要进行实例探究 (1)就跟学编程一样,先看看别人怎么写的,可以模仿。 (2)在计算机视觉中一个有用的模型,,用在另一个业务中也一般有效,所以可以借鉴。 (3)本周会介绍的一些卷积方面的经典网络经典的包括:LeNet、AlexNet、VGG;流行的包括:ResNet、Inception,如
阅读全文
摘要:1.1计算机视觉 (1)计算机视觉的应用包括图像分类、目标检测、图像分割、风格迁移等,下图展示了风格迁移案例: (2)图像的特征量非常之大,比如一个3通道的1000*1000的照片,其特征为3*1000*1000达到300万,如果第一个隐藏层有1000个单元那么W[1]有20亿个参数,计算量不仅大,
阅读全文
摘要:2.1进行误差分析 (1)一识别猫为案例,错误率为10%,这时系统还可以有较大提升空间,这时该往哪方面努力呢?可以通过误差分析,具体可以拿出100个分类错误的样本,然后利用表格统计每个样本分类错误的原因(如下图所示),比如很模糊,狗和猫很像,有滤镜等,一个样本出错可以同时有多个原因,统计看因为什么原
阅读全文
摘要:1.1为什么是ML策略 优化神经网络的方法: (1)当对一个实际的应用系统进行优化时,可能有很多想法:如提高数据量,提高网络深度,正则化等等,一个错误的选择可能浪费非常多的时间,本课就是让你在面对很多选择时做出正确的选择,这就是ML策略。提高效率,让你的深度学习系统更快投入使用。 1.2正交化 (1
阅读全文
摘要:3.1调试处理 (1)不同超参数调试的优先级是不一样的,如下图中的一些超参数,首先最重要的应该是学习率α(红色圈出),然后是Momentum算法的β、隐藏层单元数、mini-batch size(黄色圈出)、再之后是Layer、learning rate decay(紫色圈出)、最后是Adam算法中
阅读全文
摘要:2.1Mini-batch梯度下降 (1)例如有500万个训练样本,这时可以每1000个组成一个Mini-batch,共用5000个Mini-batch。主要是为了加快训练。 (2)循环完所有的训练样本称为(1 epoch)。 (3)使用大括号X{t},Y{t}表示一个Mini-batch。(小括号
阅读全文
摘要:1.1训练,验证,测试集(Train/Dev/Test sets) (1)深度学习是一个按照下图进行循环的快速迭代的过程,往往需要多次才能为应用程序找到一个称心的神经网络。 (2)在机器学习中,通常将样本分成训练集,验证集和测试集三部分,数据规模相对较小,适合传统的划分比例(如6:2:2),数据集规
阅读全文
摘要:单层感知机 单层感知机基础总结很详细的博客 关于单层感知机的视频 最终y=t,说明经过训练预测值和真实值一致。下面图是sign函数 根据感知机规则实现的上述题目的代码 1 import numpy as np 2 import matplotlib.pyplot as plt 3 #输入数据 4 X
阅读全文
摘要:svm简介 支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。由简至繁的模型包括: 当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机;当训练样本近似线性
阅读全文
摘要:pca基础知识不了解的可以先看下一这篇博客:https://www.cnblogs.com/lliuye/p/9156763.html 具体算法实现如下: 1 import numpy as np 2 import matplotlib.pyplot as plt 3 # 载入数据 4 data =
阅读全文
摘要:下面的demo是根据kmeans算法原理实现的demo,使用到的数据是kmeans.txt 1 1.658985 4.285136 2 -3.453687 3.424321 3 4.838138 -1.151539 4 -5.379713 -3.362104 5 0.972564 2.924086
阅读全文
摘要:朴素贝叶斯详细介绍 贝叶斯介绍 1 # 导入算法包以及数据集 2 import numpy as np 3 from sklearn import datasets 4 from sklearn.model_selection import train_test_split 5 from sklea
阅读全文
摘要:从百度云课堂上截图的基础概念,如果之前不了解的可以先看一下这篇博客:https://blog.csdn.net/weixin_30708329/article/details/97262409 不同的数据集训练不同的模型,根据模型进行投票得到最终预测结果 多棵决策树组成森林,每个模型训练集不同和选择
阅读全文
摘要:下面是常见函数的代码例子 1 import torch 2 import numpy as np 3 print("分割线 ") 4 #加减乘除操作 5 a = torch.rand(3,4) 6 b = torch.rand(4) 7 print(a) 8 print(b) 9 print(tor
阅读全文
摘要:基础内容可以直接看这篇博客 下面的demo是使用决策树算法的一个例子,使用的数据链接如下: https://files.cnblogs.com/files/henuliulei/决策树.zip from sklearn.feature_extraction import DictVectorizer
阅读全文
摘要:KNN要用到欧氏距离 KNN下面的缺点很容易使分类出错(比如下面黑色的点) 下面是KNN算法的三个例子demo, 第一个例子是根据算法原理实现 import matplotlib.pyplot as plt import numpy as np import operator # 已知分类的数据 x
阅读全文
摘要:程序所用文件:https://files.cnblogs.com/files/henuliulei/%E5%9B%9E%E5%BD%92%E5%88%86%E7%B1%BB%E6%95%B0%E6%8D%AE.zip 概念 代价函数关于参数的偏导 梯度下降法最终的推导公式如下 多分类问题可以转为2分
阅读全文