Processing math: 100%

02 2020 档案

摘要:深度学习模型常常使⽤丢弃法(dropout)来应对过拟合问题。丢弃法有⼀些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverted dropout)。 1. 函数将以 的概率丢弃 中的元素。 2. 运⾏例⼦来测试⼀下 dropout 函数。其中丢弃概率分别为0、0.5和1。 丢弃率为0.5 丢 阅读全文
posted @ 2020-02-29 21:06 Someday&Li 阅读(731) 评论(0) 推荐(0) 编辑
摘要:内容概览: 一、为什么需要使用反走样? 因为如左图所示是我们需要采样的三角形,右图是根据判断像素点是否在三角形内,采样后进行填充后的图案。明显看出右图和左图的差异性,这种现象叫做“锯齿”,我们改善这种现象,可通过“反走样(或者抗锯齿 )”改善。 二、图形学中的采样 采样在图形学中无处不在。常见的采样 阅读全文
posted @ 2020-02-28 22:08 Someday&Li 阅读(546) 评论(0) 推荐(0) 编辑
摘要:过拟合现象,即模型的训练误差远⼩于它在测试集上的误差。虽然增⼤训练数据集可能会减轻过拟合,但是获取额外的训练数据往往代价⾼昂。本节介绍应对过拟合问题的常⽤⽅法:权重衰减(weight decay)。 一、方法 权重衰减等价于 范数正则化(regularization)。正则化通过为模型损失函数添加惩 阅读全文
posted @ 2020-02-27 23:24 Someday&Li 阅读(1058) 评论(0) 推荐(0) 编辑
摘要:一、训练误差和泛化误差 对于一个模型,并不是在本训练集下的准确率越高越好,很可能会因为过拟合,导致在本模型的训练集测试效果好,但在其他数据集的效果差。由此,有两个误差概念: 训练误差: 指该模型在训练数据集上表现的误差。 泛化误差: 指该模型放到任一个数据集下表现的误差,取近似误差。泛化误差更具参考 阅读全文
posted @ 2020-02-26 22:39 Someday&Li 阅读(379) 评论(0) 推荐(0) 编辑
摘要:今日学习内容概览: 1. Finishing up Viewing Viewport transformation 2. Rasterization Different raster displays Rasterizing a triangle 一、透视投影(Perspective Project 阅读全文
posted @ 2020-02-25 22:01 Someday&Li 阅读(902) 评论(1) 推荐(0) 编辑
摘要:其他博客: 多层感知机概述:https://www.cnblogs.com/somedayLi/p/12313804.html 多层感知机从零开始实现:https://www.cnblogs.com/somedayLi/p/12359167.html 1. 使⽤Gluon来实现上⼀节中的多层感知机。 阅读全文
posted @ 2020-02-24 22:56 Someday&Li 阅读(732) 评论(0) 推荐(0) 编辑
摘要:其他博客: 多层感知机概述:https://www.cnblogs.com/somedayLi/p/12313804.html 多层感知机简洁实现:https:////www.cnblogs.com/somedayLi/p/12359420.html 下⾯实现⼀个多层感知机。⾸先导⼊实现所需的包或模 阅读全文
posted @ 2020-02-24 22:08 Someday&Li 阅读(869) 评论(0) 推荐(0) 编辑
摘要:一、问题描述: 安装ipywidgets后,我在运行下述代码时,出现了错误`` 错误显示: 错误截图: 二、问题分析: 可以用命令 检查是否能在后台找到这个插件,如果不能就需要重新安装。可以尝试下面这个解决方法: 然而上面的运行我并没有解决,于是进行了后续步骤。我安装的版本是4.x,查看了一系列解决 阅读全文
posted @ 2020-02-24 12:05 Someday&Li 阅读(2596) 评论(0) 推荐(0) 编辑
摘要:一、问题描述: 在进行深度学习导包时,运行代码: 出现了“ImportError: FloatProgress not found. Please update jupyter and ipywidgets. See https://ipywidgets.readthedocs.io/en/stab 阅读全文
posted @ 2020-02-24 00:13 Someday&Li 阅读(6853) 评论(0) 推荐(0) 编辑
摘要:一、问题描述: 在运行jupyter notebook时,显示服务挂掉。看后台提示:ImportError: cannot import name 'secure_write',无法重启成功。 1. 后台日志记录: 2.jupyter notebook网页显示情况: 无法重启: 显示 如果在cmd环 阅读全文
posted @ 2020-02-23 21:35 Someday&Li 阅读(8929) 评论(0) 推荐(0) 编辑
摘要:最初在子环境中安装,但是老出现问题,于是就在base环境中安装,运行命令(使用管理员模式打开anaconda prompt应该会避免一些问题): 一、安装nbextensions (后续:使用conda命令简单还可以避免许多问题,但我已经安装好了,懒得改博客了。) 参考博客:https://blog 阅读全文
posted @ 2020-02-23 18:45 Someday&Li 阅读(3009) 评论(0) 推荐(0) 编辑
摘要:⾸先导⼊本节实现所需的包或模块。 1.获取数据集 使⽤Fashion MNIST数据集,并设置批量⼤⼩为256。 2.初始化模型参数 跟线性回归中的例⼦⼀样,我们将使⽤向量表示每个样本。已知每个样本输⼊是⾼和宽均为28像素的图像。模型的输⼊向量的⻓度是28×28=784:该向量的 阅读全文
posted @ 2020-02-22 21:22 Someday&Li 阅读(679) 评论(0) 推荐(0) 编辑
摘要:学习内容概览: "3D transformations" "Viewing(观测)转换" View/Camera transformation Projection(投影) transformation Orthographic(正交) projection Perspective(透视) proj 阅读全文
posted @ 2020-02-21 22:57 Someday&Li 阅读(655) 评论(0) 推荐(0) 编辑
摘要:一、Tensor用于自动求梯度 "tensor"这个单词⼀般可译作“张量”,张量可以看作是⼀个多维数组。标量可以看作是0维张量,向量可以看作1维张量,矩阵可以看作是⼆维张量。 在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的 包能够根据输⼊和前向传播过程⾃动构建计算图 阅读全文
posted @ 2020-02-20 22:56 Someday&Li 阅读(658) 评论(0) 推荐(0) 编辑
摘要:本节将介绍如何只利⽤ 和 来实现⼀个线性回归的训练。 ⾸先,导⼊本节中实验所需的包或模块,其中的matplotlib包可⽤于作图,且设置成嵌⼊显示。 ⾸先,导⼊本节中实验所需的包或模块: 一、生成数据集 我们构造⼀个简单的⼈⼯训练数据集,它可以使我们能够直观⽐较学到的参数和真实的模型参数的区 别。设 阅读全文
posted @ 2020-02-19 23:10 Someday&Li 阅读(496) 评论(0) 推荐(0) 编辑
摘要:一、为什么学习transformation? modeling(建模) Viewing(可视化) 为什么translation? 1. 建模:转化 2. 建模:旋转 3. 建模:变换尺度 这个是Pixar公司的开场动画,那个小人一直在踩字母‘I’,这个插入gif有点问题,就用截图了。 4. 3D到2 阅读全文
posted @ 2020-02-18 21:57 Someday&Li 阅读(693) 评论(0) 推荐(0) 编辑
摘要:为了防止python环境变乱,于是新建子环境进行不同项目操作。最近想使用jupyter切换环境进行操作。遇到了下列问题: "1. 安装插件,使jupyter可以切换环境" "2. ImportError: DLL load failed: 找不到指定的模块。" "3. ImportError: DL 阅读全文
posted @ 2020-02-17 11:18 Someday&Li 阅读(5344) 评论(0) 推荐(0) 编辑
摘要:一、导入所需的包或模块: 运行环境:win10 运行平台: python版本:python3.7 阅读全文
posted @ 2020-02-16 22:59 Someday&Li 阅读(251) 评论(0) 推荐(0) 编辑
摘要:在学习pytorch版本的深度学习中,大多会因为这个包困扰,如果直接安装 包,在后期使用中会导致某些函数无法实现。因此仍旧需要安装 "'d2lzh_pytorch'下载传送门" ,下载解压后,直接放入包文件里即可。 我的文件路径,可参考一下: 我下载之后运行下面的导入包的命令时,还提示 ,`tqdm 阅读全文
posted @ 2020-02-16 22:12 Someday&Li 阅读(11180) 评论(0) 推荐(2) 编辑
摘要:其他博客: 多层感知机从零开始实现:https://www.cnblogs.com/somedayLi/p/12359167.html 多层感知机简洁实现:https:////www.cnblogs.com/somedayLi/p/12359420.html 一、隐藏层 多层感知机在单层神经⽹络的基 阅读全文
posted @ 2020-02-15 21:29 Someday&Li 阅读(1811) 评论(0) 推荐(0) 编辑
摘要:一、向量(Vectors) 向量表示示意图: 有序实数组,用以表示在不同坐标轴上的投影长度 有行和列两种表达方式,在图形学中常以列表达 代表了一个有方向的长度 基本运算: 加法(满足结合律和交换律) 标量乘以向量(满足结合律和分配率) 点乘(内积,结果为标量,几何意义是 [公式] ,满足分配率和交换 阅读全文
posted @ 2020-02-14 22:42 Someday&Li 阅读(901) 评论(2) 推荐(1) 编辑
摘要:线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。 由于线性回 阅读全文
posted @ 2020-02-13 22:30 Someday&Li 阅读(659) 评论(0) 推荐(0) 编辑
摘要:损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,从而衡量模型预测的好坏。它是一个非负实值函数,通常使用L(Y,f(x))来表示,损失函数越小,模型的鲁棒性就越好。 常用损失函数 常见的损失误差主要有以下几种: 0 1损失(Zero one l 阅读全文
posted @ 2020-02-12 22:16 Someday&Li 阅读(680) 评论(0) 推荐(0) 编辑
摘要:今天闫令琪老师主要介绍了图形学的相关应用及本课涉及的内容概述。 一、计算机图形学概述: 计算机图形学(Computer graphics,CG)是研究计算机在硬件和软件的帮助下创建计算机图形的科学学科,是计算机科学的一个分支领域,主要关注数字合成与操作视觉的图形内容。简单的说它与计算机视觉(Comp 阅读全文
posted @ 2020-02-11 21:45 Someday&Li 阅读(2224) 评论(0) 推荐(0) 编辑
摘要:一、激活函数简介 首先,我们先通过三个问题掌握神经网络激活函数的概念及意义: 1. 为什么需要激活函数? 神经网络可以看成是一个多层复合函数,早期引入激活函数就是为了使其具有 非线性 ,因为引入之前为线性函数相互复合,但这样得到的最终结果仍旧是线性的。假如需要将一个 n 维向量,变成 m 维的向量( 阅读全文
posted @ 2020-02-10 22:28 Someday&Li 阅读(830) 评论(0) 推荐(0) 编辑
摘要:一、人脸识别流程 (一)对齐 通过确定人脸中的标定点(landmark)的位置进行人脸对齐。(找3个点即可,一般找5个点:鼻子、眼睛、嘴角两端)对齐后可以找到一个二维坐标平面,进行下一步仿射变换。 (二)仿射变换 原理 二维坐标到二维坐标之间的线性变换 不共线的三对对应点决定了一个唯一的仿射变换 其 阅读全文
posted @ 2020-02-09 20:49 Someday&Li 阅读(1807) 评论(0) 推荐(0) 编辑
摘要:一、softmax函数简介 softmax作为输出层的激励函数,在机器学习中常被看作是一种多分类器。通俗的意思就是,将一个物品输入,得出其中可能属于的类别概率(soft),最后得出最大可能性的判别(max)。下图为softmax的具体计算流程: 其中,3、1、 3为输入值,计算以e为底的幂,之后求各 阅读全文
posted @ 2020-02-08 11:48 Someday&Li 阅读(825) 评论(0) 推荐(0) 编辑
摘要:一、人脸识别应用介绍 如今流行的生物特征识别技术及市场占比: 下图为常用的生物特征识别的差异性对比: 人脸识别应用案例 1. 1:1识别——用户登录等。 2. 1:N(N≈10^3)识别——企业考勤等。 3. 1:N(N 10^9)识别——智能寻亲,通过某年龄段照片,对比监控数据;抓捕逃犯等。 二、 阅读全文
posted @ 2020-02-07 22:16 Someday&Li 阅读(853) 评论(0) 推荐(0) 编辑
摘要:今日任务概览: 今天主要是利用Autogluon框架完成图像分类任务。下面主要总结其中涉及的一些要点。 一、模型介绍: ResNet简介: ResNet(Residual Networks 残差网络),2015年何凯明团队提出,在2015年的ILSVRC(ImageNet)的classificati 阅读全文
posted @ 2020-02-06 22:04 Someday&Li 阅读(964) 评论(0) 推荐(0) 编辑
摘要:今天主要是通过Xshell连接服务器,便于访问学校的计算资源训练模型。 一、前期准备: (一)安装Xmanager Power Suite 6 Xmanager Power Suite 6 简介 Xmanager Power Suite 6 是一款强大好用的会话管理工具,主要适用于网络管理人员使用, 阅读全文
posted @ 2020-02-05 21:14 Someday&Li 阅读(650) 评论(0) 推荐(0) 编辑
摘要:今日学习内容概览: 今天主要阅读了一篇论文 Temporal Segment Networks:Towards Good Practices for Deep Action Recognition(时间片段网络面向深度动作识别的良好实践) ,这篇ECCV2016的文章主要提出了TSN(tempora 阅读全文
posted @ 2020-02-04 21:52 Someday&Li 阅读(714) 评论(0) 推荐(0) 编辑
摘要:一、Markdown 基础语法: 下面会列举一些基础语法知识: 1.标题: 展示效果 一级 二级 六级(支持的最小级别字体) 2.粗体、斜体: 3.代码引用 `单行代码` 使用一对 4.引用 展示效果 "王力宏" 5.列表 展示效果 无序列表1 无序列表2 1. 有序列表1 2. 有序列表2 6.表 阅读全文
posted @ 2020-02-03 21:40 Someday&Li 阅读(551) 评论(0) 推荐(1) 编辑
摘要:一、什么是度量学习? 度量学习 (Metric Learning) == 距离度量学习 (Distance Metric Learning,DML) == 相似度学习。 在数学中,一个度量(或距离函数)是一个定义集合中元素之间距离的函数。一个具有度量的集合被称为度量空间。度量学习(Metric Le 阅读全文
posted @ 2020-02-02 21:53 Someday&Li 阅读(10649) 评论(0) 推荐(1) 编辑
摘要:受新型冠状病毒影响,开学时间暂时未确定,因此开始在家学习。最近开始写每日总结以督促自己的学习情况。 今日学习内容: 一、英语: (一)复习词根词缀。 (二)精听短文,并默写。(30min) (三)练习口语(20,min) 二、计算机: (一)入门Markdown,学习初步使用技巧,明日开始使用Mar 阅读全文
posted @ 2020-02-01 17:59 Someday&Li 阅读(163) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示