Processing math: 0%

随笔分类 -  深度学习笔记

记录身为小白的学习记录,如有错漏,欢迎各位朋友指正!
摘要:谨以本文记录深度学习入门过程中学习的目标检测常见指标,如有错误还请朋友不吝指教! 目标检测评价指标——mAP 如上图所示,绿颜色的为GT Box,红颜色的Predict Box。如果要正确检测出图中的猫和狗,那怎么才能算是正确的检测呢?下边的这三个标准是都需要看的: GT与预测框的IoU是否大于阈值 阅读全文
posted @ 2021-08-09 18:28 sykline 阅读(1563) 评论(0) 推荐(1) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 概率生成模型 概率生成模型(Probabilistic Generative Model)简称生成模型,指一系列用于随机生成可观测数据的模型。 假设在一个连续 阅读全文
posted @ 2021-08-09 18:25 sykline 阅读(778) 评论(0) 推荐(0) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 本笔记中所涉及的Layer Normalization和Self-Attention笔记如下: Layer Normalization Self-Attent 阅读全文
posted @ 2021-05-19 16:08 sykline 阅读(806) 评论(1) 推荐(1) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 全连接网络的输入是一个向量,但是当输入是一个变长的向量序列时,就不能再使用全连接网络了。这种情况通常可以使用卷积网络或循环网络进行编码来得到一个相同长度的输出 阅读全文
posted @ 2021-05-04 19:13 sykline 阅读(2875) 评论(2) 推荐(1) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! CNN理解角度一 图像的表达形式 对于一个Machine来说,一张输入的图像其实是一个三维的Tensor。 如上图所示,三个维度分别表示图像的宽、高和Chan 阅读全文
posted @ 2021-04-23 18:39 sykline 阅读(634) 评论(0) 推荐(0) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 逐层归一化 逐层归一化可以有效地提高训练效率,其原因有以下几个方面: 更好的尺度不变性:在深度神经网络中,一个神经层的输入是之前神经层的输出,给定一个神经层$ 阅读全文
posted @ 2021-04-15 20:53 sykline 阅读(677) 评论(0) 推荐(1) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 数据预处理 一般而言,样本特征由于来源以及度量单位不同,他们的尺度(Scale)(即取值范围)往往差异很大。如果一个机器学习算法在缩放全部或部分特征后不影响它 阅读全文
posted @ 2021-04-09 15:55 sykline 阅读(225) 评论(0) 推荐(0) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 问题描述 当我们在训练一个网络时,如果观察到我们训练的loss如上图所示,越来越小,最后卡住不在下降了。我们会认为走到critical point了,因为cr 阅读全文
posted @ 2021-04-08 10:02 sykline 阅读(486) 评论(0) 推荐(0) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! Batch(批次) 首先回顾一下,在深度学习中,往往将训练数据集随机划分为N个batch,每完成一个batch的计算,便更新一次参数\theta,一轮(e 阅读全文
posted @ 2021-04-08 10:00 sykline 阅读(424) 评论(0) 推荐(0) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! Critical Point 当我们观察训练集上的Loss出现如下两种形式时: 蓝色线:当Loss下降到一定程度后,便不再减小。但此时的Loss并不能满足我们 阅读全文
posted @ 2021-04-08 09:56 sykline 阅读(407) 评论(0) 推荐(0) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 如何更好的训练我们的模型呢?我们可以通过观察训练集上的loss,来决定下一步采取什么措施来优化我们的训练过程。 训练集上的Loss很大 在这种情况下,可能的原 阅读全文
posted @ 2021-04-08 09:55 sykline 阅读(853) 评论(1) 推荐(0) 编辑
摘要:本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 一、Machine Learning概念理解 Machine Learning主要的任务是寻找一个合适的Function来完成我们的工作(非常不严谨的简单理解 阅读全文
posted @ 2021-04-08 09:48 sykline 阅读(633) 评论(0) 推荐(0) 编辑
摘要:本文作为自己学习softmax和softmax loss笔记而写,留作自己日后回顾,如文中有错误还请不吝指教,感谢! 图片来自:https://eli.thegreenplace.net/2016/the-softmax-function-and-its-derivative/ 全连接层解释 上图展 阅读全文
posted @ 2021-04-08 09:47 sykline 阅读(482) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示