随笔分类 -  Machine Learning

摘要:CNN常用图片分类网络 0. 这些图片分类网络之间的关系,以及他们和RCNN等网络之间的关系,看这篇回答,说的非常好:https://www.zhihu.com/question/43370067 我稍微摘录一点: 首先作者给的那个图对于从整体掌握这些网络非常有帮助: 由于从这些pretrained 阅读全文
posted @ 2019-12-25 21:03 别再闹了 阅读(6047) 评论(0) 推荐(0) 编辑
摘要:目标检测、实例分割学习 这里只列举一些我本人觉得讲得很清楚的博文,以便于自己的学习 1. 综述1:https://www.zhihu.com/question/21665775 这篇文章对计算机视觉做了一个很好的、很生动的综述 2. 综述2:https://www.cnblogs.com/skyfs 阅读全文
posted @ 2019-12-25 16:59 别再闹了 阅读(1772) 评论(0) 推荐(0) 编辑
摘要:[转载]上采样 来源:https://www.cnblogs.com/han1ning1/p/6924404.html 放大图像 (或称为 上采样(upsampling) 或 图像插值(interpolating) )的主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。 来源:https: 阅读全文
posted @ 2019-12-25 16:54 别再闹了 阅读(1930) 评论(0) 推荐(0) 编辑
摘要:[转载]CNN中的激活函数 激活函数在DNN中就已经学过了,但是在CNN中也在用。因为有些CNN网络的描述中将激活函数叫成“激活层”,就让我误以为它是一个独立的层,会在几个卷积层之后独立配置,但是今天又回顾去看VGGNET的网络设计,发现它是将卷积层和激活层合并在一起的,如图: (是从笔记中截的图, 阅读全文
posted @ 2019-12-25 16:39 别再闹了 阅读(6018) 评论(0) 推荐(0) 编辑
摘要:[转载]CNN可学习参数个数的计算 来源:https://www.jianshu.com/p/aa856451f916 前几天有事耽搁了几天,现在正式开始继续学习 这篇文章对于回忆和进一步了解CNN的结构是很有帮助的 阅读全文
posted @ 2019-12-25 13:44 别再闹了 阅读(255) 评论(0) 推荐(0) 编辑
摘要:我自己用C++写了个GMM(Gaussian mixture model)模型 Written for an assignment 之前粗粗了解了GMM的原理,但是没有细看,现在有个Assignment让用C++手写一个GMM模型,有点方,花了一些时间写出来了。 先吐槽下,这两天算是把网上关于GMM 阅读全文
posted @ 2019-12-14 21:19 别再闹了 阅读(638) 评论(0) 推荐(0) 编辑
摘要:[转载]三十分钟理解:线性插值,双线性插值Bilinear Interpolation算法 来源:https://blog.csdn.net/xbinworld/article/details/65660665 这篇文章讲的很好,我就不复制粘贴了,想看的同学到原文看就好了 阅读全文
posted @ 2019-12-10 10:28 别再闹了 阅读(416) 评论(0) 推荐(0) 编辑
摘要:[转载]关于Pretrain、Fine tuning 这两种tricks的意思其实就是字面意思,pre train(预训练)和fine tuning(微调) 来源:https://blog.csdn.net/yjl9122/article/details/70198885 Pre train的mod 阅读全文
posted @ 2019-12-06 16:10 别再闹了 阅读(10893) 评论(0) 推荐(1) 编辑
摘要:[转载]sklearn多分类模型 这篇文章很好地说明了利用sklearn解决多分类问题时的implement层面的内容:https://www.jianshu.com/p/b2c95f13a9ae。我自己就不搬运了 阅读全文
posted @ 2019-12-01 21:01 别再闹了 阅读(1603) 评论(0) 推荐(0) 编辑
摘要:Grid Search 初学机器学习,之前的模型都是手动调参的,效果一般。同学和我说他用了一个叫grid search的方法、可以实现自动调参,顿时感觉非常高级。吃饭的时候想调参的话最差不过也就是粗暴遍历吧,没想到回来看了grid search发现其实就是粗暴遍历 emmm越学越觉得,机器学习解决问 阅读全文
posted @ 2019-12-01 12:58 别再闹了 阅读(6295) 评论(0) 推荐(0) 编辑
摘要:[转载]AdaBoost算法 原文:https://blog.csdn.net/v_july_v/article/details/40718799 这里就不转载了,到原文看吧。但是有几点可以注意下: 1. 上一个基本分类器训练出来的权值是下一个基本分类器的初始权值。并且每次分类器更新后,预测时都是这 阅读全文
posted @ 2019-12-01 12:42 别再闹了 阅读(190) 评论(0) 推荐(0) 编辑
摘要:Batch normalization简析 What is batch normalization 资料来源:https://www.bilibili.com/video/av15997678/?p=34 Batch normalization通俗来说,就是对每一层都进行normalization处 阅读全文
posted @ 2019-12-01 00:02 别再闹了 阅读(394) 评论(0) 推荐(0) 编辑
摘要:[转载]什么是白化(whitening)? 来源:https://blog.csdn.net/hjimce/article/details/50864602 白化whitening 原文地址:http://blog.csdn.net/hjimce/article/details/50864602 作 阅读全文
posted @ 2019-11-30 20:42 别再闹了 阅读(3969) 评论(0) 推荐(1) 编辑
摘要:PCA(主成分分析)方法浅析 降维、数据压缩 找到数据中最重要的方向:方差最大的方向,也就是样本间差距最显著的方向 PCA算法主要用于降维,就是将样本数据从高维空间投影到低维空间中,并尽可能的在低维空间中表示原始数据。PCA的几何意义可简单解释为: 0维 PCA:将所有样本信息都投影到一个点,因此无 阅读全文
posted @ 2019-11-30 20:38 别再闹了 阅读(1452) 评论(0) 推荐(0) 编辑
摘要:[转载]clip gradient抑制梯度爆炸 来源:https://blog.csdn.net/u010814042/article/details/76154391 1.梯度爆炸的影响 在一个只有一个隐藏节点的网络中,损失函数和权值w偏置b构成error surface,其中有一堵墙,如下所示 阅读全文
posted @ 2019-11-29 16:16 别再闹了 阅读(550) 评论(0) 推荐(0) 编辑
摘要:Pytorch中的自编码(autoencoder) 本文资料来源:https://www.bilibili.com/video/av15997678/?p=25 什么是自编码 先压缩原数据、提取出最有代表性的信息。然后处理后再进行解压。减少处理压力 通过对比白色X和黑色X的区别(cost函数),从而 阅读全文
posted @ 2019-11-29 12:04 别再闹了 阅读(3880) 评论(0) 推荐(0) 编辑
摘要:用只有2个G的显卡跑数据就需要在训练之前先把无关进程杀掉,防止跑到一半显存满了 :显示当前GPU中的线程 :输入PID以结束线程 阅读全文
posted @ 2019-11-27 17:11 别再闹了 阅读(5855) 评论(0) 推荐(0) 编辑
摘要:机器学习术语词典 emmm最近在准备机器学习课程的期中考试(开卷),由于是英文的,所以在语言上比较捉急。所以干脆准备了一个词典,里面的词是我从10+个PPT上手动撸下来然后翻译的,应该能保证在中文学术语境下是正确的。当然内容现在还比较局限,因为只是为了应付PolyU的期中考试。。。但是还是可扩展的! 阅读全文
posted @ 2019-10-29 20:15 别再闹了 阅读(723) 评论(0) 推荐(0) 编辑
摘要:All the matrials come from Machine Learning class in Polyu,HK and I reorganize them and add reference materials.I promise that I only use them to stud 阅读全文
posted @ 2019-10-29 00:26 别再闹了 阅读(982) 评论(0) 推荐(0) 编辑
摘要:The complete .ipynb file can be download through my share in onedrive:https://1drv.ms/u/s!Al86h1dThXMNxDtq_wkOF1PNARrl?e=WvRNaI All the materials come 阅读全文
posted @ 2019-10-28 02:00 别再闹了 阅读(1657) 评论(0) 推荐(1) 编辑