07 2019 档案

采用IDM(Internet Download Manager)下载超大文件
摘要:推荐一个下载器。最近要下一个国外网站的数据集,大概10G左右,通过一个链接下载。但是直接在浏览器上下载网速非常慢,几十kb每秒,而且下载一段时间后就断了,又得从头开始下(╭(╯^╰)╮)。 这种情况推荐采用IDM下载器下载,免费试用。文件大小不到8M。 地址:http://www.internetd 阅读全文

posted @ 2019-07-31 12:48 那抹阳光1994 阅读(724) 评论(0) 推荐(0) 编辑

什么是95%的置信区间?
摘要:转自:https://blog.csdn.net/bitcarmanlee/article/details/82709774 阅读全文

posted @ 2019-07-30 10:40 那抹阳光1994 阅读(1073) 评论(0) 推荐(0) 编辑

机器学习博客
摘要:博客推荐 http://codewithzhangyi.com/ 阅读全文

posted @ 2019-07-29 21:50 那抹阳光1994 阅读(120) 评论(0) 推荐(0) 编辑

深度自动编码器
摘要:深度自动编码器由两个对称的深度置信网络组成,其中一个深度置信网络通常有四到五个浅层,构成负责编码的部分,另一个四到五层的网络则是解码部分。 这些层都是受限玻尔兹曼机(RBM)(注:也可以采用自编码器预训练?),即构成深度置信网络的基本单元,它们有一些特殊之处,我们将在下文中介绍。以下是简化的深度自动 阅读全文

posted @ 2019-07-24 23:07 那抹阳光1994 阅读(2566) 评论(0) 推荐(0) 编辑

深度神经网络中的权重初始化方法
摘要:待整理 Xavier-init 阅读全文

posted @ 2019-07-22 23:18 那抹阳光1994 阅读(234) 评论(0) 推荐(0) 编辑

自编码器和去噪自编码器的可视化
摘要:自编码器和去噪自编码器 Denoising Autoencoders (dA) Autoencoders Denoising Autoencoders Putting it All Together Running the Code Stacked Denoising Autoencoders (S 阅读全文

posted @ 2019-07-22 23:16 那抹阳光1994 阅读(666) 评论(0) 推荐(0) 编辑

深度学习教程网站
摘要:http://deeplearning.net/tutorial/contents.html index next | DeepLearning 0.1 documentation » index next | DeepLearning 0.1 documentation » Contents LI 阅读全文

posted @ 2019-07-22 23:09 那抹阳光1994 阅读(165) 评论(0) 推荐(0) 编辑

Notation and Setup
摘要: 阅读全文

posted @ 2019-07-19 14:48 那抹阳光1994 阅读(130) 评论(0) 推荐(0) 编辑

Pytorch自定义参数层
摘要:注意,一般官方接口都带有可导功能,如果你实现的层不具有可导功能,就需要自己实现梯度的反向传递。 阅读全文

posted @ 2019-07-18 16:02 那抹阳光1994 阅读(3081) 评论(0) 推荐(0) 编辑

pytorch BCELoss和BCEWithLogitsLoss
摘要:BCELoss CLASS torch.nn.BCELoss(weight=None, size_average=None, reduce=None, reduction='mean') 创建一个标准来度量目标和输出之间的二进制交叉熵。 unreduced (i.e. with reduction  阅读全文

posted @ 2019-07-18 15:54 那抹阳光1994 阅读(14781) 评论(0) 推荐(0) 编辑

Some helper functions for PyTorch
摘要:1 '''Some helper functions for PyTorch, including: 2 - get_mean_and_std: calculate the mean and std value of dataset. 3 - msr_init: net parameter initialization. 4 - progress_bar:... 阅读全文

posted @ 2019-07-17 15:05 那抹阳光1994 阅读(493) 评论(0) 推荐(0) 编辑

Pytorch固定部分参数(只训练部分层)
摘要:在迁移学习中我们经常会用到预训练模型,并在预训练模型的基础上添加额外层。训练时先将预训练层参数固定,只训练额外添加的部分。完了之后再全部训练微调。 在pytorch 固定部分参数训练时需要在优化器中施加过滤。 需要自己过滤 另外,如果是Variable,则可以初始化时指定 但是如果是(神经网络层) 阅读全文

posted @ 2019-07-17 11:19 那抹阳光1994 阅读(29459) 评论(0) 推荐(3) 编辑

Python 直接赋值、浅拷贝和深度拷贝解析
摘要:直接赋值:其实就是对象的引用(别名)。 浅拷贝(copy):拷贝父对象,不会拷贝对象的内部的子对象。 深拷贝(deepcopy): copy 模块的 deepcopy 方法,完全拷贝了父对象及其子对象。 直接赋值:其实就是对象的引用(别名)。 浅拷贝(copy):拷贝父对象,不会拷贝对象的内部的子对 阅读全文

posted @ 2019-07-16 15:59 那抹阳光1994 阅读(1193) 评论(0) 推荐(0) 编辑

torch.Tensor中的clone()方法
摘要:clone() → Tensor Returns a copy of the self tensor. The copy has the same size and data type as self. NOTE Unlike copy_(), this function is recorded i 阅读全文

posted @ 2019-07-16 15:54 那抹阳光1994 阅读(6406) 评论(0) 推荐(0) 编辑

机器学习工具pytorch中文英文工具书
摘要:书籍 深度学习之PyTorch实战计算机视觉 - 2018.pdf 图片.png 计算机视觉、自然语言处理和语音识别是目前深度学习领域很热门的三大应用方向,本书旨在帮助零基础或基础较为薄弱的读者入门深度学习,达到能够独立使用深度学习知识处理计算机视觉问题的水平。通过阅读本书,读者将学到人工智能的基础 阅读全文

posted @ 2019-07-16 14:51 那抹阳光1994 阅读(496) 评论(0) 推荐(0) 编辑

Pytorch入门之VAE
摘要:关于自编码器的原理见另一篇博客 : 编码器AE & VAE 这里谈谈对于变分自编码器(Variational auto-encoder)即VAE的实现。 1. 稀疏编码 首先介绍一下“稀疏编码”这一概念。 早期学者在黑白风景照片中可以提取到许多16*16像素的图像碎片。而这些图像碎片几乎都可由64种 阅读全文

posted @ 2019-07-13 11:26 那抹阳光1994 阅读(2896) 评论(0) 推荐(0) 编辑

台湾大学李宏毅机器学习教程
摘要:台湾大学李宏毅机器学习教程 http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS17.html 阅读全文

posted @ 2019-07-13 11:20 那抹阳光1994 阅读(663) 评论(0) 推荐(0) 编辑

自编码器AE & 变分自编码器VAE
摘要:转自:https://www.cnblogs.com/king-lps/p/8477300.html 学习总结于国立台湾大学 :李宏毅老师 自编码器 AE (Auto-encoder) & 变分自动编码器VAE(Variational Auto-encoder) 学习编码解码过程,然后任意输入一个向 阅读全文

posted @ 2019-07-13 11:18 那抹阳光1994 阅读(3471) 评论(0) 推荐(0) 编辑

深度信念网络(DBN)和堆叠自编码(SAE)、深度自编码器(DAE)的区别
摘要:深度信念网络(DBN)和堆叠自编码(SAE)、深度自编码器(DAE)的区别 深度信念网络(DBN)和堆叠自编码(SAE)、深度自编码器(DAE)具有类似的思想,因此很容易混淆。 受限制玻尔兹曼机(Restricted Bolzmann Machine)以及自编码器(Autoencoder) 受限制玻 阅读全文

posted @ 2019-07-13 10:28 那抹阳光1994 阅读(12414) 评论(0) 推荐(0) 编辑

花式自动编码器
摘要:自动编码器:各种各样的自动编码器 文章信息 本文地址:http://blog.keras.io/building-autoencoders-in-keras.html 本文作者:Francois Chollet 什么是自动编码器(Autoencoder) 自动编码器是一种数据的压缩算法,其中数据的压 阅读全文

posted @ 2019-07-12 22:31 那抹阳光1994 阅读(663) 评论(1) 推荐(0) 编辑

迁移和域自适应
摘要:reference [1] A kernel two sample test [2] Optimal kernel choice for large-scale two-sample tests [3] Deep domain confusion: maximizing for domain inv 阅读全文

posted @ 2019-07-12 19:55 那抹阳光1994 阅读(794) 评论(0) 推荐(0) 编辑

MMD :maximum mean discrepancy
摘要:MMD :maximum mean discrepancy(最大平均差异) MMD:maximum mean discrepancy。最大平均差异。最先提出的时候用于双样本的检测(two-sample test)问题,用于判断两个分布p和q是否相同。它的基本假设是:如果对于所有以分布生成的样本空间为 阅读全文

posted @ 2019-07-12 19:54 那抹阳光1994 阅读(1967) 评论(0) 推荐(0) 编辑

数据可视化工具t-SNE
摘要:从SNE到t-SNE再到LargeVis:https://bindog.github.io/blog/2016/06/04/from-sne-to-tsne-to-largevis/ t-SNE使用过程中的一些坑:http://bindog.github.io/blog/2018/07/31/t-s 阅读全文

posted @ 2019-07-12 19:31 那抹阳光1994 阅读(1714) 评论(0) 推荐(0) 编辑

线性判别分析(LDA)
摘要:线性判别分析 线性判别分析(linear discriminant analysis,LDA)是对费舍尔的线性鉴别方法的归纳,这种方法使用统计学,模式识别和机器学习方法,试图找到两类物体或事件的特征的一个线性组合,以能够特征化或区分它们。所得的组合可用来作为一个线性分类器,或者,更常见的是,为后续的 阅读全文

posted @ 2019-07-08 20:25 那抹阳光1994 阅读(4339) 评论(0) 推荐(0) 编辑

弱监督学习
摘要:南京大学周志华教授综述论文:弱监督学习 转自机器之心:https://www.jiqizhixin.com/articles/2018-03-05 在《国家科学评论》(National Science Review, NSR) 2018 年 1 月份出版的机器学习专题期刊中,介绍了南京大学周志华教授 阅读全文

posted @ 2019-07-04 23:20 那抹阳光1994 阅读(782) 评论(0) 推荐(0) 编辑

如何生成不重复的随机数
摘要:如何对一个数组进行不重复的随机采样? 可以先将该数组随机排序,然后取前m个数。 Matlab自带函数randperm(n)可以产生1到n的整数的无重复的随机排列,利用它就可以得到无重复的随机数。 randperm(n):产生一个1到n的随机顺序。 >> randperm(10) ans = 10 4 阅读全文

posted @ 2019-07-04 22:04 那抹阳光1994 阅读(5050) 评论(0) 推荐(0) 编辑

Python下如何下载超大文件???
摘要:如何通过链接下载一个大文件,大概10G??? 要快速 在写爬虫的过程中常常遇到下载大文件的情况,比如说视频之类的。如果只是传统的直接下载保存,速度就比较慢,所有就想写个多线程同步下载大文件的模块。 使用到的库 模块中使用到的库都比较简单:requests(写爬虫的都知道吧),threading(多线 阅读全文

posted @ 2019-07-01 17:40 那抹阳光1994 阅读(4378) 评论(0) 推荐(0) 编辑

导航

点击右上角即可分享
微信分享提示