随笔分类 - Brain-NN
TensorFlow, CNN, Bayesian Deep Learning
摘要:Convolutional Neural Networks (CNNs) are responsible for the major breakthroughs in image recognition made in the past few years. In this chapter we w
阅读全文
摘要:Ref: https://www.tensorflow.org/get_started/summaries_and_tensorboard 可视化对于Training的重要性,不言而喻。 代码示范 # -*- coding: utf-8 -*- # Using Tensorboard # # # W
阅读全文
摘要:Convolutional Neural Networks (CNNs) are responsible for the major breakthroughs in image recognition made in the past few years. In this chapter we w
阅读全文
摘要:In this chapter, we'll cover the following recipes: Implementing Operational Gates Working with Gates and Activation Functions Implementing an One-Hid
阅读全文
摘要:本章介绍tf基础知识,主要包括cookbook的第一、二章节。 方针:先会用,后定制 Ref: TensorFlow 如何入门? Ref: 如何高效的学习 TensorFlow 代码? 顺便推荐该领域三件装备: How TensorFlow Works? Steps Declaring Variab
阅读全文
摘要:Lecture 11 — Hopfield Nets Lecture 12 — Boltzmann machine learning Ref: 能量模型(EBM)、限制波尔兹曼机(RBM) 高大上的模型和理论。 Hopfield Nets 看了能量函数,发现: These look very muc
阅读全文
摘要:Link: Neural Networks for Machine Learning - 多伦多大学 Link: Hinton的CSC321课程笔记 Lecture 09 Lecture 10 提高泛化能力 介绍不同的方法去控制网络的数据表达能力,并介绍当我们使用这样一种方法的时候如何设置元参数,然
阅读全文
摘要:Link: Neural Networks for Machine Learning - 多伦多大学 Link: Hinton的CSC321课程笔记 补充: 参见cs231n 2017版本,ppt写得比过去更好。 [译] 理解 LSTM 网络:模块内部解析讲得不错。 Lecture 07 Lectu
阅读全文
摘要:Link: Neural Networks for Machine Learning - 多伦多大学 Link: Hinton的CSC321课程笔记 Ref: 神经网络训练中的Tricks之高效BP (反向传播算法) 关于梯度下降的东西,涉及的知识很多,有必要单独一章 Lecture 06 —— m
阅读全文
摘要:Link: Neural Networks for Machine Learning - 多伦多大学 Link: Hinton的CSC321课程笔记1 Link: Hinton的CSC321课程笔记2 一年后再看课程,亦有收获,虽然看似明白,但细细推敲其实能挖掘出很多深刻的内容;以下为在线课程以及该
阅读全文
摘要:常见的收敛算法有: solver : {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’}, default: ‘liblinear’ Algorithm to use in the optimization problem. For small datasets,
阅读全文
摘要:一篇介绍GAN应用的文章。今后GAN模型学习的主要内容。 中文链接:萌物生成器:如何使用四种GAN制造猫图 原文链接:https://ajolicoeur.wordpress.com/cats/ 项目 GitHub:https://github.com/AlexiaJM/Deep-learning-
阅读全文
摘要:主要就是对Inception Module的理解 网络结构分析 没有densy layer竟然,这是给手机上运行做铺垫么。 一个新型的模块设计: 【不同类型的layer并行放在了一起】 最初的设计: 对上图做以下说明: 1 . 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的
阅读全文
摘要:Jeff: fast.ai lesson 1&2感觉没讲什么干货。 ~/keras/keras.json配置后台theano or tensorflow. ~/./theanorc处理器配置cpu or gpu. VGG16的预测 VGG16的训练 VGG16结构分析 GoogleNet略胜一筹 结
阅读全文
摘要:CaffeNet - a variant of AlexNet Ref: Classification: Instant Recognition with Caffe This is caffeNet 区别:https://github.com/BVLC/caffe/issues/4202 This
阅读全文
摘要:From: http://www.infoq.com/cn/news/2016/12/depth-neural-network-fake-photos 当时大部分的DNN在识别图像中对象的过程中主要依据的特征是一些局部特征(如豹子身上的斑点、校车的黑黄色),而忽略了整体特征(如海星的五角星形状、豹子
阅读全文
摘要:从 compressive sensing 到 deep learning Ref: 低维模型与深度模型的殊途同归 有助理解核心,陌生概念需要加强理解。 对于做机器学习,和做图像视觉的研究者来说,过去的十年是非常激动人心的十年。以我个人来讲,非常有幸接触了两件事情: 第一件是压缩感知(compres
阅读全文
摘要:特征相关性对于DL的影响 链接:https://www.zhihu.com/question/47908908/answer/110987483 经验一 1. 输入特征最好不相关。如果某些维输入的相关性太强,那么网络中与这些输入神经元相连的权重实际上起到的作用就是相似的(redundancy),训练
阅读全文
摘要:中文版:https://zhuanlan.zhihu.com/p/27440393 原文版:https://www.oreilly.com/learning/generative-adversarial-networks-for-beginners “熟练tensorflow后,需研读实践的文章”
阅读全文
摘要:阅读笔记: 仅希望对底层有一定必要的感性认识,包括一些基本核心概念。 Here只关注Graph相关,因为对编程有益。 TF – Kernels模块部分参见:https://mp.weixin.qq.com/s/vwSlxxD5Ov0XwQCKy1oyuQ TF – Session部分,也可以在起专题
阅读全文