摘要: 第二周:机器学习策略(2)(ML Strategy(2)) 误差分析(Carrying out error analysis) 你好,欢迎回来,如果你希望让学习算法能够胜任人类能做的任务,但你的学习算法还没有达到人类的表现,那么人工检查一下你的算法犯的错误也许可以让你了解接下来应该做什么。这个过程称 阅读全文
posted @ 2019-07-09 21:05 KerShaw 阅读(398) 评论(0) 推荐(0) 编辑
摘要: 第二周:优化算法(Optimization algorithms) Mini batch 梯度下降(Mini batch gradient descent) 本周将学习优化算法,这能让你的神经网络运行得更快。机器学习的应用是一个高度依赖经验的过程,伴随着大量迭代的过程,你需要训练诸多模型,才能找到合 阅读全文
posted @ 2019-07-09 20:57 KerShaw 阅读(412) 评论(0) 推荐(0) 编辑
摘要: 第三周:Hyperparameter tuning, Batch Normalization and Programming Frameworks 调试处理(Tuning process) 目前为止,你已经了解到,神经网络的改变会涉及到许多不同超参数的设置。现在,对于超参数而言,你要如何找到一套好的 阅读全文
posted @ 2019-07-09 20:56 KerShaw 阅读(396) 评论(0) 推荐(0) 编辑
摘要: 第四周:深层神经网络(Deep Neural Networks) 深层神经网络(Deep L layer neural network) 目前为止我们学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且你还学到了向量化,这在随机初始化权重时是很重要。本周所要做的是把这些理念集合 阅读全文
posted @ 2019-07-09 20:51 KerShaw 阅读(389) 评论(0) 推荐(0) 编辑
摘要: 第三周:浅层神经网络(Shallow neural networks) 神经网络概述(Neural Network Overview) 本周你将学习如何实现一个神经网络。在我们深入学习具体技术之前,我希望快速的带你预览一下本周你将会学到的东西。如果在本节课中的某些细节你没有看懂你也不用担心,我们将在 阅读全文
posted @ 2019-07-09 20:50 KerShaw 阅读(442) 评论(0) 推荐(0) 编辑
摘要: 第二周:神经网络的编程基础(Basics of Neural Network programming) 二分类(Binary Classification) 这周我们将学习神经网络的基础知识,其中需要注意的是,当实现一个神经网络的时候,我们需要知道一些非常重要的技术和技巧。例如有一个包含 $m$ 个 阅读全文
posted @ 2019-07-09 20:46 KerShaw 阅读(498) 评论(0) 推荐(0) 编辑
摘要: "[C0]人工智能大师访谈 by 吴恩达" 0.1 吴恩达采访 Geoffery Hinton 0.2 吴恩达采访 Ian Goodfellow 0.3 吴恩达采访 Ruslan Salakhutdinov 0.4 吴恩达采访 Yoshua Bengio 0.5 吴恩达采访 林元庆 0.6 吴恩达采 阅读全文
posted @ 2019-07-09 20:43 KerShaw 阅读(500) 评论(0) 推荐(1) 编辑
摘要: 高等数学 导数定义: 导数和微分的概念 \(f'({{x}{0}})=\underset{\Delta x\to 0}{\mathop{\lim }},\frac{f({{x}{0}}+\Delta x)-f({{x}_{0}})}{\Delta x}\) (1) 或者: \(f'({{x}{0}} 阅读全文
posted @ 2019-07-06 13:31 KerShaw 阅读(1126) 评论(0) 推荐(0) 编辑
摘要: pass 阅读全文
posted @ 2019-06-18 13:33 KerShaw 阅读(131) 评论(0) 推荐(0) 编辑
摘要: 原文地址:https://www.cnblogs.com/tianshifu/p/8127837.html 前言 写Dockerfile是构建Docker镜像最通常的方式,接触过Docker的童鞋多少了解一些。前段时间研究OpenShift(paas的一种),发现了另外一种构建Docker镜像的方式 阅读全文
posted @ 2019-06-17 10:17 KerShaw 阅读(238) 评论(0) 推荐(0) 编辑