摘要: 前言 很高兴也很荣幸你能看到这里,不管是什么原因让你找到了这里,都谢谢你的时间! 写文章,写博客,或者写点我觉得有意义的东西,两个目的: 1. 记录一下自己做过什么,不记录容易忘记,过了半年会看一下,觉得什么也没干,这不好; 2. 也让自己更好的融入互联网行业,从事互联网行业却在网上一点痕迹也没有, 阅读全文
posted @ 2020-03-02 12:22 renyuzhuo 阅读(193) 评论(1) 推荐(0) 编辑
摘要: GitHub Top 本项目为 GitHub 热点项目微信小程序客户端,首页仅推荐一个热点项目,这个项目往往是社会热门事件所催生的一个项目,如 "996.ICU" 、 "wuhan2020" ,所推荐项目标准为: 积极、健康、热点、具有一定进步性 。 GitHub 小程序有很多,但推荐热点项目的往往 阅读全文
posted @ 2020-02-02 18:54 renyuzhuo 阅读(1284) 评论(2) 推荐(1) 编辑
摘要: 循环神经网络(RNN) 人们不是每一秒都从头开始思考,就像你阅读本文时,不会从头去重新学习一个文字,人类的思维是有持续性的。传统的卷积神经网络没有记忆,不能解决这一个问题,循环神经网络(Recurrent Neural Networks)可以解决这一个问题,在循环神经网络中,通过循环可以解决没有记忆 阅读全文
posted @ 2021-02-08 22:02 renyuzhuo 阅读(417) 评论(0) 推荐(0) 编辑
摘要: 前言 我们在训练网络的时候经常会设置 batch_size,这个 batch_size 究竟是做什么用的,一万张图的数据集,应该设置为多大呢,设置为 1、10、100 或者是 10000 究竟有什么区别呢? # 手写数字识别网络训练方法 network.fit( train_images, trai 阅读全文
posted @ 2021-01-21 01:28 renyuzhuo 阅读(882) 评论(0) 推荐(0) 编辑
摘要: 前言 什么叫做主成分分析法,我们先看一张图椭圆的图,如果让你找一条线,使得椭圆上所有点在该线上映射的点最分散,保留下来的信息最多,你会怎么选择这条线?若是下图,会选择水平线,这是用一维的方式去尽可能多的表示二维的数据,那么多维的数据呢,是否可以用较低维的数据尽可能表示。 如何用二维的平面去尽可能表示 阅读全文
posted @ 2021-01-19 00:28 renyuzhuo 阅读(514) 评论(0) 推荐(0) 编辑
摘要: 前言 Sigmoid 函数(Logistic 函数)是神经网络中非常常用的激活函数,我们今天来深入了解一下 Sigmoid 函数。 函数形式 函数图像 代码实现 代码运行:Colab import matplotlib.pyplot as plt import numpy as np import 阅读全文
posted @ 2021-01-08 00:03 renyuzhuo 阅读(1512) 评论(0) 推荐(0) 编辑
摘要: 本文首发自公众号:RAIS,点击直接关注。 前言 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。本文我们聊一聊深度学习中的正则化。 深度学习中的正则化 一般来说,深度学习所要做的事情是用已有的训练集训练一个网络模型,然后针对新的数据给出预测,我们期望我们的模型在 阅读全文
posted @ 2020-07-19 16:30 renyuzhuo 阅读(269) 评论(0) 推荐(0) 编辑
摘要: 本文首发自公众号:RAIS,点击直接关注。 前言 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。从本文开始将继续学习本书的第二部分,将从第一部分介绍深度学习所需要的基础知识过渡到构建深度网络,是理论的应用与提高。 深度前馈网络 也叫 多层感知机 或者是 前馈神经 阅读全文
posted @ 2020-07-05 17:20 renyuzhuo 阅读(555) 评论(0) 推荐(0) 编辑
摘要: 本文首发自公众号: "RAIS" ,点击直接关注。 前言 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。我们前面也介绍了一些构建机器学习或深度学习的一些内容,理解了其中部分原理和这么做的原因,接下来我们总结一下,跳出来从更高一点的方面去概括的看一看,也许会有不同 阅读全文
posted @ 2020-04-12 09:12 renyuzhuo 阅读(356) 评论(0) 推荐(0) 编辑
摘要: 本文首发自公众号: "RAIS" ,点击直接关注。 前言 本系列文章为 "《Deep Learning》" 读书笔记,可以参看原书一起阅读,效果更佳。 梯度下降算法 在机器学习或深度学习中,模型的训练在一般都会被转换为求使得目标函数函数值最小的参数组合的优化问题,简而言之就是优化参数,梯度下降法是优 阅读全文
posted @ 2020-04-10 15:58 renyuzhuo 阅读(297) 评论(0) 推荐(0) 编辑
摘要: 本文首发自公众号: "RAIS" ,点击直接关注。 前言 本系列文章为 "《Deep Learning》" 读书笔记,可以参看原书一起阅读,效果更佳。 无监督学习算法 就是无监督的一种学习方法,太抽象,有一种定义(这种定义其实不够准确,无监督和监督之间界限模糊)是说如果训练集有标签的就是有监督学习, 阅读全文
posted @ 2020-04-07 14:04 renyuzhuo 阅读(3500) 评论(0) 推荐(0) 编辑
摘要: 本文首发自公众号: "RAIS" ,点击直接关注。 前言 本系列文章为 "《Deep Learning》" 读书笔记,可以参看原书一起阅读,效果更佳。由于各平台 Markdown 解析差异,有些公式显示效果不好,请到我 "个人维护网站" 查看。 监督学习算法 监督学习算法的定义是,给定一组输入 x 阅读全文
posted @ 2020-04-06 09:10 renyuzhuo 阅读(3494) 评论(0) 推荐(0) 编辑