上一页 1 2 3 4 5 6 7 8 9 10 ··· 16 下一页
摘要: 目录1.2.3.4. 1. # 模型各层之间是线性关系 k层 k+1层可以加上各种元素来构造神经网络 # 这些元素可以通过一个列表来制定 然后作为参数传递给Sequential来生成模型 from keras.models import Sequential from keras.models im 阅读全文
posted @ 2024-02-28 11:42 jack-chen666 阅读(8) 评论(0) 推荐(0) 编辑
摘要: 目录1. Normalization2. MobileNet 1. Normalization feature map shape 记为[N, C, H, W],其中 N 表示 batch size,即 N个样本;C 表示通道数;H、W 分别表示特征图的高度、宽度。这几个方法主要的区别就是在: BN 阅读全文
posted @ 2024-02-26 23:56 jack-chen666 阅读(7) 评论(0) 推荐(0) 编辑
摘要: 目录1. Inception2. ResNet3. DenseNet4. MobileNet 1. Inception 其中的一部分: Inception相比之前的VGG LeNet这些都是单条线的 Inception 多分支并行 再concat Inception 第一版GoogleNet 特征总 阅读全文
posted @ 2024-02-25 22:54 jack-chen666 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 目录1. dropout2. 数据增强3. 优化器 1. dropout 使用 L1 和 L2 正则去限制神经网络连接的 weights 权重 在深度学习中,最流行的正则化技术,它被证明非常成功,即使在顶尖水准的神经网络中也可以带来 1%到 2%的准确度提升,这可能乍听起来不是特别多,但是如果模型已 阅读全文
posted @ 2024-02-24 22:45 jack-chen666 阅读(22) 评论(0) 推荐(0) 编辑
摘要: 目录1. 什么是梯度消失2. mnist数据集 应用CNN3. 经典的CNN VGG 1. 什么是梯度消失 在梯度下降中,随着算法反向反馈到前面几层,梯度会越来越小,最终,没有变化,这时或许还没有收敛到比较好的解,这就是梯度消失问题, 梯度爆炸或者消失!!! 1,神经网络损失函数非凸的损失函数,逐步 阅读全文
posted @ 2024-02-22 21:30 jack-chen666 阅读(83) 评论(0) 推荐(0) 编辑
摘要: 目录1. 池化层2. CNN的一般架构3. 经典的LeNet4 代码5 代码2 1. 池化层 为什么要有池化层? 目标就是降采样subsample,shrink,减少计算负荷,内存使用,参数数量(也可防止过拟合) 正如卷积神经网络一样,在池化层中的每个神经元被连接到上面一层输出的神经元,只对应一小块 阅读全文
posted @ 2024-02-20 22:49 jack-chen666 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 目录1. 什么是感受野 1. 什么是感受野 CNN与DNN 不同之处局部连接 卷积的计算: 假设有一个 55 的图像,使用一个 33 的 filter 进行卷积,得到一个 3*3 的 Feature Map 彩色图片 3通道: 一个卷积核 得到一层 feature_map 在一个特征图里面,所有的神 阅读全文
posted @ 2024-02-07 00:04 jack-chen666 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 目录1. 举例2. python实现 1. 举例 2. python实现 import numpy as np from sklearn.datasets import fetch_mldata from sklearn.utils.extmath import safe_sparse_dot de 阅读全文
posted @ 2024-02-04 23:42 jack-chen666 阅读(39) 评论(0) 推荐(0) 编辑
摘要: 目录 人工神经网络有两个或两个以上隐藏层,称为DNN 深度神经网络 三种常见的激活函数及其导数 --复习前面所学 线性回归更新权重 逻辑回归 多分类 阅读全文
posted @ 2024-02-01 20:21 jack-chen666 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 目录1. 神经网络算法是有监督的学习算法,2. 分类3. 训练4. 代码 进入新的内容,深度学习啦 万事万物的产生不是一下子就变出来的,学术上也是,一点点的进步才催生出一门新的学科或者技术,神经网络用于机器学习也不例外, 前面的机器学习的内容,线性回归,逻辑回归,多分类,决策树,以及各种集成学习,再 阅读全文
posted @ 2024-01-20 16:27 jack-chen666 阅读(178) 评论(0) 推荐(2) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 16 下一页