02 2024 档案

摘要:目录1. 什么是目标检测?2. 输出评价IoU3. 目标检测算法 R-CNNN4. SPP-net5. Fast R-CNN6. Faster R-CNN7. YOLO 1. 什么是目标检测? 找出图片中感兴趣的物体,并精确的进行分类 并标定物体的位置 目标检测中 能检测出来的物体 取决于当前任务数 阅读全文
posted @ 2024-02-29 23:58 jack-chen666 阅读(113) 评论(0) 推荐(0) 编辑
摘要:目录1. 模型的定义2. 图片batch generator3. 模型训练 1. 模型的定义 from keras.applications.inception_v3 import InceptionV3 from keras.models import Model from keras.layer 阅读全文
posted @ 2024-02-29 15:53 jack-chen666 阅读(28) 评论(0) 推荐(0) 编辑
摘要:目录1. my_nn2. mnist_cnn 1. my_nn #!/usr/bin/python3 # -*- coding:utf-8 -*- """ Copyright (c) Huawei Technologies Co., Ltd. 2021-2022. All rights reserv 阅读全文
posted @ 2024-02-29 11:08 jack-chen666 阅读(7) 评论(0) 推荐(0) 编辑
摘要:目录1. 01_first_graph2. session run3. global_variables_initializer4. InteractiveSession5. get_default_graph6. life_cicycle07 linear_regression8. manual_ 阅读全文
posted @ 2024-02-29 11:05 jack-chen666 阅读(5) 评论(0) 推荐(0) 编辑
摘要:目录1.2.3.4. 1. # 模型各层之间是线性关系 k层 k+1层可以加上各种元素来构造神经网络 # 这些元素可以通过一个列表来制定 然后作为参数传递给Sequential来生成模型 from keras.models import Sequential from keras.models im 阅读全文
posted @ 2024-02-28 11:42 jack-chen666 阅读(27) 评论(0) 推荐(0) 编辑
摘要:目录1. Normalization2. MobileNet 1. Normalization feature map shape 记为[N, C, H, W],其中 N 表示 batch size,即 N个样本;C 表示通道数;H、W 分别表示特征图的高度、宽度。这几个方法主要的区别就是在: BN 阅读全文
posted @ 2024-02-26 23:56 jack-chen666 阅读(41) 评论(0) 推荐(0) 编辑
摘要:目录1. Inception2. ResNet3. DenseNet4. MobileNet 1. Inception 其中的一部分: Inception相比之前的VGG LeNet这些都是单条线的 Inception 多分支并行 再concat Inception 第一版GoogleNet 特征总 阅读全文
posted @ 2024-02-25 22:54 jack-chen666 阅读(30) 评论(0) 推荐(0) 编辑
摘要:目录1. dropout2. 数据增强3. 优化器 1. dropout 使用 L1 和 L2 正则去限制神经网络连接的 weights 权重 在深度学习中,最流行的正则化技术,它被证明非常成功,即使在顶尖水准的神经网络中也可以带来 1%到 2%的准确度提升,这可能乍听起来不是特别多,但是如果模型已 阅读全文
posted @ 2024-02-24 22:45 jack-chen666 阅读(124) 评论(0) 推荐(0) 编辑
摘要:目录1. 什么是梯度消失2. mnist数据集 应用CNN3. 经典的CNN VGG 1. 什么是梯度消失 在梯度下降中,随着算法反向反馈到前面几层,梯度会越来越小,最终,没有变化,这时或许还没有收敛到比较好的解,这就是梯度消失问题, 梯度爆炸或者消失!!! 1,神经网络损失函数非凸的损失函数,逐步 阅读全文
posted @ 2024-02-22 21:30 jack-chen666 阅读(283) 评论(0) 推荐(0) 编辑
摘要:目录1. 池化层2. CNN的一般架构3. 经典的LeNet4 代码5 代码2 1. 池化层 为什么要有池化层? 目标就是降采样subsample,shrink,减少计算负荷,内存使用,参数数量(也可防止过拟合) 正如卷积神经网络一样,在池化层中的每个神经元被连接到上面一层输出的神经元,只对应一小块 阅读全文
posted @ 2024-02-20 22:49 jack-chen666 阅读(15) 评论(0) 推荐(0) 编辑
摘要:目录1. 什么是感受野 1. 什么是感受野 CNN与DNN 不同之处局部连接 卷积的计算: 假设有一个 55 的图像,使用一个 33 的 filter 进行卷积,得到一个 3*3 的 Feature Map 彩色图片 3通道: 一个卷积核 得到一层 feature_map 在一个特征图里面,所有的神 阅读全文
posted @ 2024-02-07 00:04 jack-chen666 阅读(15) 评论(0) 推荐(0) 编辑
摘要:目录1. 举例2. python实现 1. 举例 2. python实现 import numpy as np from sklearn.datasets import fetch_mldata from sklearn.utils.extmath import safe_sparse_dot de 阅读全文
posted @ 2024-02-04 23:42 jack-chen666 阅读(77) 评论(0) 推荐(0) 编辑
摘要:目录 人工神经网络有两个或两个以上隐藏层,称为DNN 深度神经网络 三种常见的激活函数及其导数 --复习前面所学 线性回归更新权重 逻辑回归 多分类 阅读全文
posted @ 2024-02-01 20:21 jack-chen666 阅读(5) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示