10 2023 档案

摘要:目标:生成对抗样本,扰动图像,让原本是“停”的信号牌识别为“禁止驶入”: 代码如下(注意,因为我找的cnn原始模型支持的是灰度图像,所以彩色的对抗样本还需要修改代码): import cv2, os import numpy as np import numpy as np import tenso 阅读全文
posted @ 2023-10-30 11:55 bonelee 阅读(200) 评论(0) 推荐(0) 编辑
摘要:【FGSM生成对抗样本的原理和步骤】 快速梯度符号方法(Fast Gradient Sign Method,FGSM)是一种常用的生成对抗样本的方法。它的基本原理是利用模型的梯度信息来找到一个可以最大化模型误差的方向,然后沿着这个方向对输入数据进行微小的扰动,从而生成对抗样本。以下是FGSM生成对抗 阅读全文
posted @ 2023-10-29 23:55 bonelee 阅读(199) 评论(1) 推荐(0) 编辑
摘要:示例: #include <stdio.h> #include <stdlib.h> // 定义一个包含柔性数组的结构体 struct flex_array { int size; int data[0]; }; int main() { int i; int size = 10; // 动态分配内 阅读全文
posted @ 2023-10-24 15:07 bonelee 阅读(19) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2023-10-23 20:38 bonelee 阅读(5) 评论(0) 推荐(0) 编辑
摘要:【NSP机制是什么?】 NSP(Name Service Provider)是Windows网络编程中的一个重要概念,它是Winsock2的一部分,主要用于解析网络服务的名称和地址。在Windows 7中,NSP机制提供了一种插件式的架构,允许第三方开发者为特定的网络服务或协议提供自定义的名称解析服 阅读全文
posted @ 2023-10-21 17:36 bonelee 阅读(147) 评论(0) 推荐(0) 编辑
摘要:假设检验是统计学中的一种方法,用于判断观察到的数据是否支持我们对某个假设的看法。以下是一个实际的生活中的例子:假设你是一家药品公司的研究员,你正在研发一种新的药物,希望它能比现有的药物更有效地治疗某种疾病。你的零假设H0可能是:“新药的效果和旧药一样”,对立假设H1可能是:“新药的效果比旧药好”。为 阅读全文
posted @ 2023-10-15 21:14 bonelee 阅读(97) 评论(0) 推荐(0) 编辑
摘要:在深度学习中,梯度消失和梯度爆炸是两个常见的问题。梯度消失是指在进行反向传播时,梯度会随着层数的增加而指数级地减小,直到几乎消失,导致深层的神经网络参数无法有效更新。这主要是因为使用了像sigmoid和tanh这样的激活函数,它们在输入值较大或较小的情况下,梯度值接近于0。 梯度爆炸与梯度消失相反, 阅读全文
posted @ 2023-10-10 17:44 bonelee 阅读(1294) 评论(0) 推荐(0) 编辑
摘要:欠拟合: from tensorflow.keras import regularizers import numpy as np from tensorflow import keras from tensorflow.keras import layers from tensorflow.ker 阅读全文
posted @ 2023-10-10 15:30 bonelee 阅读(30) 评论(0) 推荐(0) 编辑
摘要:import numpy as np import tensorflow as tf import matplotlib.pyplot as plt def model(inputs): return tf.matmul(inputs, W) + b def square_loss(targets, 阅读全文
posted @ 2023-10-08 15:32 bonelee 阅读(165) 评论(0) 推荐(0) 编辑
摘要:代码来自:https://weread.qq.com/web/reader/33f32c90813ab71c6g018fffkd3d322001ad3d9446802347 《python深度学习》 from tensorflow.keras.datasets import mnist from t 阅读全文
posted @ 2023-10-08 14:19 bonelee 阅读(134) 评论(0) 推荐(0) 编辑
摘要:本文汇总了个人在GPT大模型和其他参考资料的帮助下,深入学习机器学习常用算法的原理和代码实现(不调用sklearn的前提下,用python和numpy实现,也会对比sklearn的实现结果一致性),本系列文章帮助AI从业人员通过机器学习的算法面试,以及通过华为的AI可信编程考试(^o^!)。 监督学 阅读全文
posted @ 2023-10-07 17:19 bonelee 阅读(243) 评论(0) 推荐(0) 编辑
摘要:代码来自《python深度学习》第二章: from tensorflow.keras.datasets import mnist from tensorflow import keras from tensorflow.keras import layers (train_images, train 阅读全文
posted @ 2023-10-03 23:49 bonelee 阅读(128) 评论(0) 推荐(0) 编辑
摘要:【算法原理】 Gibbs采样是一种用于估计多元分布的联合概率分布的方法。在MCNC(Markov Chain Monte Carlo)中,Gibbs采样是一种常用的方法。通俗理解Gibbs采样,可以想象你在一个多维空间中,你需要找到这个空间的某个特定区域(这个区域代表了你感兴趣的分布)。但是,你不能 阅读全文
posted @ 2023-10-03 00:13 bonelee 阅读(1016) 评论(0) 推荐(0) 编辑
摘要:【HMM基本概念】 隐马尔可夫模型(Hidden Markov Model,HMM)是一种统计模型,用于描述一个含有未知参数(隐状态)的马尔可夫过程。在HMM中,我们不能直接观察到状态,但可以观察到每个状态产生的一些相关数据(观测值)。HMM的目标是,给定观测序列,估计出最可能的状态序列。HMM的基 阅读全文
posted @ 2023-10-01 22:52 bonelee 阅读(256) 评论(0) 推荐(0) 编辑
摘要:【EM算法简介】 EM算法,全称为期望最大化算法(Expectation-Maximization Algorithm),是一种迭代优化算法,主要用于含有隐变量的概率模型参数的估计。EM算法的基本思想是:如果给定模型的参数,那么可以根据模型计算出隐变量的期望值;反过来,如果给定隐变量的值,那么可以通 阅读全文
posted @ 2023-10-01 12:36 bonelee 阅读(734) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示