会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
多一些不为什么的坚持
博客园
首页
新随笔
联系
订阅
管理
2024年2月7日
搞懂reshape
摘要: 作用: reshape是用来对多维数据进行重新排布的 假设现在有一个(2,3,4)的Tensor。 如果但看2轴的数据,就是一个长度为4的向量。现在再看1轴和二轴的数据,表示有3个长度为4的向量,组成了一个二维Tensor[3,4],这个时候再来联系0轴,表示有2两个二维Tensor[3,4],依次
阅读全文
posted @ 2024-02-07 15:22 多一些不为什么的坚持
阅读(62)
评论(0)
推荐(0)
2023年12月9日
15、深度学习入门:P235、P236、P237、P238、P239、P240、P241、P242
摘要: 1、dropout层 2、adam技术 3、He初始值
阅读全文
posted @ 2023-12-09 23:16 多一些不为什么的坚持
阅读(61)
评论(0)
推荐(0)
2023年12月5日
5、模型量化
摘要: 1、”PTQ Post Training Quantization 是训练后量化,也叫做离线量化,根据量化零点 xzero_pointxzero_point 是否为 0,训练后量化分为对称量化和非对称量化;根据数据通道顺序 NHWC(TensorFlow) 这一维度区分,训练后量化又分为逐层量化和
阅读全文
posted @ 2023-12-05 20:25 多一些不为什么的坚持
阅读(101)
评论(0)
推荐(0)
14、深度学习入门:P224、P225、P226、P227、P228、P229、P230、P231、P232、P233
摘要: 1、
阅读全文
posted @ 2023-12-05 00:22 多一些不为什么的坚持
阅读(69)
评论(0)
推荐(0)
2023年12月2日
13、深度学习入门:P154、P155、P156、P157、P158、P159、P160、P161
摘要: 1、调整权重和偏置以便拟合训练数据的过程称为学习 这句话指的是机器学习中模型训练的过程。在训练一个机器学习模型时,我们通常有一个训练数据集,其中包含输入和对应的期望输出。模型的目标是通过学习这些数据中的模式和规律,以便在未见过的数据上做出准确的预测或执行任务。 模型学习的核心是调整其参数,其中包括权
阅读全文
posted @ 2023-12-02 23:22 多一些不为什么的坚持
阅读(39)
评论(0)
推荐(0)
2023年11月25日
12、深度学习入门:P144、P145、P146、P147、P148、P149、P150、P151、P152、P153
摘要: 1、affine层 2、仿射变换 仿射变换是一种线性变换,包括平移、旋转、缩放、翻转和剪切等几种基本的几何变换。在仿射变换中,原始图形中的直线在变换后依然是直线。这类变换可以通过矩阵运算来表示。 3、softmax-with-loss 4、回归问题 回归问题是机器学习中的一类问题,其目标是预测一个连
阅读全文
posted @ 2023-11-25 00:07 多一些不为什么的坚持
阅读(94)
评论(0)
推荐(0)
2023年11月21日
11、深度学习入门:P139、P140、P141、P142、P143、P144
摘要: 1、Relu层 2、Sigmoid层 3、集约化 通常是指合并或优化计算图中的节点,以减少计算的复杂性或提高计算效率。
阅读全文
posted @ 2023-11-21 22:51 多一些不为什么的坚持
阅读(80)
评论(0)
推荐(0)
2023年11月19日
10、深度学习入门:P135、P136、P137、P138、P139
摘要: 1、加法层的实现 2、乘法层的实现
阅读全文
posted @ 2023-11-19 23:02 多一些不为什么的坚持
阅读(8)
评论(0)
推荐(0)
9、深度学习入门:P130、P131、P132、P133、P134
摘要: 1、反向传播
阅读全文
posted @ 2023-11-19 17:33 多一些不为什么的坚持
阅读(61)
评论(0)
推荐(0)
2023年11月17日
8、深度学习入门:P121、P122、P123、P124、P125、P126、P127、P128、P129、P130
摘要: 1、误差反向传播 2、“支付金额关于苹果的价格的导数” f = 2.2x(f是支付金额,x是苹果的价格);指的就是函数值f关于自变量x的导数; 3、链式法则
阅读全文
posted @ 2023-11-17 23:17 多一些不为什么的坚持
阅读(60)
评论(0)
推荐(0)
2023年11月10日
7、深度学习入门(P99、P100、P101、P102、P103、P104、P105、P106、P107、P108、P109)
摘要: 1、梯度下降法 如何通俗地解释梯度下降法_哔哩哔哩_bilibili 2、函数的等高线 3、“这里所说的梯度是指损失函数关于权重参数的梯度”
阅读全文
posted @ 2023-11-10 23:01 多一些不为什么的坚持
阅读(315)
评论(0)
推荐(0)
2023年11月5日
4、后端优化之算子分为计算和调度
摘要: 1、算子调度 2、调度空间 3、调度树 4、调度转换 参考资料:如何对算子IR表示?算子是如何分开计算和调度两部分?【AI编译器】后端优化02篇_哔哩哔哩_bilibili
阅读全文
posted @ 2023-11-05 23:53 多一些不为什么的坚持
阅读(73)
评论(0)
推荐(0)
2023年10月29日
20、类型转换(P32、P33、P34)
摘要: 1、”结果等于这个负数加上无符号数的模“ unsigned int u = 10; int i = -42; std::cout << u + i << std::endl; 如果 int 是32位,unsigned int 的范围是从 0 到 4,294,967,295,而 int 的范围是从 -
阅读全文
posted @ 2023-10-29 22:58 多一些不为什么的坚持
阅读(74)
评论(0)
推荐(0)
2023年10月22日
5、Conv算法详解(P43、P44、P45、P46)
摘要: 1、输出通路 在典型的卷积神经网络中,每个卷积核(滤波器)将应用于输入数据的一个通道,生成一个输出通道。
阅读全文
posted @ 2023-10-22 22:42 多一些不为什么的坚持
阅读(181)
评论(0)
推荐(0)
2023年10月20日
6、一维卷积简介
摘要: 一维卷积简介 (qq.com)
阅读全文
posted @ 2023-10-20 16:07 多一些不为什么的坚持
阅读(21)
评论(0)
推荐(0)
下一页
公告