12 2023 档案

摘要:1、dropout层 2、adam技术 3、He初始值 阅读全文
posted @ 2023-12-09 23:16 多一些不为什么的坚持 阅读(46) 评论(0) 推荐(0) 编辑
摘要:1、”PTQ Post Training Quantization 是训练后量化,也叫做离线量化,根据量化零点 xzero_pointxzero_point​ 是否为 0,训练后量化分为对称量化和非对称量化;根据数据通道顺序 NHWC(TensorFlow) 这一维度区分,训练后量化又分为逐层量化和 阅读全文
posted @ 2023-12-05 20:25 多一些不为什么的坚持 阅读(88) 评论(0) 推荐(0) 编辑
摘要:1、 阅读全文
posted @ 2023-12-05 00:22 多一些不为什么的坚持 阅读(65) 评论(0) 推荐(0) 编辑
摘要:1、调整权重和偏置以便拟合训练数据的过程称为学习 这句话指的是机器学习中模型训练的过程。在训练一个机器学习模型时,我们通常有一个训练数据集,其中包含输入和对应的期望输出。模型的目标是通过学习这些数据中的模式和规律,以便在未见过的数据上做出准确的预测或执行任务。 模型学习的核心是调整其参数,其中包括权 阅读全文
posted @ 2023-12-02 23:22 多一些不为什么的坚持 阅读(35) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示