随笔 - 433  文章 - 0 评论 - 2 阅读 - 26万

08 2020 档案
统计(一)概念区分
摘要:1.概率分布,分布律,概率密度,分布函数 阅读全文
posted @ 2020-08-08 19:29 西伯尔 阅读(217) 评论(0) 推荐(0) 编辑
《动手学深度学习》(TF2.0版)(一)2.预备知识
摘要:2.2 数据操作 2.2.1 创建 tensor 2.2.2 运算 2.2.3 广播机制 2.2.4 索引 2.2.5 运算的内存开销 2.2.6 tensor 和 NumPy 相互变换 2.3 自动求梯度 阅读全文
posted @ 2020-08-05 21:02 西伯尔 阅读(155) 评论(0) 推荐(0) 编辑
机器学习概念区分(一)性能度量 vs 损失函数
摘要:1.机器学习的三要素就是:表示,评估和优化。 (1)表示: 将样本空间映射到一个合适的特征空间,一般地,我们更青睐于这样的表示是低维度的,是更加稀疏交互的,同时也希望是相互独立的。【从大量特征挑出好的特征,降维】 让机器来学习怎样表示,就是表示学习。 (2)评估: 模型在数据上表现的量化形式,我们选 阅读全文
posted @ 2020-08-05 20:50 西伯尔 阅读(1187) 评论(0) 推荐(0) 编辑
《动手学深度学习》(TF2.0版)(二)3.深度学习基础
摘要:3.1 线性回归 回归:输出是连续值。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。 线性回归适用于回归问题。 分类:输出是离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。 softmax回归则适用于分类问题。 线性回归和softma 阅读全文
posted @ 2020-08-05 20:24 西伯尔 阅读(264) 评论(0) 推荐(0) 编辑
机器学习,优化——常用优化算法
摘要:先定义什么是优化,优化是求损失最小值情况下的参数。这里的调参不包括超参数,超参数怎么调可以参考。 1.梯度下降算法 小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。 它的算法很简单: 先选取一组模型参数的初始值,如随机选取; 阅读全文
posted @ 2020-08-05 19:58 西伯尔 阅读(173) 评论(0) 推荐(0) 编辑
机器学习,评估——损失函数
摘要:概念区分 性能度量vs损失函数 损失函数、代价函数与目标函数 损失函数(Loss Function):是定义在单个样本上的,是指一个样本的误差,度量模型一次预测的好坏。代价函数(Cost Function)=成本函数=经验风险:是定义在整个训练集上的,是所有样本误差的平均,也就是所有损失函数值的平均 阅读全文
posted @ 2020-08-05 19:18 西伯尔 阅读(2571) 评论(0) 推荐(0) 编辑
TensorFlow2.0(二)自动求梯度
摘要:使用tensorflow2.0提供的GradientTape来自动求梯度。 1.tf.GradientTape基本使用方法 偏导,同时求多个偏导,二阶导,多个,两个函数对一个参数求导…… 参考: https://www.liulinlong.cn/index.php/archives/180/ 《动 阅读全文
posted @ 2020-08-05 17:35 西伯尔 阅读(532) 评论(0) 推荐(0) 编辑
科学史
摘要:1.站在巨人的肩膀上:牛顿的另一面 牛顿对微积分和物理学做出了很大的贡献,在大家眼中是一位伟人。但是,我们今天要谈的是牛顿的另一面。 老师们经常会拿他说过的一句 话来鼓励自己的学生,那就是:“如果我比别人看得更远些,那是因为我站在巨人的肩膀上”。 老师们通常解释说,这句话的意思是牛顿的自谦,意思是只 阅读全文
posted @ 2020-08-04 10:21 西伯尔 阅读(185) 评论(0) 推荐(0) 编辑
TensorFlow2.0(一)tensor创建和属性
摘要:1.创建tensor # 2.2.1 创建tensor 三类方法: # 1.常量 # 1.1 tf.constant(value, dtype=None, shape=None),tf.convert_to_tensor(value, dtype=None),tf.fill(dims, value) 阅读全文
posted @ 2020-08-03 13:21 西伯尔 阅读(687) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示