摘要: 2.2 数据操作 2.2.1 创建 tensor 2.2.2 运算 2.2.3 广播机制 2.2.4 索引 2.2.5 运算的内存开销 2.2.6 tensor 和 NumPy 相互变换 2.3 自动求梯度 阅读全文
posted @ 2020-08-05 21:02 西伯尔 阅读(152) 评论(0) 推荐(0) 编辑
摘要: 1.机器学习的三要素就是:表示,评估和优化。 (1)表示: 将样本空间映射到一个合适的特征空间,一般地,我们更青睐于这样的表示是低维度的,是更加稀疏交互的,同时也希望是相互独立的。【从大量特征挑出好的特征,降维】 让机器来学习怎样表示,就是表示学习。 (2)评估: 模型在数据上表现的量化形式,我们选 阅读全文
posted @ 2020-08-05 20:50 西伯尔 阅读(1071) 评论(0) 推荐(0) 编辑
摘要: 3.1 线性回归 回归:输出是连续值。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。 线性回归适用于回归问题。 分类:输出是离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。 softmax回归则适用于分类问题。 线性回归和softma 阅读全文
posted @ 2020-08-05 20:24 西伯尔 阅读(260) 评论(0) 推荐(0) 编辑
摘要: 先定义什么是优化,优化是求损失最小值情况下的参数。这里的调参不包括超参数,超参数怎么调可以参考。 1.梯度下降算法 小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。 它的算法很简单: 先选取一组模型参数的初始值,如随机选取; 阅读全文
posted @ 2020-08-05 19:58 西伯尔 阅读(163) 评论(0) 推荐(0) 编辑
摘要: 概念区分 性能度量vs损失函数 损失函数、代价函数与目标函数 损失函数(Loss Function):是定义在单个样本上的,是指一个样本的误差,度量模型一次预测的好坏。代价函数(Cost Function)=成本函数=经验风险:是定义在整个训练集上的,是所有样本误差的平均,也就是所有损失函数值的平均 阅读全文
posted @ 2020-08-05 19:18 西伯尔 阅读(2308) 评论(0) 推荐(0) 编辑
摘要: 使用tensorflow2.0提供的GradientTape来自动求梯度。 1.tf.GradientTape基本使用方法 偏导,同时求多个偏导,二阶导,多个,两个函数对一个参数求导…… 参考: https://www.liulinlong.cn/index.php/archives/180/ 《动 阅读全文
posted @ 2020-08-05 17:35 西伯尔 阅读(526) 评论(0) 推荐(0) 编辑