摘要:
我们都知道torch.nn.Module在被继承时要求我们改写两个方法,一个是__init__,一个是forward。前者用于定义层,后者用于定义前向计算的流程。但是当我们在实际使用一个网络时,我们不会使用forward这个方法进行计算,而是进行如下的操作: 点击查看代码 import torch 阅读全文
摘要:
今天无意间了解到了github上的一个项目,可以对卷积网络做出可视化,具体地址是 CNN EXPLAINER 该项目支持对一张大小为64643的图片进行操作,对每一层的结果进行了可视化,帮助我们理解卷积神经网络到底在干什么,一定程度上弥补了深度学习解释性弱的问题。在模型的输出,会对图片中的内容进行1 阅读全文
摘要:
记得在我学了线性回归之后的一段时间里,我觉得这个玩意太好用了,可以对世界上很多东西都进行预测,以至于一想到预测就想着拿点数据来进行回归。后来才知道,很多事情不是一条简单的直线可以拟合的。后来又知道,其实线性回归只要稍作修改,还是可以拟合这个世界上大部分事情的。是不是有点绕?其实原因很简单,很多事情看 阅读全文
摘要:
等价:可以通过初等变换互相转化的矩阵。当A和B为同型矩阵,且r(A)=r(B)时,A,B一定等价。 相似: 。本质是基坐标转换,表示在不同坐标系下效果相同的线性变换过程。P为基坐标转换矩阵,是新基向量按列排列形成的矩阵。 重要性质(原理): A与B相似,则A与B有相同的特征 阅读全文
摘要:
二叉搜索树 二叉搜索树又称为二叉排序树、二叉查找树。请记住,本篇所介绍的所有树,都是二叉搜索树,也就是说都用到了二分查找的思想。 二叉搜索树的特征:每个结点的左结点都小于结点本身,右结点都大于结点本身。用中序遍历来遍历一棵二叉搜索树,结果必然是有序的。 时间复杂度很低 查找元素:二分查找,O(log 阅读全文
摘要:
今天我们来讨论一下什么是方向导数,什么是梯度,以及为什么沿着梯度的反方向移动会让函数值减小得最快。首先我们了解一下偏导数。偏导数的概念非常容易理解,例如下图,z= + ,x与y形成的二维平面上,每个点(对应一组xy值)都能在z的函数图像上找到对应的投影点,这个点的高度就是z值 阅读全文
摘要:
前面已经介绍了标量对向量和矩阵的求导以及向量和矩阵对标量的求导,现在介绍一下向量和向量之间的求导规则。 向量对向量求导 不管被求导的向量是行向量还是列向量,我们求导的步骤都是统一的,只要选择了分母布局,其求导结果都是一个与分母同行数的矩阵,而列数则等于分子向量的维数。具体的求导过程如下:先将分子向量 阅读全文
摘要:
前言 在大学的微积分课程中,我们学习过关于标量函数的导数。但是当我们求解一个多元函数的极值时,单独一个自变量的偏导数往往不能告诉我们太多信息,于是我们有一种天然的想法是要把每个自变量的偏导数放在一起,看看他们的联合效果如何。这个过程其实是一个向量求导的过程。也就是说,我们把每个元素单独求偏导的结果按 阅读全文
摘要:
09-基变换 基向量不同,则相同坐标的向量实际上并不是同一个。 将新的基向量看作是线性变换,则其列应该是原本的基向量现在的位置。将一个新坐标系下的向量a(x,y)转换到我们的坐标系中:用这个矩阵乘以这个向量。原因:用两组基向量分别表示向量在两个坐标系下的位置,则结果应该是相同的。所以要找到在我们的坐 阅读全文