摘要: 低秩分解(Low-rank factorization)也可以通过几何的方式来解释,帮助我们理解其含义和应用。 假设我们有一个m×n的矩阵A,我们希望对其进行低秩分解,即将其分解为两个低秩矩阵的乘积:A ≈ UV^T。其中,U是一个m×k的矩阵,V是一个n×k的矩阵,k远远小于m和n。 几何上,可以 阅读全文
posted @ 2023-06-12 15:24 田野与天 阅读(646) 评论(0) 推荐(0) 编辑
摘要: 奇异值分解(SVD)可以通过几何的方式来解释,从而帮助我们理解其含义和应用。 首先,我们可以将一个矩阵视为对向量空间的一种变换。假设有一个m×n的矩阵A,其中每一列可以看作是一个向量,而这些向量组成了一个n维的向量空间。奇异值分解可以将这个向量空间的变换分解为三个基本的几何操作:旋转、缩放和再次旋转 阅读全文
posted @ 2023-06-12 15:22 田野与天 阅读(100) 评论(0) 推荐(0) 编辑
摘要: 分组卷积(Grouped Convolution)是一种在卷积神经网络中常用的卷积操作,它将输入特征图分成多个分组,并在每个分组上应用卷积操作。每个分组使用独立的卷积核进行卷积计算,最后将各个分组的输出合并起来形成最终的输出特征图。 传统的卷积操作是在整个输入特征图上进行的,使用一组卷积核对整个特征 阅读全文
posted @ 2023-06-12 13:48 田野与天 阅读(484) 评论(0) 推荐(0) 编辑
摘要: 深度可分离卷积(Depthwise Separable Convolution)是一种在卷积神经网络中常用的卷积操作,它可以有效地减少计算量和模型参数的数量,从而提高模型的效率和速度。 传统的卷积操作是在输入特征图的每个通道上进行的,使用一组卷积核对每个通道进行卷积计算。而深度可分离卷积将卷积操作分 阅读全文
posted @ 2023-06-12 13:43 田野与天 阅读(483) 评论(0) 推荐(1) 编辑