06 2020 档案
摘要:Linux 中最常用 150 个命令汇总 示例: mv move a file to a new location: mv [filename] [dest-dir]
阅读全文
摘要:小明对某论文很感兴趣,每次有人引用该论文时,他都想收到Google scholar的邮件提醒,他该怎么办? 1. 在Google scholar搜索该论文,点击被引用次数 2. 点击左下角的创建快讯(alert) 3. 填写邮件,并点击创建快讯 这样,小明就可以收到该论文被引用的提醒邮件了。
阅读全文
摘要:被称作核心张量,一般是满张量(full tensor),即其非对角线元素一般也不为零。 Tucker分解又称高阶奇异值分解(High Order Sigular Value Decompsition, HOSVD)。
阅读全文
摘要:软阈值迭代算法(ISTA)和快速软阈值迭代算法(FISTA) 低秩矩阵填充|奇异值阈值算法 低秩稀疏矩阵恢复|ADM(IALM)算法
阅读全文
摘要:
阅读全文
摘要:虽然我在矩阵微分系列中有介绍关于矩阵和向量的求导,但是不够系统,无意中发现一位同仁写的矩阵和向量的求导系列博客,写的很详细,相当不错,特此推荐: 机器学习中的矩阵向量求导(一) 求导定义与求导布局 机器学习中的矩阵向量求导(二) 矩阵向量求导之定义法 机器学习中的矩阵向量求导(三) 矩阵向量求导之微
阅读全文
摘要:-norm encourages the columns of matrix A to be zeros. For example, we have objective function:
阅读全文
摘要:tic k = 0; for ii = 1:100 k = k + ii; end disp(k); toc 运行结果:
阅读全文
摘要:reshape函数 reshape(X,M,N) or reshape(X,[M,N]) returns the M-by-N matrix whose elements are taken columnwise from X. An error results if X does not have
阅读全文
摘要:本文摘自张贤达的《矩阵分析与应用》第四章第3节、王书宁等人译的《凸优化》的第三章第1节和第4节
阅读全文
摘要:方法一: import scipy as spy from scipy.sparse import csc_matrix m = 2 n = 3 A = spy.sparse.rand(m, n, density=0.5, format='csc', dtype=None).toarray() pr
阅读全文
摘要:np.ones(shape), np.zeros(shape), np.random.randint(low, high, shape)这里的shape必须用元组或列表形式,例如: np.reshape(shape), 这里的shape可以用元组形式,也可以直接写数字,例如: np.random.r
阅读全文
摘要:百度百科上对Lipschitz连续的介绍挺不错的:Lipschitz连续 此外,张贤达的《矩阵分析与应用》第四章第4节中也有对Lipschitz连续的介绍:
阅读全文
摘要:1 此条目内容摘自物理CPU、CPU核数、逻辑CPU、超线程 基本概念 物理CPU 物理CPU是插在主机上的真实的CPU硬件,在Linux下可以数不同的physical id 来确认主机的物理CPU个数。 核心数 物理CPU下一层概念是核心数,我们常常听到多核处理器,其中的核指的就是核心数。在Lin
阅读全文
摘要:从奇异值的角度看矩阵范数,会发现与向量范数有一一对应关系: (注:表中涉及到用奇异值表示Frobenius范数,其推导可参考这篇博客) 向量的L1范数是L0范数的松弛,并且在一定条件下是等价的。矩阵核范数是rank约束的松弛,并且在一定条件下是等价的。
阅读全文
摘要:定义:若,则称为幂等矩阵。 1.幂等矩阵的特征值只取1和0两个数值 证明: 设是幂等矩阵的特征值,是与对应的特征向量,则 $\lambda \bold{v}=A\bold{v}=A^2 \bold{v}=\lambda^
阅读全文
摘要:本文摘自张贤达的《矩阵分析与应用》第六章第2节
阅读全文
摘要:本文摘自本文摘自史加荣等人发表在计算机应用研究杂志的《低秩矩阵恢复算法综述》 优化问题式(10)被称为鲁棒主成分分析(Robust Principal Component Analysis).
阅读全文
摘要:本文摘自史加荣等人发表在计算机应用研究杂志的《低秩矩阵恢复算法综述》
阅读全文
摘要:以下几个资料对范数和正则项的介绍比较好: 张贤达《矩阵分析与应用》第六章 Michael Nielsen的Neural Networks and Deep Learning,第三章第2节 机器学习中的范数规则化之(一)L0、L1与L2范数 机器学习中的范数规则化之(二)核范数与规则项参数选择 一文搞
阅读全文
摘要:在张贤达的《矩阵分析与应用》第四章第7节和Boyd等人的Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers的第2、3章,有对对偶上升法、增光拉格朗日
阅读全文
摘要:在王书宁译的Boyd著的《凸优化》的第五章有很好的对拉格朗日函数、拉格朗日对偶函数、KKT条件的介绍。
阅读全文
摘要:本文摘自《矩阵分析与应用》张贤达
阅读全文
摘要:转:弹出App can’t be opened because Apple cannot check it for malicious software的解决方法 亲测有效。
阅读全文
摘要:本文摘自知乎为何矩阵特征值乘积等于矩阵行列式值?
阅读全文
摘要:本文摘自知乎为什么特征值之和会等于矩阵的迹?
阅读全文
摘要:本文摘自《矩阵分析与应用》张贤达
阅读全文