会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
未雨愁眸
tensorflow群469331966
博客园
::
首页
::
新随笔
::
联系
::
订阅
::
管理
公告
常见矩阵求导
矩阵微分(matrix derivatives)
1. 字典学习中的最小二乘法
{
D
o
p
t
,
W
o
p
t
}
=
arg
min
D
,
W
∑
ℓ
=
1
L
∥
w
ℓ
∥
+
γ
∥
X
−
D
W
∥
2
使用迭代求解的思路,优化上述问题,固定
W
,上述问题就转换为单目标优化问题,此时可用最小二乘法的思路,给出
D
的显式解:
(
X
−
D
W
)
W
T
=
0
⇒
D
=
(
X
W
T
)
(
W
W
T
)
−
1
posted on
2017-03-29 17:15
未雨愁眸
阅读(
303
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部