xinyu04

导航

2022年4月29日 #

机器学习中的优化 Optimization Chapter 2 Gradient Descent(2)

摘要: \(\large \bf{Theorem }\ 2.7:\) \(f:\mathbb{R^d}\rightarrow\mathbb{R}\text{ be convex and differentiable with a global minimum }x^*;\text{ Suppose }f\t 阅读全文

posted @ 2022-04-29 02:54 Blackzxy 阅读(33) 评论(0) 推荐(0) 编辑