02 2024 档案

摘要:Critical Point 在 Gradient Descent 的时候,如果遇到梯度为 0 的情况,导致无法继续 optimization,这样的点叫做 Critcal Point。如果最后优化的结果不好,则出现这样的点的原因有以下两个 一个是到 local minima 了,另一个是在驻点了( 阅读全文
posted @ 2024-02-27 17:53 ybx_tih 阅读(95) 评论(0) 推荐(0) 编辑
摘要:发现结果不好时,可以按下图顺序来调整 先考虑Loss on training data,如果large,考虑model bias和optimization Model Bias model太简单,导致最优解不在空间里,只能找到小空间的最优解,犹如大海捞针,针却不在大海 这时我们要redesign一下 阅读全文
posted @ 2024-02-27 16:12 ybx_tih 阅读(11) 评论(0) 推荐(0) 编辑
摘要:分类 先介绍一种分类方式,这种分类方式是生成式(Generative)的。通过后验概率来进行分类(如:某一个物品在某一个类别的概率比较大,那么我们就认为这个物品属于这个类别)不妨假设数据服从二维正态分布,考虑利用训练集确定二维正态分布所需要的参数,μ分别是均值和协方差,二维正态 阅读全文
posted @ 2024-02-27 11:50 ybx_tih 阅读(72) 评论(0) 推荐(0) 编辑
摘要:backpropagation(反向传播)在计算gradient的vector时可以有效率地把vector计算出来 我们先考虑一个neuron 考虑链式法则,现计算zw,计算较为简单,规律发现就是input 以上步骤就叫forward pas 阅读全文
posted @ 2024-02-26 19:33 ybx_tih 阅读(8) 评论(0) 推荐(0) 编辑
摘要:machine learning ≈ looking for function this course focuses on deep learning deep learning's function is 类神经网络 Step1:function with unknown Step2:defin 阅读全文
posted @ 2024-02-24 10:38 ybx_tih 阅读(8) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示