合集-Machine Learning

摘要:hyperparameters 超参数 Gradient Descent 梯度下降算法 先选一个初始的参数,W 、b,计算θ0对你的loss function的Gradient,也就是计算每一个network里面的参数,w1、w2、b1、b2......等等。对你的L(θ0)的偏微分,计算出这个东西 阅读全文
posted @ 2023-05-31 20:42 翻斗花园小美Q 阅读(11) 评论(0) 推荐(0)
摘要:机器学习任务攻略 Support Vector Machine 支持向量机(SVM) overfitting 过拟合 在traing data上的loss小,在testing上的loss大才叫overfitting 解决方法: 增加你的训练资料 Data augmentation 数据强化,用你自己 阅读全文
posted @ 2023-06-02 22:32 翻斗花园小美Q 阅读(10) 评论(0) 推荐(0)
摘要:浅谈机器学习原理 阅读全文
posted @ 2023-06-10 16:58 翻斗花园小美Q 阅读(2) 评论(0) 推荐(0)
摘要:(三 )自动调整学习率 RMSprop(root mean square prop 算法) RMSprop与动量梯度下降法(Momentum)类似,都优化了梯度下降过程中的摆动幅度大的问题。(Momentum:tan90:动量梯度下降法(gradient descent with momentum) 阅读全文
posted @ 2023-06-09 22:44 翻斗花园小美Q 阅读(6) 评论(0) 推荐(0)