合集-Machine Learning
摘要:hyperparameters 超参数 Gradient Descent 梯度下降算法 先选一个初始的参数,W 、b,计算θ0对你的loss function的Gradient,也就是计算每一个network里面的参数,w1、w2、b1、b2......等等。对你的L(θ0)的偏微分,计算出这个东西
阅读全文
摘要:机器学习任务攻略 Support Vector Machine 支持向量机(SVM) overfitting 过拟合 在traing data上的loss小,在testing上的loss大才叫overfitting 解决方法: 增加你的训练资料 Data augmentation 数据强化,用你自己
阅读全文
摘要:(三 )自动调整学习率 RMSprop(root mean square prop 算法) RMSprop与动量梯度下降法(Momentum)类似,都优化了梯度下降过程中的摆动幅度大的问题。(Momentum:tan90:动量梯度下降法(gradient descent with momentum)
阅读全文