Fork me on GitHub
摘要: **正则化:**凡是可以减少泛化误差而不是减少训练误差的方法都是正则化方法。 在神经网络中参有两类,w叫权重,b叫偏置,w(权重)其实是模型里面未知数的系数,其取值情况决定了模型曲线什么样子,b的取值只会改变模型平移情况,L1L2正则化只针对w进行正则化处理。 L1L2是指L1L2范数,范数理解为把 阅读全文
posted @ 2021-10-17 11:20 sy- 阅读(78) 评论(0) 推荐(0) 编辑