摘要:
np.random.rand()Create... 阅读全文
摘要:
除了 L2L_2L2 正则化外,还有一种常... 阅读全文
摘要:
使用 ReLU(rectified linear unit) 函数代替 sigmoid 函数可以使得梯度下降算法更快收敛 loss function 不是随便选的.不同模型有不同的 loss function. 有些 l\mathcal{l}l 有多个局部最优点,会导致 gradient desce 阅读全文
摘要:
如果训练样本不是线性可分的,那么只要样本的属... 阅读全文
摘要:
拿到一篇文献后,不妨先问自己几个问题,带着问... 阅读全文
摘要:
学习方法寻找相关论文,归纳使用算法、方法等,... 阅读全文
摘要:
梯度下降正规方程需要选择学习率 α不需要需要... 阅读全文
摘要:
一句话: BP算法是基于梯度下降算法的迭代算... 阅读全文
摘要:
4.1 基本流程一般的,一棵决策树包含一个... 阅读全文
摘要:
趋势sns.pointplot - 点图 ,... 阅读全文