摘要:
sess=tf.Session()a=np.array([1,2,3,5.]) # 此代码保留为浮点数a1=np.array([1,2,3,5]) # 此代码保留为整数 c=tf.reduce_mean(a)d=sess.run(c)print(a)print(d)c1=tf.reduce_mean(a1)d1=sess.run(c1)print(a1)print(d1) 总结:tf.re... 阅读全文
摘要:
总结: 机器学习中有很多损失函数可以用,如欧氏距离,sigmoid函数,softmax函数等, 然而使用交叉熵的原因在于防止梯度消失以及测出实际效果较好的原因吧(个人理解)。 其详细理解,可以参考粘贴的内容: 本文参考:https://mp.weixin.qq.com/s?__biz=MzU4NTY 阅读全文