摘要: 在这里记录一下自己经常用到的库,以后建环境的时候方便查阅: Tensorflow=2.0 matplotlib jupyter notebook nomkl :可以解决Tensorflow的一个bug 阅读全文
posted @ 2020-05-31 23:05 思念殇千寻 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 参考: https://github.com/dmlc/xgboost/issues/1715 解决方法: I solved it with 'conda install nomkl'. 阅读全文
posted @ 2020-05-31 23:03 思念殇千寻 阅读(2685) 评论(0) 推荐(0) 编辑
摘要: Tensor是Tensorflow中重要的对象。下面是Tensor的常用方法,后面还会写一篇随笔记录Variable的用法。 1. 生成一个(常)Tensor对象 >>>A = tf.constant(4) >>>B = tf.constant([[1, 2], [3, 4])) >>>A <tf. 阅读全文
posted @ 2020-05-31 17:45 思念殇千寻 阅读(997) 评论(0) 推荐(0) 编辑
摘要: 这篇文章把numpy中的广播机制讲的十分透彻: https://jakevdp.github.io/PythonDataScienceHandbook/02.05-computation-on-arrays-broadcasting.html 2020年10月27日更新: http://liao.c 阅读全文
posted @ 2020-05-31 13:36 思念殇千寻 阅读(243) 评论(0) 推荐(0) 编辑
摘要: 参考资料:https://www.zhihu.com/question/60751553 补充更细: 也可以这么理解:logits与 softmax都属于在输出层的内容, logits = tf.matmul(X, W) + bias 再对logits做归一化处理,就用到了softmax: Y_pr 阅读全文
posted @ 2020-05-31 10:04 思念殇千寻 阅读(649) 评论(0) 推荐(0) 编辑