02 2020 档案

Attention Is All You Need
摘要:细讲: https://mp.weixin.qq.com/s/RLxWevVWHXgX-UcoxDS70w https://www.jianshu.com/p/b1030350aadb 详解Transformer (Attention Is All You Need) https://zhuanla 阅读全文

posted @ 2020-02-17 15:35 TMatrix52 阅读(136) 评论(0) 推荐(0)

强化学习DQN
摘要:https://www.jianshu.com/p/10930c371cac https://www.semanticscholar.org/paper/Playing-Atari-with-Deep-Reinforcement-Learning-Mnih-Kavukcuoglu/2319a4913 阅读全文

posted @ 2020-02-16 11:35 TMatrix52 阅读(111) 评论(0) 推荐(0)

softmax相关求导
摘要:https://www.zhihu.com/question/23765351 阅读全文

posted @ 2020-02-09 20:13 TMatrix52 阅读(98) 评论(0) 推荐(0)

损失函数 - 交叉熵损失函数
摘要:https://zhuanlan.zhihu.com/p/58883095 https://zhuanlan.zhihu.com/p/35709485 【学习过程】 交叉熵损失函数经常用于分类问题中,特别是在神经网络做分类问题时,也经常使用交叉熵作为损失函数,此外,由于交叉熵涉及到计算每个类别的概率 阅读全文

posted @ 2020-02-09 20:08 TMatrix52 阅读(184) 评论(0) 推荐(0)

tf.reduce_sum 语法
摘要:tf.reduce_sum: 1 #coding=utf8 2 import tensorflow as tf 3 import numpy as np 4 5 tf.compat.v1.disable_eager_execution() 6 7 x = np.array([[[1, 2, 3], 阅读全文

posted @ 2020-02-08 21:06 TMatrix52 阅读(446) 评论(0) 推荐(0)

TF 2.0 Symbols Map:已废弃->新语法
摘要:https://docs.google.com/spreadsheets/d/1FLFJLzg7WNP6JHODX5q8BDgptKafq_slHpnHVbJIteQ/edit#gid=0 阅读全文

posted @ 2020-02-08 20:42 TMatrix52 阅读(156) 评论(0) 推荐(0)

tf.nn.embedding_lookup
摘要:https://blog.csdn.net/huahuazhu/article/details/77161668 1 #encoding=utf-8 2 3 import tensorflow as tf 4 5 encode_embeddings = tf.constant([[1,2,3,4,5 阅读全文

posted @ 2020-02-08 20:10 TMatrix52 阅读(145) 评论(0) 推荐(0)

在 macOS 中安装/卸载 TensorFlow
摘要:https://tensorflow.juejin.im/install/install_mac.html 查看tensorflow版本 sudo pip show tensorflow sudo pip3 show tensorflow 卸载: sudo pip uninstall protobu 阅读全文

posted @ 2020-02-08 18:29 TMatrix52 阅读(1406) 评论(0) 推荐(0)

FM算法及FFM算法
摘要:FM算法及FFM算法 阅读全文

posted @ 2020-02-05 17:04 TMatrix52 阅读(147) 评论(0) 推荐(0)

导航