02 2020 档案

Attention Is All You Need
摘要:细讲: https://mp.weixin.qq.com/s/RLxWevVWHXgX-UcoxDS70w https://www.jianshu.com/p/b1030350aadb 详解Transformer (Attention Is All You Need) https://zhuanla 阅读全文

posted @ 2020-02-17 15:35 TMatrix52 阅读(130) 评论(0) 推荐(0) 编辑

强化学习DQN
摘要:https://www.jianshu.com/p/10930c371cac https://www.semanticscholar.org/paper/Playing-Atari-with-Deep-Reinforcement-Learning-Mnih-Kavukcuoglu/2319a4913 阅读全文

posted @ 2020-02-16 11:35 TMatrix52 阅读(94) 评论(0) 推荐(0) 编辑

softmax相关求导
摘要:https://www.zhihu.com/question/23765351 阅读全文

posted @ 2020-02-09 20:13 TMatrix52 阅读(89) 评论(0) 推荐(0) 编辑

损失函数 - 交叉熵损失函数
摘要:https://zhuanlan.zhihu.com/p/58883095 https://zhuanlan.zhihu.com/p/35709485 【学习过程】 交叉熵损失函数经常用于分类问题中,特别是在神经网络做分类问题时,也经常使用交叉熵作为损失函数,此外,由于交叉熵涉及到计算每个类别的概率 阅读全文

posted @ 2020-02-09 20:08 TMatrix52 阅读(167) 评论(0) 推荐(0) 编辑

tf.reduce_sum 语法
摘要:tf.reduce_sum: 1 #coding=utf8 2 import tensorflow as tf 3 import numpy as np 4 5 tf.compat.v1.disable_eager_execution() 6 7 x = np.array([[[1, 2, 3], 阅读全文

posted @ 2020-02-08 21:06 TMatrix52 阅读(400) 评论(0) 推荐(0) 编辑

TF 2.0 Symbols Map:已废弃->新语法
摘要:https://docs.google.com/spreadsheets/d/1FLFJLzg7WNP6JHODX5q8BDgptKafq_slHpnHVbJIteQ/edit#gid=0 阅读全文

posted @ 2020-02-08 20:42 TMatrix52 阅读(138) 评论(0) 推荐(0) 编辑

tf.nn.embedding_lookup
摘要:https://blog.csdn.net/huahuazhu/article/details/77161668 1 #encoding=utf-8 2 3 import tensorflow as tf 4 5 encode_embeddings = tf.constant([[1,2,3,4,5 阅读全文

posted @ 2020-02-08 20:10 TMatrix52 阅读(135) 评论(0) 推荐(0) 编辑

在 macOS 中安装/卸载 TensorFlow
摘要:https://tensorflow.juejin.im/install/install_mac.html 查看tensorflow版本 sudo pip show tensorflow sudo pip3 show tensorflow 卸载: sudo pip uninstall protobu 阅读全文

posted @ 2020-02-08 18:29 TMatrix52 阅读(1381) 评论(0) 推荐(0) 编辑

FM算法及FFM算法
摘要:FM算法及FFM算法 阅读全文

posted @ 2020-02-05 17:04 TMatrix52 阅读(138) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示