当前标签:图表示学习
阅读排行榜
- 1. 非极大值抑制(Non-Maximum Suppression,NMS)(209642)
- 2. 目标检测网络之 YOLOv3(204841)
- 3. 激活函数(ReLU, Swish, Maxout)(110262)
- 4. Dropout(33678)
- 5. Linux下的wine生活(QQ/微信/Office)(29835)
- 6. 目标检测评价指标(mAP)(27927)
- 7. 神经网络之权重初始化(18098)
- 8. 深度学习网络层之 Batch Normalization(17680)
- 9. linux ipv6临时地址(17090)
- 10. python之简单POST模拟登录(16997)
- 11. 深度学习网络层之上采样(Unpooling)(15246)
- 12. 深度学习网络层之 Pooling(14727)
- 13. Docker 及 nvidia-docker 使用(13571)
- 14. 深度学习-conv卷积(11818)
- 15. 偏差方差分解(11089)
- 16. NIN (Network In Network)(10431)
- 17. 深度学习基础网络 ResNet(10232)
- 18. Java 使用 Enum 实现单例模式(9111)
- 19. log4j配置文件加载(8328)
- 20. 坐标下降 vs 梯度下降(8296)
最新评论
- 1. Re:搜索排序算法
- @Libra—— 感谢指正,确实应该是e^{O_xy}...
- --康行天下
- 2. Re:搜索排序算法
感谢楼主的整理,受益匪浅!
但是,在 RankNet 部分中的交叉熵损失函数的公式(4)中最后那个 O_xy,是不是搞错了,应该是 e^{O_xy}?- --Libra——
- 3. Re:激活函数(ReLU, Swish, Maxout)
非常详细
- --佳讯
- 4. Re:语言模型变形金刚
我看懂的,真的!
- --goodcitizen
- 5. Re:语言模型大串烧之变形金刚
不明觉厉
- --kingdumpling