随笔分类 - 神经网络
该文被密码保护。
摘要:https://blog.csdn.net/leviopku/article/details/120825283 gelu激活函数 https://blog.csdn.net/sinat_36618660/article/details/100088097 gelu函数 使用的时候用的是 set_g
阅读全文
摘要:https://easyai.tech/blog/gnn-deepwalk-graphsage/ 参考这篇文章 给定一个部分标记的 graph G,目标是利用这些标记的节点来预测未标记的节点的标签。它学习用包含邻域信息的 d 维向量 h_v 表示每个节点。即: 其中 x_co[v] 表示与 v 相连
阅读全文
摘要:http://www.fenghz.xyz/Must-Know-Tips-in-DL/ Must Know Tips/Tricks in Deep Neural Networks阅读笔记 2018-04-15 深度学习 Train Tricks 文章题目: Must Know Tips/Tricks
阅读全文
摘要:PRelu可以参考这篇文章: https://www.cnblogs.com/catpainter/p/8406285.html PReLU全名Parametric Rectified Linear Unit. PReLU-nets在ImageNet 2012分类数据集top-5上取得了4.94%的
阅读全文
摘要:参考这篇文章: https://blog.csdn.net/weixin_42720875/article/details/105936398 《神经网络反向求导不可导情况处理》 写的蛮好,主要写了Relu函数、平均池化、最大池化的处理方式。 Relu函数 次梯度方法(subgradient met
阅读全文