随笔分类 -  A---深度学习笔记

摘要:超级有用! 从上图的方程可以看出: 1、loss大则梯度更新量也大; 2、不同任务的loss差异大导致模型更新不平衡的本质原因在于梯度大小; 3、通过调整不同任务的loss权重wi可以改善这个问题; 4、直接对不同任务的梯度进行处理也可以改善这个问题; 所以,后续的方法大体分为两类: 1、在权重wi 阅读全文
posted @ 2021-04-08 17:35 douzujun 阅读(2718) 评论(0) 推荐(1) 编辑
摘要:超好懂,宏观:https://www.sohu.com/a/342634291_651893 https://blog.csdn.net/weixin_43476533/article/details/105750702 https://zhuanlan.zhihu.com/p/138686535 阅读全文
posted @ 2021-03-11 23:15 douzujun 阅读(122) 评论(0) 推荐(0) 编辑
摘要:摘要 图结构数据上进行半监督学习的可拓展方法。该方法基于 直接在图上操作的卷积神经网络 的有效变体。 通过 谱图卷积的局部一阶近似 来激励我们选择 卷积结构。我们的模型在 图边 上的数量(number of graph edges)上线性缩放,并且学习隐藏层表示(其encode 局部图结构 和 结点 阅读全文
posted @ 2021-03-08 22:34 douzujun 阅读(986) 评论(0) 推荐(0) 编辑
摘要:https://www.bilibili.com/video/BV1G54y1971S?from=search&seid=14148477947249263260 https://zhuanlan.zhihu.com/p/133282394 简介 Spatial-based(基于空间的) GAT(G 阅读全文
posted @ 2021-01-19 10:57 douzujun 阅读(742) 评论(0) 推荐(0) 编辑
摘要:!pwd LOG_DIR = './logs/' get_ipython().system_raw( 'fitlog log {} --ip 0.0.0.0 --port 6006 &'.format(LOG_DIR) ) Use ngrok to tunnel traffic to localho 阅读全文
posted @ 2020-11-22 22:14 douzujun 阅读(211) 评论(0) 推荐(0) 编辑
摘要:https://github.com/HarisIqbal88/PlotNeuralNet import sys sys.path.append('../') from pycore.tikzeng import * from pycore.blocks import * arch = [ to_h 阅读全文
posted @ 2020-11-22 15:01 douzujun 阅读(527) 评论(0) 推荐(0) 编辑
摘要:https://github.com/reiinakano/scikit-plot 文档:https://scikit-plot.readthedocs.io/en/stable/metrics.html # The usual train-test split mumbo-jumbo from s 阅读全文
posted @ 2020-11-22 14:41 douzujun 阅读(314) 评论(0) 推荐(0) 编辑
摘要:47分钟 同时既是Encoder,也是Decoder,也是Seq2Seq(Encoder+Decoder) https://zhuanlan.zhihu.com/p/114746463 阅读全文
posted @ 2020-11-09 16:13 douzujun 阅读(577) 评论(0) 推荐(0) 编辑
摘要:watch -n 0.1 nvidia-smi watch --color -n1 gpustat -cpu # pip install gpustat 阅读全文
posted @ 2020-10-24 13:17 douzujun 阅读(384) 评论(0) 推荐(0) 编辑
摘要:学习笔记 学习笔记 classification_report sklearn.metrics.classification_report(y_true, y_pred, labels = None, target_names = None, sample_weight = None, digits 阅读全文
posted @ 2020-10-22 20:03 douzujun 阅读(748) 评论(0) 推荐(0) 编辑
摘要:感觉不错:Attention详解 阅读全文
posted @ 2020-09-19 16:34 douzujun 阅读(204) 评论(0) 推荐(0) 编辑
摘要:笔记摘抄 笔记 import torch from torch import nn, optim from torch.utils.data import DataLoader from torchvision import transforms, datasets import visdom 1. 阅读全文
posted @ 2020-09-08 13:41 douzujun 阅读(585) 评论(0) 推荐(0) 编辑
摘要:1. 生成式模型 2. 自动编码器(Auto-Encoder) 3. 变分自动编码器(Variational AutoEncoders) 4. 生成对抗网络(GAN,Generative Adversarial Networks) 4.1 判别式模型和生成式模型 4.2 GAN基本原理 4.3 判别 阅读全文
posted @ 2020-09-03 15:33 douzujun 阅读(1109) 评论(0) 推荐(0) 编辑
摘要:吴恩达深度学习课程的课堂笔记以及课后作业 代码下载:https://github.com/douzujun/Deep-Learning-Coursera 吴恩达推荐笔记:https://mp.weixin.qq.com/s/cX9_DiqofPhdXrY_0oTEAw 课程1 - 神经网络和深度学习 阅读全文
posted @ 2020-07-08 00:47 douzujun 阅读(12237) 评论(3) 推荐(2) 编辑
摘要:1. Trigger Word Detection 我们的触发词将是 "Activate."。每当它听到你说 "Activate.",它就会发出 "chiming" 的声音。 在此作业结束时,您将能够记录您自己谈话的片段,并让算法在检测到您说"Activate."时触发一个钟声; 构成一个语音识别项 阅读全文
posted @ 2020-07-07 01:27 douzujun 阅读(554) 评论(0) 推荐(0) 编辑
摘要:1. Neural Machine Translation 下面将构建一个神经机器翻译(NMT)模型,将人类可读日期 ("25th of June, 2009") 转换为机器可读日期 ("2009-06-25"). 使用 attention model. from keras.layers impo 阅读全文
posted @ 2020-07-05 21:39 douzujun 阅读(473) 评论(0) 推荐(0) 编辑
摘要:参考 1. 基础模型(Basic Model) Sequence to sequence模型(Seq2Seq) 从机器翻译到语音识别方面都有着广泛的应用。 举例: 该机器翻译问题,可以使用“编码网络(encoder network)”+“解码网络(decoder network)”两个RNN模型组合 阅读全文
posted @ 2020-07-03 18:41 douzujun 阅读(695) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示