摘要: 阅读全文
posted @ 2022-01-29 16:31 Tomorrow1126 阅读(25) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/PanYHHH/article/details/107361827 一、 第一个是将梯度清零,因为训练的过程通常使用mini-batch方法,所以如果不将梯度清零的话,梯度会与上一个batch的数据相关,因此该函数要写在反向传播和梯度下降之前。(训练的时候 阅读全文
posted @ 2022-01-29 16:03 Tomorrow1126 阅读(1135) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/dss_dssssd/article/details/83892824 阅读全文
posted @ 2022-01-29 16:03 Tomorrow1126 阅读(51) 评论(0) 推荐(0) 编辑
摘要: https://lulaoshi.info/machine-learning/convolutional/batch-normalization 我们知道在神经网络训练开始前,都要对输入数据做一个归一化处理,那么具体为什么需要归一化呢? 归一化后有什么好处呢?原因在于神经网络学习过程本质就是为了学习 阅读全文
posted @ 2022-01-29 15:51 Tomorrow1126 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度 阅读全文
posted @ 2022-01-29 14:45 Tomorrow1126 阅读(142) 评论(0) 推荐(0) 编辑
摘要: torch.flatten(input, start_dim, end_dim). 举例:一个tensor 3*2* 2 start_dim=1 output 3*4 start_dim=0 end_dim=1. 6*2 如果没有后面两个参数直接变为一维的 阅读全文
posted @ 2022-01-29 14:43 Tomorrow1126 阅读(79) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/wanghui-garcia/p/10677071.html 神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者值训练部分分支网络,并不让其梯度对主网络的梯度造成影响,torch.tensor.detach()和t 阅读全文
posted @ 2022-01-29 14:29 Tomorrow1126 阅读(69) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/york1996/article/details/81949843 把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3], 阅读全文
posted @ 2022-01-29 14:14 Tomorrow1126 阅读(51) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/wangguchangqing/p/12068084.html 这个链接也比较详细 阅读全文
posted @ 2022-01-29 11:51 Tomorrow1126 阅读(1085) 评论(0) 推荐(0) 编辑
摘要: numpy.prod(a, axis=None, dtype=None, out=None, keepdims=) axis为1表示一行的元素相乘 阅读全文
posted @ 2022-01-29 11:42 Tomorrow1126 阅读(145) 评论(0) 推荐(0) 编辑