上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 73 下一页
摘要: https://blog.csdn.net/dss_dssssd/article/details/83892824 阅读全文
posted @ 2022-01-29 16:03 Tomorrow1126 阅读(51) 评论(0) 推荐(0) 编辑
摘要: https://lulaoshi.info/machine-learning/convolutional/batch-normalization 我们知道在神经网络训练开始前,都要对输入数据做一个归一化处理,那么具体为什么需要归一化呢? 归一化后有什么好处呢?原因在于神经网络学习过程本质就是为了学习 阅读全文
posted @ 2022-01-29 15:51 Tomorrow1126 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度 阅读全文
posted @ 2022-01-29 14:45 Tomorrow1126 阅读(142) 评论(0) 推荐(0) 编辑
摘要: torch.flatten(input, start_dim, end_dim). 举例:一个tensor 3*2* 2 start_dim=1 output 3*4 start_dim=0 end_dim=1. 6*2 如果没有后面两个参数直接变为一维的 阅读全文
posted @ 2022-01-29 14:43 Tomorrow1126 阅读(79) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/wanghui-garcia/p/10677071.html 神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者值训练部分分支网络,并不让其梯度对主网络的梯度造成影响,torch.tensor.detach()和t 阅读全文
posted @ 2022-01-29 14:29 Tomorrow1126 阅读(69) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/york1996/article/details/81949843 把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3], 阅读全文
posted @ 2022-01-29 14:14 Tomorrow1126 阅读(51) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/wangguchangqing/p/12068084.html 这个链接也比较详细 阅读全文
posted @ 2022-01-29 11:51 Tomorrow1126 阅读(1085) 评论(0) 推荐(0) 编辑
摘要: numpy.prod(a, axis=None, dtype=None, out=None, keepdims=) axis为1表示一行的元素相乘 阅读全文
posted @ 2022-01-29 11:42 Tomorrow1126 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 其实并不知道如何解决,在尝试了重新配置代理后,以及用http后都不行,然后突然再用https就可以了 阅读全文
posted @ 2022-01-28 16:42 Tomorrow1126 阅读(43) 评论(0) 推荐(0) 编辑
摘要: (或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个: 使得图像符合显示区域的大小; 生成对应图像的缩略图。 放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。 阅读全文
posted @ 2022-01-28 15:10 Tomorrow1126 阅读(68) 评论(0) 推荐(0) 编辑
上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 73 下一页