摘要: 一.原理 这里面画的三个卷积层组们都是一样的,都是用的同样的网络,并且这个网络用的是预训练好的参数,他们的作用是特征提取,在训练过程中参数不会更新。 这个网络的参数是那个合成图像。 损失包括三部分,合成图像和内容图像的损失,合成图像和样式图像的损失,合成图形自身的全变分去噪损失(total vari 阅读全文
posted @ 2022-09-14 20:58 SXQ-BLOG 阅读(66) 评论(0) 推荐(0) 编辑
摘要: 一. Relu嵌套效果 f = lambda x: (F.relu(2 * (F.relu(3 * x - 1)) + 3)) x = torch.arange(-50, 50, 0.5) mb.plt.plot(x, f(x)) 可以看出多个Relu的嵌套之后结果仍然为一个Relu函数。 二. R 阅读全文
posted @ 2022-09-14 09:07 SXQ-BLOG 阅读(82) 评论(0) 推荐(0) 编辑