摘要:
Background 外部的条件(side information:class, label)有利于提高GAN的表现 但是这些条件往往不存在 Motivation 用无监督的方式取代外部条件 Model 将BN自带的参数β和γ用随机向量z控制的参数β'和γ' β'和γ'由以z为输入的MLP得到(使用 阅读全文
摘要:
BackGround GAN的训练对设置(结构、参数)过于敏感 Motivation 通过结合众多稳定GAN训练的方法来实现一个大型的稳定GAN Model Baseline:SAGAN[1] Technique: Weight decay of G - 防止过拟合(仅在验证阶段使用) Orthog 阅读全文
摘要:
BackGround 基于流(flow-based)和自回归(autoregressive)的模型尚且未能与state-of-art GAN匹敌 GAN虽然强大,但一直存在model collapse和training instability的问题 特别是在高分辨率(512/1024)图像生成任务上 阅读全文
摘要:
BackGround 因此Discriminator不容易同时从全局和局部判别图像 Motivation 更强大的Discriminator能提高Generator骗过判别器的难度,从而获得质量更高的图像 Model 此处仅截取了256的unconditional网络结构,128及condition 阅读全文
摘要:
公钥配置:https://www.cnblogs.com/Hi-blog/p/9482418.html 重启ssh(Ubuntu):service ssh restart 以此来应用对sshd_config的修改 修改文件权限:https://blog.csdn.net/anque1234/article/details/101423315?utm_medium=distribute.p... 阅读全文
摘要:
Background 有两个相同的图像数据集,仅图像的分辨率不同(如一批为128一批为64),数据集中的图像一一对应, 为两个数据集分别设置两个Dataloader,现在想要在加载batch时得到一一对应且乱序的图像。 如果仅在Dataloader中设置shuffle=True,得到的两个batch 阅读全文
摘要:
classadaILN(nn.Module): def__init__(self,num_features,eps=1e-5): super(adaILN,self).__init__() self.eps=eps #定义rho为可训练类型,buffer为不可训练类型 self.rho=Paramete... 阅读全文
摘要:
FID(Frechet Inception Distance score) 是计算真实图像和生成图像的特征向量之间距离的一种度量。 首先用预训练的Inception v3分别生成真实图像(real images)和生成图像(synthetic images)的特征向量(默认dim=2048) 然后用Frechet 距离(又称 Wasserstein-2 距离)计算得到的两个特征向量分布,公式如下 ... 阅读全文
摘要:
1.背包 问:从给定的数组中抽取元素组成目标和,问有多少种组合方式? 答: nums=[] S=10#目标和 count=[1]+[0]*len(nums) forninnums: foriinrange(len(nums),n-1,-1): #count[i]为满足目标和i的组合数 count[i]+... 阅读全文
摘要:
1. 导入库: import torch.distributed as dist from torch.utils.data.distributed import DistributedSampler 2. 进程初始化: parser = argparse.ArgumentParser() pars 阅读全文