摘要: 1、确定参数 %matplotlib inline import matplotlib.pyplot as plt import numpy as np from sklearn.datasets import make_s_curve import torch s_curve,_ = make_s 阅读全文
posted @ 2024-07-08 23:13 jasonzhangxianrong 阅读(15) 评论(0) 推荐(0) 编辑
摘要: [2021-09-19更新:强烈推荐Yang Song的这篇关于基于得分的生成建模的博文(几篇参考文献的主要作者)]。 [2022-08-27更新:添加了无分类器引导,GLIDE,unCLIP和Imagen。 [2022-08-31更新:添加了潜在扩散模型。 [2024-04-13更新:添加了渐进蒸 阅读全文
posted @ 2024-07-08 22:58 jasonzhangxianrong 阅读(8) 评论(0) 推荐(0) 编辑
摘要: 相信很多读者都听说过甚至读过克莱因的《高观点下的初等数学》这套书,顾名思义,这是在学到了更深入、更完备的数学知识后,从更高的视角重新审视过往学过的初等数学,以得到更全面的认知,甚至达到温故而知新的效果。类似的书籍还有很多,比如《重温微积分》、《复分析:可视化方法》等。 回到扩散模型,目前我们已经通过 阅读全文
posted @ 2024-07-08 19:00 jasonzhangxianrong 阅读(32) 评论(0) 推荐(0) 编辑
摘要: 到目前为止,笔者给出了生成扩散模型DDPM的两种推导,分别是《生成扩散模型漫谈(一):DDPM = 拆楼 + 建楼》中的通俗类比方案和《生成扩散模型漫谈(二):DDPM = 自回归式VAE》中的变分自编码器方案。两种方案可谓各有特点,前者更为直白易懂,但无法做更多的理论延伸和定量理解,后者理论分析上 阅读全文
posted @ 2024-07-08 18:59 jasonzhangxianrong 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 在文章《生成扩散模型漫谈(一):DDPM = 拆楼 + 建楼》中,我们为生成扩散模型DDPM构建了“拆楼-建楼”的通俗类比,并且借助该类比完整地推导了生成扩散模型DDPM的理论形式。在该文章中,我们还指出DDPM本质上已经不是传统的扩散模型了,它更多的是一个变分自编码器VAE,实际上DDPM的原论文 阅读全文
posted @ 2024-07-08 18:57 jasonzhangxianrong 阅读(87) 评论(0) 推荐(0) 编辑
摘要: 说到生成模型,VAE、GAN可谓是“如雷贯耳”,本站也有过多次分享。此外,还有一些比较小众的选择,如flow模型、VQ-VAE等,也颇有人气,尤其是VQ-VAE及其变体VQ-GAN,近期已经逐渐发展到“图像的Tokenizer”的地位,用来直接调用NLP的各种预训练方法。除了这些之外,还有一个本来更 阅读全文
posted @ 2024-07-08 18:56 jasonzhangxianrong 阅读(22) 评论(0) 推荐(0) 编辑
摘要: 在本系列的前面几篇文章中,我们已经从多个角度来理解了VAE,一般来说,用VAE是为了得到一个生成模型,或者是做更好的编码模型,这都是VAE的常规用途。但除了这些常规应用外,还有一些“小众需求”,比如用来估计$x$的概率密度,这在做压缩的时候通常会用到。 本文就从估计概率密度的角度来了解和推导一下VA 阅读全文
posted @ 2024-07-08 16:39 jasonzhangxianrong 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 大家都知道,Transformer的$\mathscr{O}(n^2)$复杂度是它的“硬伤”之一。不过凡事有弊亦有利,$\mathscr{O}(n^2)$的复杂度也为Transformer带来很大的折腾空间,我们可以灵活地定制不同的attention mask,来设计出不同用途的Transforme 阅读全文
posted @ 2024-07-08 16:38 jasonzhangxianrong 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 在《变分自编码器(五):VAE + BN = 更好的VAE》中,我们讲到了NLP中训练VAE时常见的KL散度消失现象,并且提到了通过BN来使得KL散度项有一个正的下界,从而保证KL散度项不会消失。事实上,早在2018年的时候,就有类似思想的工作就被提出了,它们是通过在VAE中改用新的先验分布和后验分 阅读全文
posted @ 2024-07-08 16:36 jasonzhangxianrong 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 前段时间公司组织技术分享,轮到笔者时,大家希望我讲讲VAE。鉴于之前笔者也写过变分自编码器系列,所以对笔者来说应该也不是特别难的事情,因此就答应了下来,后来仔细一想才觉得犯难:怎么讲才好呢? 对于VAE来说,之前笔者有两篇比较系统的介绍:《变分自编码器(一):原来是这么一回事》和《变分自编码器(二) 阅读全文
posted @ 2024-07-08 16:35 jasonzhangxianrong 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 昨天早上,笔者在日常刷arixv的时候,然后被一篇新出来的论文震惊了!论文名字叫做《NVAE: A Deep Hierarchical Variational Autoencoder》,顾名思义是做VAE的改进工作的,提出了一个叫NVAE的新模型。说实话,笔者点进去的时候是不抱什么希望的,因为笔者也 阅读全文
posted @ 2024-07-08 16:34 jasonzhangxianrong 阅读(65) 评论(0) 推荐(0) 编辑
摘要: 本文我们继续之前的变分自编码器系列,分析一下如何防止NLP中的VAE模型出现“KL散度消失(KL Vanishing)”现象。本文受到参考文献是ACL 2020的论文《A Batch Normalized Inference Network Keeps the KL Vanishing Away》的 阅读全文
posted @ 2024-07-08 16:33 jasonzhangxianrong 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 这是一篇“散文”,我们来谈一下有着千丝万缕联系的三个东西:变分自编码器、信息瓶颈、正态分布。 众所周知,变分自编码器是一个很经典的生成模型,但实际上它有着超越生成模型的含义;而对于信息瓶颈,大家也许相对陌生一些,然而事实上信息瓶颈在去年也热闹了一阵子;至于正态分布,那就不用说了,它几乎跟所有机器学习 阅读全文
posted @ 2024-07-08 16:32 jasonzhangxianrong 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 这篇文章很简短,主要描述的是一个很有用、也不复杂、但是我居然这么久才发现的事实~ 在《深度学习的互信息:无监督提取特征》一文中,我们通过先验分布和最大化互信息两个loss的加权组合来得到Deep INFOMAX模型最后的loss。在那篇文章中,虽然把故事讲完了,但是某种意义上来说,那只是个拼凑的lo 阅读全文
posted @ 2024-07-08 16:30 jasonzhangxianrong 阅读(8) 评论(0) 推荐(0) 编辑
摘要: 这篇文章是我们前几天挂到arxiv上的论文的中文版。在这篇论文中,我们给出了结合流模型(如前面介绍的Glow)和变分自编码器的一种思路,称之为f-VAEs。理论可以证明f-VAEs是囊括流模型和变分自编码器的更一般的框架,而实验表明相比于原始的Glow模型,f-VAEs收敛更快,并且能在更小的网络规 阅读全文
posted @ 2024-07-08 16:29 jasonzhangxianrong 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 由于VAE中既有编码器又有解码器(生成器),同时隐变量分布又被近似编码为标准正态分布,因此VAE既是一个生成模型,又是一个特征提取器。在图像领域中,由于VAE生成的图片偏模糊,因此大家通常更关心VAE作为图像特征提取器的作用。提取特征都是为了下一步的任务准备的,而下一步的任务可能有很多,比如分类、聚 阅读全文
posted @ 2024-07-08 16:26 jasonzhangxianrong 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 话说我觉得我自己最近写文章都喜欢长篇大论了,而且扎堆地来~之前连续写了三篇关于Capsule的介绍,这次轮到VAE了,本文是VAE的第三篇探索,说不准还会有第四篇~不管怎么样,数量不重要,重要的是能把问题都想清楚。尤其是对于VAE这种新奇的建模思维来说,更加值得细细地抠。 这次我们要关心的一个问题是 阅读全文
posted @ 2024-07-08 16:25 jasonzhangxianrong 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 源起 # 前几天写了博文《变分自编码器(一):原来是这么一回事》,从一种比较通俗的观点来理解变分自编码器(VAE),在那篇文章的视角中,VAE跟普通的自编码器差别不大,无非是多加了噪声并对噪声做了约束。然而,当初我想要弄懂VAE的初衷,是想看看究竟贝叶斯学派的概率图模型究竟是如何与深度学习结合来发挥 阅读全文
posted @ 2024-07-08 00:19 jasonzhangxianrong 阅读(18) 评论(0) 推荐(0) 编辑