上一页 1 2 3 4 5 6 7 8 ··· 35 下一页
摘要: 在文章《生成扩散模型漫谈(一):DDPM = 拆楼 + 建楼》中,我们为生成扩散模型DDPM构建了“拆楼-建楼”的通俗类比,并且借助该类比完整地推导了生成扩散模型DDPM的理论形式。在该文章中,我们还指出DDPM本质上已经不是传统的扩散模型了,它更多的是一个变分自编码器VAE,实际上DDPM的原论文 阅读全文
posted @ 2024-07-08 18:57 jasonzhangxianrong 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 说到生成模型,VAE、GAN可谓是“如雷贯耳”,本站也有过多次分享。此外,还有一些比较小众的选择,如flow模型、VQ-VAE等,也颇有人气,尤其是VQ-VAE及其变体VQ-GAN,近期已经逐渐发展到“图像的Tokenizer”的地位,用来直接调用NLP的各种预训练方法。除了这些之外,还有一个本来更 阅读全文
posted @ 2024-07-08 18:56 jasonzhangxianrong 阅读(52) 评论(0) 推荐(0) 编辑
摘要: 在本系列的前面几篇文章中,我们已经从多个角度来理解了VAE,一般来说,用VAE是为了得到一个生成模型,或者是做更好的编码模型,这都是VAE的常规用途。但除了这些常规应用外,还有一些“小众需求”,比如用来估计$x$的概率密度,这在做压缩的时候通常会用到。 本文就从估计概率密度的角度来了解和推导一下VA 阅读全文
posted @ 2024-07-08 16:39 jasonzhangxianrong 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 大家都知道,Transformer的$\mathscr{O}(n^2)$复杂度是它的“硬伤”之一。不过凡事有弊亦有利,$\mathscr{O}(n^2)$的复杂度也为Transformer带来很大的折腾空间,我们可以灵活地定制不同的attention mask,来设计出不同用途的Transforme 阅读全文
posted @ 2024-07-08 16:38 jasonzhangxianrong 阅读(59) 评论(0) 推荐(0) 编辑
摘要: 在《变分自编码器(五):VAE + BN = 更好的VAE》中,我们讲到了NLP中训练VAE时常见的KL散度消失现象,并且提到了通过BN来使得KL散度项有一个正的下界,从而保证KL散度项不会消失。事实上,早在2018年的时候,就有类似思想的工作就被提出了,它们是通过在VAE中改用新的先验分布和后验分 阅读全文
posted @ 2024-07-08 16:36 jasonzhangxianrong 阅读(55) 评论(0) 推荐(0) 编辑
摘要: 前段时间公司组织技术分享,轮到笔者时,大家希望我讲讲VAE。鉴于之前笔者也写过变分自编码器系列,所以对笔者来说应该也不是特别难的事情,因此就答应了下来,后来仔细一想才觉得犯难:怎么讲才好呢? 对于VAE来说,之前笔者有两篇比较系统的介绍:《变分自编码器(一):原来是这么一回事》和《变分自编码器(二) 阅读全文
posted @ 2024-07-08 16:35 jasonzhangxianrong 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 昨天早上,笔者在日常刷arixv的时候,然后被一篇新出来的论文震惊了!论文名字叫做《NVAE: A Deep Hierarchical Variational Autoencoder》,顾名思义是做VAE的改进工作的,提出了一个叫NVAE的新模型。说实话,笔者点进去的时候是不抱什么希望的,因为笔者也 阅读全文
posted @ 2024-07-08 16:34 jasonzhangxianrong 阅读(115) 评论(0) 推荐(0) 编辑
摘要: 本文我们继续之前的变分自编码器系列,分析一下如何防止NLP中的VAE模型出现“KL散度消失(KL Vanishing)”现象。本文受到参考文献是ACL 2020的论文《A Batch Normalized Inference Network Keeps the KL Vanishing Away》的 阅读全文
posted @ 2024-07-08 16:33 jasonzhangxianrong 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 这是一篇“散文”,我们来谈一下有着千丝万缕联系的三个东西:变分自编码器、信息瓶颈、正态分布。 众所周知,变分自编码器是一个很经典的生成模型,但实际上它有着超越生成模型的含义;而对于信息瓶颈,大家也许相对陌生一些,然而事实上信息瓶颈在去年也热闹了一阵子;至于正态分布,那就不用说了,它几乎跟所有机器学习 阅读全文
posted @ 2024-07-08 16:32 jasonzhangxianrong 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 这篇文章很简短,主要描述的是一个很有用、也不复杂、但是我居然这么久才发现的事实~ 在《深度学习的互信息:无监督提取特征》一文中,我们通过先验分布和最大化互信息两个loss的加权组合来得到Deep INFOMAX模型最后的loss。在那篇文章中,虽然把故事讲完了,但是某种意义上来说,那只是个拼凑的lo 阅读全文
posted @ 2024-07-08 16:30 jasonzhangxianrong 阅读(20) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 35 下一页