03 2024 档案

摘要:LVM: Sequential Modeling Enables Scalable Learning for Large Vision Models LVM: Sequential Modeling Enables Scalable Learning for Large Vision Models 阅读全文
posted @ 2024-03-28 14:03 fariver 阅读(67) 评论(0) 推荐(0) 编辑
摘要:名称 KOSMOS: Language Is Not All You Need: Aligning Perception with Language Models 时间:23.05 机构:Microsoft TL;DR 一种输入多模型信息的大语言模型,作者称之为多模型大语言模型(MLLM),可以图多 阅读全文
posted @ 2024-03-27 00:12 fariver 阅读(46) 评论(0) 推荐(0) 编辑
摘要:名称 VQ-VAE: Neural Discrete Representation Learning 时间:17.11 机构:Google TL;DR VQ全称为Vector Quantised,故名思义,本文相对于VAE最大改进是将VAE的latent representation由连续建模为离散 阅读全文
posted @ 2024-03-26 00:12 fariver 阅读(329) 评论(0) 推荐(0) 编辑
摘要:名称 Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding 时间:22/05 机构:Google TL;DR 发现使用LLM(T5)可以作为text2image任务的text en 阅读全文
posted @ 2024-03-22 20:31 fariver 阅读(89) 评论(0) 推荐(0) 编辑
摘要:名称 DiT: Scalable Diffusion Models with Transformers 时间:23/03 机构:UC Berkeley && NYU TL;DR 提出首个基于Transformer的Diffusion Model,效果打败SD,并且DiT在图像生成任务上随着Flops 阅读全文
posted @ 2024-03-21 23:35 fariver 阅读(1432) 评论(0) 推荐(0) 编辑
摘要:DALLE3: Improving Image Generation with Better Captions DALLE3: Improving Image Generation with Better Captions 时间:23/10 机构:OpenAI TL;DR 本文认为text-imag 阅读全文
posted @ 2024-03-20 23:34 fariver 阅读(175) 评论(0) 推荐(0) 编辑
摘要:名称 DALLE2: Hierarchical Text-Conditional Image Generation with CLIP Latents 也叫 UnCLIP 时间:22.04 机构:OpenAI TL;DR OpenAI的首篇从CLIP的image embedding生成图像的方法,实 阅读全文
posted @ 2024-03-19 23:42 fariver 阅读(143) 评论(0) 推荐(0) 编辑
摘要:GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models GLIDE(Guided Language to Image Diffusion for Generation a 阅读全文
posted @ 2024-03-18 23:46 fariver 阅读(282) 评论(0) 推荐(0) 编辑
摘要:DALLE: Zero-Shot Text-to-Image Generation DALLE: Zero-Shot Text-to-Image Generation 时间:21.02(与CLIP同期论文) 机构:OpenAI TL;DR 提出一个将文本与图像作为token,利用Transforme 阅读全文
posted @ 2024-03-16 23:45 fariver 阅读(157) 评论(0) 推荐(0) 编辑
摘要:名称 Latent Diffusion Model, High-Resolution Image Synthesis with Latent Diffusion Models 时间:21.12 机构:runway TL;DR 这篇文章介绍了一种名为潜在扩散模型(Latent Diffusion Mo 阅读全文
posted @ 2024-03-14 21:35 fariver 阅读(632) 评论(0) 推荐(0) 编辑
摘要:名称 DDIM DENOISING DIFFUSION IMPLICIT MODELS TL;DR 这篇文章介绍了一种名为去噪扩散隐式模型(Denoising Diffusion Implicit Models, DDIMs)的新型生成模型,它是基于去噪扩散概率模型(DDPMs)的改进版本。DDIM 阅读全文
posted @ 2024-03-12 00:12 fariver 阅读(280) 评论(0) 推荐(0) 编辑
摘要:名称 DDPM: Denoising Diffusion Probabilistic Models 时间:2020.12 TL;DR 这篇文章介绍了一种名为去噪扩散概率模型(Denoising Diffusion Probabilistic Models, DDPM)的新型生成模型。DDPM通过在图 阅读全文
posted @ 2024-03-11 00:11 fariver 阅读(1372) 评论(0) 推荐(0) 编辑
摘要:名称 VAE原文 TL;DR 这篇文章介绍了一种名为Auto-Encoding Variational Bayes (AEVB)的算法。AEVB算法通过引入随机变分推断和学习算法,解决了在大数据集和不可解后验分布情况下的推断和学习问题。文章的主要贡献有两个:首先,提出了一个可以直接使用标准随机梯度方 阅读全文
posted @ 2024-03-10 20:40 fariver 阅读(171) 评论(0) 推荐(0) 编辑
摘要:Learning Transferable Visual Models From Natural Language Supervision link CLIP 全称 Contrastive Language-Image Pre-training 时间:21.02 机构:OpenAI TL;DR 一种 阅读全文
posted @ 2024-03-07 00:34 fariver 阅读(78) 评论(0) 推荐(0) 编辑
摘要:VIT: AN IMAGE IS WORTH 16X16 WORDS link TL;DR 首篇使用纯Transformer来做CV任务的文章。 Method 首先将图像拆成多个图片Patch,每个Patch通过LindearProjection变成embedding特征,使用Transformer 阅读全文
posted @ 2024-03-05 23:46 fariver 阅读(61) 评论(0) 推荐(0) 编辑
摘要:Transformer ) 名称解释: Self-Attention: 类似于CNN里面的Conv层,是Transformer中重复次数最多的特征提取Layer。 Multi-Head Attention: 相对于Self-Attention,将每个节点外接多个q、k、v head。 Cross A 阅读全文
posted @ 2024-03-04 23:20 fariver 阅读(23) 评论(0) 推荐(0) 编辑
摘要:目录视觉SLAM特征点法2D-2D对极几何3D-2D PnP3D-3D ICP光流法说明直接法理论模型(最小化光度误差)一些细节问题工程问题安装sophus 视觉SLAM 特征点法 特征点提取+匹配 ORB = Fast + ORiented Brief 特征点:Fast10(9/11),即如果周围 阅读全文
posted @ 2024-03-04 20:48 fariver 阅读(60) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示