Multimodal Large Language Model(MLLM)

1 CLIP

https://openai.com/index/clip/

CLIP(Contrastive Language–Image Pre-training)的主要任务为图文匹配

  • 计算cosine similarity。
  • 对角线的 N 个为正样本,其他 N2N 为负样本。如果N很大,会导致正负样本不平衡,所以需要对负样本进行采样,按照cosine similarity排序的Top N个负样本进行采样,作为采样后负样本。
  • 目标是正样本的cosine similarity趋近于1,负样本的cosine similarity趋近于-1。
  • A photo of a {object} 输入更加符合自然语言
  • Zero-shot效果非常好,对于未见过的类别,准确率很高。也就是泛化能力很强。

2 BLIP

3 BLIP 2

4 LLaVA

5 miniGPT

6 Instruction BLIP

Reference

靠谱女士的组会分享[多模态大模型之clip,blip,blip–2,llava | Bilibili
CLIP 论文逐段精读【论文精读】 - 李沐

posted @   ForHHeart  阅读(19)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek “源神”启动!「GitHub 热点速览」
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 我与微信审核的“相爱相杀”看个人小程序副业
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
· spring官宣接入deepseek,真的太香了~
点击右上角即可分享
微信分享提示