Multimodal Large Language Model(MLLM)
1 CLIP
CLIP(Contrastive Language–Image Pre-training)的主要任务为图文匹配
- 计算cosine similarity。
- 对角线的 \(N\) 个为正样本,其他 \(N^2-N\) 为负样本。如果\(N\)很大,会导致正负样本不平衡,所以需要对负样本进行采样,按照cosine similarity排序的Top N个负样本进行采样,作为采样后负样本。
- 目标是正样本的cosine similarity趋近于1,负样本的cosine similarity趋近于-1。
- A photo of a {object} 输入更加符合自然语言
- Zero-shot效果非常好,对于未见过的类别,准确率很高。也就是泛化能力很强。
2 BLIP
3 BLIP 2
4 LLaVA
5 miniGPT
6 Instruction BLIP
Reference
靠谱女士的组会分享[多模态大模型之clip,blip,blip–2,llava | Bilibili
CLIP 论文逐段精读【论文精读】 - 李沐