Loading

摘要: Motivaton & Abs 作者提出了一个简单的成对sigmoid损失以用于图像文本预训练,其仅作用于图像-文本对,不需要获取global view并进行归一化。sigmoid 损失同时允许进一步扩大 batch size,同时在较小的 batch size 上也表现得更好。最后,作者发现将ba 阅读全文
posted @ 2024-12-10 16:28 脂环 阅读(29) 评论(0) 推荐(0) 编辑