目录
加载fp16模型到显存的消耗
单图运算时的消耗
unet阶段
attention_probs = self.get_attention_scores
attention_probs消耗最高达640MB
vae阶段
双图运算时的消耗
unet阶段
vae阶段
单图controller = AttentionStore()时的消耗
size of attention_store: 2580.46875
单图controller = AttentionStore()优化后的消耗
attn_copy=attn.clone().detach()
unet阶段:
生图用时:27.75s