Loading

摘要: 1. 概述 基于给定的Prompt,大语言模型生成的Reponse可能不是最好的(这一点我认为当前的LLM大部分都是Decoder架构,基于已生成的结果产生下一个Token,一旦之前生成结果出错,也不容易及时改正。)。 本文为原始的生成添加了额外的反思重写步骤,过程如下: 对于给定的\(Input\ 阅读全文
posted @ 2024-11-15 17:09 啊哈哈哈哈312 阅读(9) 评论(0) 推荐(0) 编辑