摘要: ## 总览 大规模“指令调整”的语言模型,即**指令微调的LLM**,已经表现出非凡的**零样本能力**,尤其是推广**新任务上**。 然而,这些模型严重依赖于人类编写的指令数据,而这些数据通常在数量、多样性和创造力方面受到限制,因此阻碍了调整模型的通用性。 基于上述背景,作者提出了**Self-i 阅读全文
posted @ 2023-06-27 20:18 陈城南 阅读(1289) 评论(0) 推荐(0) 编辑
摘要: Vicuna和StableVicuna都是LLaMA的微调版本,均遵循[CC BY-NC-SA-4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/),性能方面Stable版本更好些。 > CC BY-NC-SA-4.0是一种知识共享许可 阅读全文
posted @ 2023-06-27 11:28 陈城南 阅读(198) 评论(0) 推荐(0) 编辑