摘要: 大语言模型(LLM)评估系统在生成思维链(Chain-of-Thought, CoT)序列时,需要系统地捕捉评估过程中的推理步骤。但是由于缺乏人工标注的CoT训练数据,以及预定义评估提示在复杂任务中的局限性,构建高质量的LLM评估模型面临重大挑战。另外手动调整评估指令的方法在面对多样化和复杂任务时表 阅读全文
posted @ 2025-02-06 10:41 deephub 阅读(16) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示