摘要: 大语言模型(LLMs)在推理任务中,如数学问题求解和编程,已经展现出了优秀的性能。尽管它们能力强大,但在实现能够通过计算和交互来改进其回答的算法方面仍然面临挑战。现有的自我纠错方法要么依赖于提示工程,要么需要使用额外的模型进行微调,但这些方法都有局限性,往往无法产生有意义的自我纠错。 这是谷歌9月发 阅读全文
posted @ 2024-10-03 11:56 deephub 阅读(16) 评论(0) 推荐(0) 编辑