合集-LLM面面观

摘要:LLM面面观之LLM复读机问题及解决方案LLM复读机产生的原因以及对应的解决方案 阅读全文
posted @ 2023-12-14 15:42 mengrennwpu 阅读(4468) 评论(0) 推荐(0) 编辑
摘要:LLM面面观之Prefix LM vs Causal LM1. 背景 关于Prefix LM和Causal LM的区别,本qiang在网上逛了一翻,发现多数客官只给出了结论,但对于懵懵的本qiang,结果仍是懵懵... 因此,消遣了多半天,从原理及出处,交出了Prefix LM和Causal LM两者区别的更为清楚的说明。 2. Prefix LM Pre 阅读全文
posted @ 2023-11-29 14:36 mengrennwpu 阅读(3857) 评论(0) 推荐(0) 编辑
摘要:LLM面面观之LLM上下文扩展方案1. 背景 本qiang~这段时间调研了LLM上下文扩展的问题,并且实打实的运行了几个开源的项目,所谓实践与理论相结合嘛! 此文是本qiang~针对上下文扩展问题的总结,包括解决方案的整理概括,文中参考了多篇有意义的文章,他山之石可以攻玉。 大语言模型的扩展有诸多意义,如进行更长的会话、总结更长的文 阅读全文
posted @ 2024-01-22 13:48 mengrennwpu 阅读(1106) 评论(0) 推荐(1) 编辑
摘要:LLM面面观之RLHF平替算法DPO此文是本qiang~针对大语言模型的DPO算法的整理,包括原理、流程及部分源码。 阅读全文
posted @ 2024-01-31 12:37 mengrennwpu 阅读(3508) 评论(1) 推荐(0) 编辑
摘要:LLM面面观之MoE此文是本qiang~针对大语言模型的MoE的整理,包括原理、流程及部分源码 阅读全文
posted @ 2024-04-02 09:28 mengrennwpu 阅读(1418) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示