摘要: 基于ChatGLM-6B第一版,要注意还有ChatGLM2-6B以及ChatGLM3-6B 转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/ PrefixEncoder 作用:在微调时(以P-Tuning V2为例),方法训练时冻结模型的全部参数,只激活 阅读全文
posted @ 2024-01-08 14:25 又见阿郎 阅读(704) 评论(0) 推荐(0) 编辑