摘要: 1. Fine-Tuning Language Models from Human Preferences reward model:774M参数量的GPT-2,先进行了有监督训练 训练loss: 其中r(x,y)代表reward model,x代表输入或者prompt,y代表输出或者reponse 阅读全文
posted @ 2023-03-10 14:51 Shiyu_Huang 阅读(314) 评论(0) 推荐(0) 编辑