书生·共学大模型实战营L1G6000 XTuner微调

任务描述:使用XTuner微调InternLM2-Chat-7B实现自己的小助手认知
该任务分为数据集处理、微调训练、合并部署三个环节。

  1. 数据处理:主要是将目标json文件中的字段替换为和自己用户名相关的字段,这里我们将“尖米”替换为“科研狗1031”:
  2. 微调训练:采用教程中的XTuner框架,在InternStudio的30% A100开发机上大约需要1.5h,实际中,大部分情况下,我们只需修改配置文件即可:

  3. 合并:由于我们采用的是仅微调部分层(Adapter),所以需要按照教程将微调好的适配器和基座模型进行拼接:
  4. 部署:采用streamlit通过端口映射部署到网页端并进行模拟对话,以查看效果:
posted @   BadGirl  阅读(22)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
点击右上角即可分享
微信分享提示