书生·共学大模型实战营L1G6000 XTuner微调
任务描述:使用XTuner微调InternLM2-Chat-7B实现自己的小助手认知
该任务分为数据集处理、微调训练、合并部署三个环节。
- 数据处理:主要是将目标json文件中的字段替换为和自己用户名相关的字段,这里我们将“尖米”替换为“科研狗1031”:
- 微调训练:采用教程中的XTuner框架,在InternStudio的30% A100开发机上大约需要1.5h,实际中,大部分情况下,我们只需修改配置文件即可:
- 合并:由于我们采用的是仅微调部分层(Adapter),所以需要按照教程将微调好的适配器和基座模型进行拼接:
- 部署:采用streamlit通过端口映射部署到网页端并进行模拟对话,以查看效果:
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?