StarCoder训练与微调

BASE模型

模型大小:15.5B
训练数据量:800GB (1T token)
硬件资源:512张 Tesla A100
训练时长:24天

微调模型

微调模型:ZeRO-3
硬件资源:8张 Tesla A100
训练时长:3小时

有用链接

https://github.com/bigcode-project/starcoder/tree/main/chat
https://github.com/huggingface/blog/blob/main/starchat-alpha.md

posted @   LexLuc  阅读(734)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 如何使用 Uni-app 实现视频聊天(源码,支持安卓、iOS)
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
点击右上角即可分享
微信分享提示