会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
2024年7月23日
用PyTorch从零开始编写DeepSeek-V2
摘要: DeepSeek-V2是一个强大的开源混合专家(MoE)语言模型,通过创新的Transformer架构实现了经济高效的训练和推理。该模型总共拥有2360亿参数,其中每个令牌激活21亿参数,支持最大128K令牌的上下文长度。 在开源模型中,DeepSeek-V2实现了顶级性能,成为最强大的开源MoE语
阅读全文
posted @ 2024-07-23 11:02 deephub
阅读(49)
评论(0)
推荐(0)
编辑
公告