会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Jacen's Blog
博客园
首页
新随笔
联系
管理
订阅
2019年6月14日
bert 预训练模型路径
摘要: BERT-Large, Uncased (Whole Word Masking): 24-layer, 1024-hidden, 16-heads, 340M parameters BERT-Large, Cased (Whole Word Masking): 24-layer, 1024-hidd
阅读全文
posted @ 2019-06-14 00:46 叶建成
阅读(6798)
评论(0)
推荐(2)
编辑
公告