会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
//
// // //
努力的孔子
随笔分类 -
002-attention and transformer
Bert -基本原理
摘要:2018年的10月11日,Google发布的论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》, 成功在 11 项 NLP 任务中取得 state of the art 的结果,赢得自然语言处理
阅读全文
posted @
2023-12-14 15:27
努力的孔子
阅读(253)
评论(0)
推荐(0)
导航
博客园
首页
新随笔
新文章
联系
订阅
管理