会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
仙守
最美的不是下雨天,是曾与你躲过雨的屋檐!
博客园
首页
新随笔
联系
订阅
管理
2023年2月7日
NLP之预训练语言模型BERT
摘要: 1引言 通常来说,在NLP领域的很多场景中模型最后所做的基本上都是一个分类任务,虽然表面上看起来不是。例如:文本蕴含任务其实就是将两个序列拼接在一起,然后预测其所属的类别;基于神经网络的序列生成模型(翻译、文本生成等)本质就是预测词表中下一个最有可能出现的词,此时的分类类别就是词表的大小。 对于问答
阅读全文
posted @ 2023-02-07 17:32 仙守
阅读(489)
评论(0)
推荐(0)
编辑
公告