会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
ttyangY77
临渊羡鱼 不如退而结网
博客园
首页
新随笔
联系
订阅
管理
2022年5月10日
BERT的来龙去脉
摘要: RNN 机器翻译任务:单词的先后顺序会影响句子的意义,句子间的单词数量不是一一对应的, RNN:擅长捕捉序列关系,但只能实现N2N、1toN、Nto1,不能解决N2M的问题, Sequence2sequence:包括编码器和解码器的结构,依然使用的是RNN网络 先由Encoder提取原始句子的'意义
阅读全文
posted @ 2022-05-10 16:38 YTT77
阅读(363)
评论(0)
推荐(0)
编辑
公告