Bert变体--Roberta
Roberta
论文地址:https://arxiv.org/pdf/1907.11692.pdf
Static vs. Dynamic Masking
Roberta使用动态Mask。
Bert在预处理训练数据时,每个样本会进行一次随机的mask,后续的每个训练步都采用这次mask,实际上就是每个epoch是重复的,被称为静态mask。Roberta在预处理时没有进行mask,而是在每次向模型提供输入时进行随机mask,这意味着mask是变化的、动态的。
Model Input Format and Next Sentence Prediction
Roberta去除了 NSP 任务,更改输入为 FULL-SENTENCES
Bert为了捕捉句子之间的关系,使用了NSP任务进行预训练。论文中对输入与NSP任务设置了下面的两组实验:
使用NSP:
SEGMENT-PAIR+NSP: 输入为连续的两个段落 (Bert)
SENTENCE-PAIR+NSP: 输入为连续的两个句子 (会提升bs,以达到和SEGMENT-PAIR相同token数量)
放弃NSP:
FULL-SENTENCES: 输入为连续的句子,可以跨Doc (Roberta)
DOC-SENTENCES: 输入为连续的句子,不能跨Doc (会略微提升bs,以达到和FULL-SENTENCES相同token数量)
large batches,more dataset, pretrain longer
更大 Batch size
更多数据,更多epoch
byte-level BPE
Bert使用 wordpiece(BPE的一种),用 unicode characters 作为最小子词单元。
Roberta使用 byte-level BPE, bytes 作为最小子词单元
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?