摘要:
基于中文的词的全mask 的bert做法: https://github.com/ymcui/Chinese-BERT-wwm Robert原理讲解: https://zhuanlan.zhihu.com/p/103205929 pytorch-transformer的资料库: https://gi 阅读全文
摘要:
常用中文预训练语言模型接口: https://mp.weixin.qq.com/s/v5wijUi9WgcQlr6Xwc-Pvw 接口RoBERTa中文预训练模型:RoBERTa for Chinese: https://mp.weixin.qq.com/s/K2zLEbWzDGtyOj7yceRd 阅读全文