摘要: 基于中文的词的全mask 的bert做法: https://github.com/ymcui/Chinese-BERT-wwm Robert原理讲解: https://zhuanlan.zhihu.com/p/103205929 pytorch-transformer的资料库: https://gi 阅读全文
posted @ 2020-07-21 14:30 TFknight 阅读(280) 评论(0) 推荐(0) 编辑
摘要: 常用中文预训练语言模型接口: https://mp.weixin.qq.com/s/v5wijUi9WgcQlr6Xwc-Pvw 接口RoBERTa中文预训练模型:RoBERTa for Chinese: https://mp.weixin.qq.com/s/K2zLEbWzDGtyOj7yceRd 阅读全文
posted @ 2020-07-21 10:31 TFknight 阅读(1769) 评论(0) 推荐(1) 编辑