摘要: 学习笔记1 学习笔记2 RoBERTa: A Robustly Optimized BERT Pretraining Approach(一种鲁棒优化的 BERT预训练方法) 细读,半天 Motivation 目前自训练方法例如Elmo,GPT,Bert,XLNet在NLP领域取得了很不错的成绩,但是 阅读全文
posted @ 2020-10-18 22:53 douzujun 阅读(660) 评论(0) 推荐(0) 编辑
摘要: Shallow Convolutional Neural Network for Implicit Discourse Relation Recognition 略读,科普,1h Motivation 浅层卷积神经网络进行隐式篇章关系识别,浅层结构减轻了过拟合问题,而卷积和非线性操作有助于保持我们的 阅读全文
posted @ 2020-10-18 17:28 douzujun 阅读(151) 评论(0) 推荐(0) 编辑
摘要: Towards Cross-Domain PDTB-Style Discourse Parsing(2014) 走向跨域的PDTB式篇章分析,1h,速读 Motivation Discourse Relation Parsing是为了理解句子边界以外的文本。 文献表明,篇章连接词检测 和 篇章关系s 阅读全文
posted @ 2020-10-18 16:31 douzujun 阅读(131) 评论(0) 推荐(0) 编辑