摘要: Pretraining Language Models with Text-Attributed Heterogeneous Graphs论文阅读笔记 Abstract 现存的问题: ​ 目前语言模型(LM)的预训练任务主要集中在单独学习每个实体的文本信息,而忽略了捕捉 TAHGs 中实体间拓扑连接 阅读全文
posted @ 2024-08-20 15:41 ANewPro 阅读(56) 评论(0) 推荐(0) 编辑