摘要: TEMPO: PROMPT-BASED GENERATIVE PRE-TRAINED TRANSFORMER FOR TIME SERIES FORECASTING 框架 根据您提供的文档和信息,我可以帮助整理出这篇论文的框架及公式说明。以下是简要的内容分解: 1. 时间序列输入表示 (Time S 阅读全文
posted @ 2024-10-28 23:42 GraphL 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 在原始的 Transformer 模型中(例如在机器翻译任务中),Encoder 和 Decoder 的注意力掩码策略有所不同,但并不是完全按照 BERT 和 GPT 的双向/单向掩码策略区分的。以下是详细解释: 1. Transformer 中的 Encoder 和 Decoder 的注意力机制 阅读全文
posted @ 2024-10-28 14:49 GraphL 阅读(22) 评论(0) 推荐(0) 编辑