摘要: 在以前的文章中,我们讨论过Transformer并不适合时间序列预测任务。为了解决这个问题Google创建了Hybrid Transformer-LSTM模型,该模型可以实现SOTA导致时间序列预测任务。 但是我实际测试效果并不好,直到2022年3月Google研究团队和瑞士AI实验室IDSIA提出 阅读全文
posted @ 2022-07-08 12:42 deephub 阅读(644) 评论(0) 推荐(0) 编辑