摘要: 2023年是大语言模型和稳定扩散的一年,时间序列领域虽然没有那么大的成就,但是却有缓慢而稳定的进展。Neurips、ICML和AAAI等会议都有transformer 结构(BasisFormer、Crossformer、Inverted transformer和Patch transformer) 阅读全文
posted @ 2024-02-21 12:26 deephub 阅读(58) 评论(0) 推荐(0) 编辑