摘要:
Vali Loss: nan Test Loss: nan Training loss is decreasing while validation loss is NaN https://discuss.pytorch.org/t/training-loss-is-decreasing-while 阅读全文
posted @ 2023-10-08 08:07
emanlee
阅读(47)
评论(0)
推荐(0)
摘要:
直接打开 py 文件,不会出现工具栏 阅读全文
posted @ 2023-10-08 08:06
emanlee
阅读(454)
评论(0)
推荐(0)
摘要:
目录informer相关模型数据集划分模型参数跑通自定义数据集预测结果可视化informer相关 论文:https://arxiv.org/abs/2012.07436 感谢论文作者对AI科学做出的贡献,才能像我这种普通人能有机会接触这么nice的文章。作者的github:GitHub - zhou 阅读全文
posted @ 2023-10-08 08:06
emanlee
阅读(2798)
评论(0)
推荐(0)
摘要:
针对Informer中时序数据ETT油温数据分析针对Informer中时序数据ETT油温数据分析 油温数据介绍 数据问题介绍 数据分析油温数据介绍电力变压器油温数据,由国家电网提供,该数据集是来自中国同一个省的两个不同县的变压器数据,时间跨度为2年,原始数据每分钟记录一次(用 m 标记),每个数据集 阅读全文
posted @ 2023-10-08 08:04
emanlee
阅读(1009)
评论(0)
推荐(0)
摘要:
https://openreview.net/forum?id=J4gRj6d5Qm Q1: For time series without clear periodicity, whether Auto-Correlation still works or not? In Table 3 of m 阅读全文
posted @ 2023-10-08 08:03
emanlee
阅读(50)
评论(0)
推荐(0)
摘要:
Our results show that DLinear outperforms existing complex Transformer-based models in most cases by a large margin. In particular, for the Exchange-R 阅读全文
posted @ 2023-10-08 08:03
emanlee
阅读(101)
评论(0)
推荐(0)
摘要:
While some deep learning models discover dependencies in decomposed time series, they are not good at capturing local dynamics and long-term dependenc 阅读全文
posted @ 2023-10-08 08:03
emanlee
阅读(35)
评论(0)
推荐(0)
摘要:
https://blog.csdn.net/weixin_44790306/article/details/124064177 摘要本周一是对Informer论文的阅读,其关注的问题依然是长时间序列预测问题。也是从self-attention 机制的缺陷出发,做了一些优化于改进工作,像ProbSpa 阅读全文
posted @ 2023-10-08 08:02
emanlee
阅读(1748)
评论(0)
推荐(0)
摘要:
Informer: 一个基于Transformer的效率优化的长时间序列预测模型 Informer创新点介绍 ProbSparse self-attention self-attention蒸馏机制 一步Decoder 实验结果 总结 Informer: Beyond Efficient Trans 阅读全文
posted @ 2023-10-08 08:02
emanlee
阅读(963)
评论(0)
推荐(0)
摘要:
参数量方法一:pytorch自带方法,计算模型参数总量 参数量方法二: summary的使用:来自于torchinfo第三方库 参数量方法三: summary的使用:来自于torchsummary第三方库 计算量方法一:thop的使用,输出计算量FLOPs和参数量parameter我们通常要通过计算 阅读全文
posted @ 2023-10-08 08:01
emanlee
阅读(9073)
评论(0)
推荐(0)

浙公网安备 33010602011771号