上一页 1 2 3 4 5 6 7 8 9 ··· 53 下一页
摘要: 理由同上,I'm fine :) 阅读全文
posted @ 2023-02-24 17:17 ZERO- 阅读(204) 评论(0) 推荐(0) 编辑
摘要: 被骗了,没什么适合现在情况的技术,小老板还建议精读,几十页,被骗了,被骗了,好想大喊:(ノ`Д)ノ. 阅读全文
posted @ 2023-02-24 17:14 ZERO- 阅读(225) 评论(0) 推荐(0) 编辑
摘要: 又到了捣鼓电脑的时候了。去年(2022年)8月14日买的电脑,当时7月份刚出戴尔游匣G16,搜了一下,2022年7月22日,戴尔首发游匣G16国行版本。 到现在也就用了差不多半年的时间,我的内存满了,是的,512G的固态硬盘内存。 当时买的时候我就问过了,只有一个硬盘卡槽,当时纠结这个笔记本和一个商 阅读全文
posted @ 2023-02-01 23:04 ZERO- 阅读(8453) 评论(0) 推荐(0) 编辑
摘要: 今天是2022年10月1日,今天重读一遍这篇论文。 10月1日16:48,上次读是4月20日,时间过得好快。 论文:PYRAFORMER: LOW-COMPLEXITY PYRAMIDAL ATTENTION FOR LONG-RANGE TIME SERIES MODELING AND FOREC 阅读全文
posted @ 2022-12-03 15:46 ZERO- 阅读(2748) 评论(0) 推荐(2) 编辑
摘要: 2022年9月13日 21:28 摸鱼了一天,看看综述。 论文:Transformers in Time Series: A Survey GitHub: 阿里达摩院 2022的论文。 摘要 从两个角度研究了时间序列transformers的发展。 (i)从网络结构的角度,总结了为适应时间序列分析中 阅读全文
posted @ 2022-09-19 10:58 ZERO- 阅读(1748) 评论(0) 推荐(0) 编辑
摘要: 呜呜呜呜,感谢大佬学弟给我讲干货. 本来是讨论项目的,后面就跑偏讲论文模型了. 解答了我一直以来的疑问: 数据放模型里训练的过程. 假设我们有一个数据集26304条数据,假设设置模型读入1000条,如果不设置,就是把数据集里的26304条数据全都读进去。 parser.add_argument("- 阅读全文
posted @ 2022-07-20 18:47 ZERO- 阅读(4598) 评论(1) 推荐(1) 编辑
摘要: 记录我乱七八糟神经质的情绪. 阅读全文
posted @ 2022-07-20 15:01 ZERO- 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 今天是2022年7月12日,差不多小半个月没看论文了,因为模型一直运行不起来+系统搭建的一塌糊涂,今天干脆摆烂,本咸鱼要去看新的论文了(逃避旧工作,bushi)。 对了,我们放暑假了,可是我没放暑假... 论文:Graph-Augmented Normalizing Flows for Anomal 阅读全文
posted @ 2022-07-19 15:25 ZERO- 阅读(2054) 评论(0) 推荐(0) 编辑
摘要: 2022/6/18 11:32,简单记录一下随笔(因为不写点东西,根本注意力不集中,看5分钟可能要摸鱼10分钟,还是要写点,突然发现,草稿箱里最早的一篇没写完的博客是去年的7月2日,救命啊,我拖了一年了,还没写完)。 论文:CoST: Contrastive Learning of Disentan 阅读全文
posted @ 2022-06-30 22:04 ZERO- 阅读(2092) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-03 16:07 ZERO- 阅读(0) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 53 下一页