随笔分类 - 论文笔记
1
摘要:气候模型预测温室气体加强了日降水变化和极端事件,但由于区域降水波动太大,无法直接使用观测数据验证这种预测。 作者提出用CNN做检测,首先给模型输入全球降水异常分布图,然后输出一个年全球平均气温,输出端的真值是模拟数据。 模型训练好以后给模型输入近年的卫星观测、模式模拟、再分析等数据(用好几套数据是考
阅读全文
摘要:海洋大模型 海洋数据用HYCOM,还有一些ERA5的大气数据用于边界条件,地形数据为ETOPO backbone model用于预测T S U V SSH,微调后用于下游的降尺度、波解码、生物化学耦合 适用于缺测的稀疏数据 预测给的是30天的结果统计和对比 在backbone model的预测结果统
阅读全文
摘要:https://mp.weixin.qq.com/s/6mr_2aUK2eU3RYCyWpa7lg 这篇恐怕要按照SwinRNN SwinRDM FUXI这个顺序来梳理 摘要:过去的AI方法在ECWMF的HRES对比中,10天就比较好了,但是15天还是不行。之前研究发现长期预测中的误差累积很严重,这
阅读全文
摘要:摘要:风乌从多模态和多任务视角解决中期预报问题 几个不太清楚的关键词:“跨模态融合” “非确定损失” “区域自适应方式” “repley buffer” 数据:ERA5 intro:贡献1,每一个变量视为一个独立的模态并用跨模态方式来建模变量之间相互作用;贡献2,NWP中每个变量的预测被看作单独的任
阅读全文
摘要:摘要:ERA5数据训练。创新:1. 三维transformer 2. 层级结构的时间聚合算法,能够缓解误差累积 硬件:华为云 192个英伟达 Tesla-V100,100epoch训15天 方法:预训练任务就是预测 和Climax一样,没有采用迭代预测,而是指定Δt,直接进行预测。但是前者使用的是时
阅读全文
摘要:摘要:当前大多数模型使用整理好的同质的数据,也就是说针对特定数据特定下游任务的。ClimaX使用跨越不同变量、空间位置、物理基础的异构数据,也就是说是一个经过自监督预训练(CMIP6)的大模型。 intro: 第一个问题:训练大模型要使用非常大的数据集进行与训练,NLP和CV使用了互联网规模的数据进
阅读全文
摘要:2023-6-17 清华团队的工作:全球观测站的统一预报《(NMI)Interpretable weather forecasting for worldwide stations with a unified deep model》 知乎:https://zhuanlan.zhihu.com/p/
阅读全文
摘要:摘要:earthformer是基于一个时空注意力块,称为Cuboid Attention。将数据分解为多个立方体块(cuboid),然后在方块上计算自注意力,有一个全局向量和所有方块连接和汇总。 硬件:这个工作是在一块V100上完成的,开销很小。因为实验是在MNIST上做的,当然也做了降雨和ENSO
阅读全文
摘要:预测对象:三维海洋上层温度异常、风应力异常 预测期:18个月 特点:由于考虑了风,所以一定程度上认为耦合了海气动力学 变量:该模型考虑了三个变量,径向/纬向风应力,以及上层海洋温度(共七层,5,20,40,60,90,120,150) 参数设置:全部变量叠加到一起是九层,一起输入模型。每一层是以ch
阅读全文
摘要:这是一篇早期论文提到的fusion方法,有late early,所以自然就想到slow,但实际上结果差别不大,甚至还不如手工特征,可见特征工程重要性 这篇文章作者采用了一个早期的类注意力机制,人为强制的将图片中心裁剪出来进行识别,当然这是假设我们关心的对象大概率出现在图片中心 第二个工作就是双流网络
阅读全文
摘要:本文提出一个新的3D模型,以及一个大的视频数据(注意这是一篇2018年的文章了) 它告诉我们如何使用在2D领域中已经取得成功的网络如何扩展到3D,甚至是使用预训练好的参数 当时已经有很多视频数据集,但这些数据不是因为太大,普通玩家都玩不动,就是内容比较局限。所以作者利用这个机会提出了kinetic数
阅读全文
摘要:视频理解难点在于两处,一种是图像的appearance信息(外表信息),另一种是运动信息(时序信息) 该文贡献有三点:1.双流 2.已证实,在少量数据下,只学习光流信息也能取得较好效果 3.为弥补数据的不足,在两个数据集上训练骨干网络,在两个数据集上都有效果提升 导言:与图像识别相比,视频中的动作信
阅读全文
摘要:这个东西大体就是说,之前都是用Imagenet这种一个图片对应一个确定的分类,这样你的输出层softmax就是固定数量的,比如1000选一。 CLIPS可以学习视觉信息和语义信息的对应,用对比学习的方法,这样就可以用大量的社交网络上爬下来的图片以及图片的caption进行训练。说白了就是想用文本(一
阅读全文
摘要:22年初的屠榜模型 题目:用了移动窗口的层级式的vision transformer 摘要:Swin transformer可以作为CV中通用骨干网络。与NLP不同的第一个是对象尺度的问题,第二是多次提到的分辨率太大的问题,之前工作已经用很多办法减少过输入模型的序列长度。移动窗口可以让每次只计算一个
阅读全文
摘要:MoCo作为一个无监督表征学习工作,在不仅分类而且其他例如检测、分割、人体关键点检测等主流视觉任务上超越了有监督模型(即ImageNet上的预训练模型),这给CV领域吃了一颗定心丸,证明无监督真的可行。Lecun早在2016年就用一张蛋糕图表明如果机器学习是一个蛋糕,强化学习只是上面的一颗樱桃,有监
阅读全文
摘要:开篇定性如上图 标题:Masked Autoencoder Are Scalable Vision Learners 带掩码的自编码器是一个可拓展的(scalable)视觉学习器 沐神说加入做的模型比较大就用scalable,算法比较快的话就用efficient Masked就是要做完形填空的意思。
阅读全文
摘要:ViT:如果在足够多的数据上做预训练,直接用NLP中搬来的Transformer也能把视觉问题解决的很好,这打破了视觉和NLP之间模型上的壁垒,所以就开启了多模态领域的快速发展。 在开始读原文之前,这里展示了一个ViT有趣的特性,即在以下四种情况下CNN甚至人眼都难以分辨图片中是一只鸟,而ViT效果
阅读全文
摘要:机器学习模型有两大类,第一种是分辨模型(这里的分辨我理解为让模型分辨/理解/识别数据),即判断数据的类别或输出一个预测。第二类是生成模型,即生成数据本身 李沐认为GAN的摘要非常简洁,是可以直接写进教科书的写法。如果你提出的是一个全新的东西,并且你认为它是能写进教科书的话,那你整篇文章关键在于讲清楚
阅读全文
摘要:图的基本概念不再详细描述 有顶点(node, V)、边(edge, E),这里还有一个全局属性(global, U),但不知道具体表示什么 边分为无向的边和有方向的边 三者都是通过向量来表示(embedding) 将图像表示成图的方法:一个像素是一个节点 下图左边是原图,中间是邻接矩阵,右边是图 文
阅读全文
摘要:摘要 序列转录模型:给你一个序列,生成一个序列 simple network architecture:“简单的模型”不再也不应该是一个贬义词,简单高效应当是值得提倡的 BLEU:机器翻译中的衡量标准 结论 1.transformer是第一个仅使用注意力机制的序列转录模型 2.训练的快 3.tran
阅读全文
1

浙公网安备 33010602011771号