10 2024 档案

摘要:A Graph-based Representation Framework for Trajectory Recovery via Spatiotemporal Interval-Informed Seq2Seq 数据格式 一条轨迹数据通常来源于车辆的行驶记录。此类轨迹数据通常通过GPS设备实时采 阅读全文
posted @ 2024-10-31 10:45 GraphL 阅读(458) 评论(0) 推荐(0) 编辑
摘要:TEMPO: PROMPT-BASED GENERATIVE PRE-TRAINED TRANSFORMER FOR TIME SERIES FORECASTING 框架 根据您提供的文档和信息,我可以帮助整理出这篇论文的框架及公式说明。以下是简要的内容分解: 1. 时间序列输入表示 (Time S 阅读全文
posted @ 2024-10-28 23:42 GraphL 阅读(101) 评论(0) 推荐(0) 编辑
摘要:在原始的 Transformer 模型中(例如在机器翻译任务中),Encoder 和 Decoder 的注意力掩码策略有所不同,但并不是完全按照 BERT 和 GPT 的双向/单向掩码策略区分的。以下是详细解释: 1. Transformer 中的 Encoder 和 Decoder 的注意力机制 阅读全文
posted @ 2024-10-28 14:49 GraphL 阅读(348) 评论(0) 推荐(0) 编辑
摘要:以下是包含所有内容的 Markdown 格式: 使用 Gumbel-Softmax 和 One-hot 的区别和示例 1. Gumbel-Softmax 和 One-hot 的区别 定义 One-hot 向量:一个严格的离散向量,其中只有一个位置为 1,其余位置为 0。例如,假设类别数为 4,某个 阅读全文
posted @ 2024-10-27 15:03 GraphL 阅读(114) 评论(0) 推荐(0) 编辑
摘要:inner_edges (ctx_edges)会包含全局节点的部分 第一部分即使E3-E3和Antibody-Antibody 还有三个是我之前忽略了的 在这里,每个蛋白质的 3 个全局节点分别代表抗原、重链和轻链的全局信息。让我们逐步解析 global_normal、global_global 和 阅读全文
posted @ 2024-10-26 15:15 GraphL 阅读(43) 评论(0) 推荐(0) 编辑
摘要:GATGPT: A Pre-trained Large Language Model with Graph Attention Network for Spatiotemporal Imputation 数据形式 框架 Our approach integrates pre-trained larg 阅读全文
posted @ 2024-10-25 18:52 GraphL 阅读(51) 评论(0) 推荐(0) 编辑
摘要:class AxialAttention(nn.Module): def __init__( self, dim, heads, row_attn = True, col_attn = True, accept_edges = False, global_query_attn = False, ** 阅读全文
posted @ 2024-10-24 19:33 GraphL 阅读(7) 评论(0) 推荐(0) 编辑
摘要:根据你的需求,这里是对于如何基于 local_protein_ids 构建矩阵并进行消息传递的解释和注释。 任务概述 构建矩阵:基于 local_protein_ids,为每个局部蛋白质构建一个矩阵。矩阵中的每个元素表示两个残基的组合,通过 MLP 生成对应的特征向量。 有向特性:矩阵是有向的,因此 阅读全文
posted @ 2024-10-23 10:27 GraphL 阅读(12) 评论(0) 推荐(0) 编辑
摘要:数据格式 prompt的三种格式 System prompts chain-of-thought Multi-modal spatial-temporal(ST) text prompts. <s>[INST]<<SYS>> Role: You are an expert traffic volum 阅读全文
posted @ 2024-10-21 13:29 GraphL 阅读(37) 评论(0) 推荐(0) 编辑
摘要:所以我可以理解成这些是在定义LoRA 模块的网络么 是的,可以这么理解。这些参数实际上是在 定义 LoRA 模块要插入的网络位置。具体来说,通过 target_modules 参数,代码指定了 LoRA 应该注入 LLaMA 模型的哪些层,以实现轻量化微调。 LoRA 模块的网络定义:如何理解? L 阅读全文
posted @ 2024-10-21 11:20 GraphL 阅读(132) 评论(0) 推荐(0) 编辑
摘要:在大模型(如语言模型、时间序列模型等)中,回归(regression)通常指的是通过输入变量预测一个连续的输出变量。这种技术被广泛用于需要预测具体数值的场景,例如: 在语言模型中,回归可以用来预测句子的情感评分。 在时间序列模型中,可以用于预测未来的温度、股价等连续数值。 回归的目标是找到输入与输出 阅读全文
posted @ 2024-10-18 16:12 GraphL 阅读(241) 评论(0) 推荐(0) 编辑
摘要:1. 数据准备 在这个数据处理过程中,以数据集 PEMS07M 为例,整个数据抽取和划分过程如下: 初始数据维度: 原始训练数据 data_train 的维度为 (12672, 228, 3)。其中: 12672 表示时间步数,代表不同的时间点采样的数据。 228 表示空间节点数(例如不同的交通站点 阅读全文
posted @ 2024-10-18 15:33 GraphL 阅读(119) 评论(0) 推荐(0) 编辑
摘要:1. 输入数据 这符合时间序列预测的典型设置: 输入数据包含多个特征(如历史的流量、天气、时间等),这些特征用于帮助模型进行预测。 输出数据则通常是要预测的目标变量,比如未来某个时间步的流量或温度,这个目标变量是一个单一的值,因此输出通道数是 1。 x_train 包含多个特征(3 个通道),作为模 阅读全文
posted @ 2024-10-12 21:47 GraphL 阅读(32) 评论(0) 推荐(0) 编辑
摘要:是的,您的理解完全正确!线性层(Linear)和卷积层(特别是1维卷积和2维卷积)的计算确实有本质上的区别,其中主要的区别之一是卷积有“滑动(rolling)”的概念,而线性层没有。以下是更详细的对比: 1. 线性层(Linear)的计算特点 线性层(Linear 层,或称为全连接层)直接将输入的每 阅读全文
posted @ 2024-10-12 21:20 GraphL 阅读(171) 评论(0) 推荐(0) 编辑
摘要:感谢澄清!让我更详细地解释原来代码中的 torch.bmm(coord_diff, coord_diff.transpose(-1, -2)) 与后续改进后的实现之间的区别。 原始代码的含义 coord_diff = coord[row] - coord[col] # [n_edge, 14, 3] 阅读全文
posted @ 2024-10-11 17:21 GraphL 阅读(29) 评论(0) 推荐(0) 编辑
摘要:这段代码展示了如何将数据从 DataFrame 形式转化为 “blocks” 的过程。具体来说,它通过处理 DataFrame 的每一行(每一行代表一个原子),将它们按残基(residue)分组,每个组被称为一个 "block"。以下是对代码的详细分析,解释如何将数据转化为 "block"。 主要步 阅读全文
posted @ 2024-10-08 00:45 GraphL 阅读(25) 评论(0) 推荐(0) 编辑
摘要:为什么在import里有一个GPT2,然后,在代码里面又有一个from pretrained gpt2 在 import 部分引入了 GPT2Model 后,在代码中使用 GPT2Model.from_pretrained("gpt2") 来加载预训练的模型。这样做的原因是,import 只是引入了 阅读全文
posted @ 2024-10-07 14:52 GraphL 阅读(89) 评论(0) 推荐(0) 编辑
摘要:I understand you're looking to optimize the code realization to improve accuracy. This is an important goal in machine learning model development. Let 阅读全文
posted @ 2024-10-05 18:24 GraphL 阅读(16) 评论(0) 推荐(0) 编辑
摘要:在《Spatio-Temporal Graph Convolutional Networks: A Deep Learning Framework for Traffic Forecasting》这篇文章中,数据输入的形式是时空图结构,旨在捕捉交通网络中空间和时间上的依赖关系。具体而言,数据输入不仅 阅读全文
posted @ 2024-10-04 18:39 GraphL 阅读(83) 评论(0) 推荐(0) 编辑
摘要:时序卷积核(Temporal Convolutional Kernel)是卷积神经网络(CNN)在时序数据中的应用,用于处理序列型数据(如时间序列、语音信号或视频帧)。与二维图像的空间卷积核不同,时序卷积核专注于时间维度的数据处理。时序卷积(Temporal Convolution)旨在提取序列数据 阅读全文
posted @ 2024-10-04 15:54 GraphL 阅读(155) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示