摘要: self-attention是什么? 一个 self-attention 模块接收 n 个输入,然后返回 n 个输出。自注意力机制让每个输入都会彼此交互(自),然后找到它们应该更加关注的输入(注意力)。自注意力模块的输出是这些交互的聚合和注意力分数。 self-attention模块包括以下步骤: 阅读全文
posted @ 2021-09-26 17:06 图神经网络 阅读(3607) 评论(1) 推荐(1) 编辑
摘要: 在 requirement.txt 文件夹下进入CMD ,使用命令 : pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple 这里我使用的是清华镜像源,也可以使用其他镜像源。 镜像地址: 阿里云 htt 阅读全文
posted @ 2021-09-26 10:21 图神经网络 阅读(2742) 评论(0) 推荐(0) 编辑
Live2D