摘要:
self-attention是什么? 一个 self-attention 模块接收 n 个输入,然后返回 n 个输出。自注意力机制让每个输入都会彼此交互(自),然后找到它们应该更加关注的输入(注意力)。自注意力模块的输出是这些交互的聚合和注意力分数。 self-attention模块包括以下步骤: 阅读全文
摘要:
在 requirement.txt 文件夹下进入CMD ,使用命令 : pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple 这里我使用的是清华镜像源,也可以使用其他镜像源。 镜像地址: 阿里云 htt 阅读全文