摘要:注意:本翻译参考过有道翻译,由于是首次翻译论文,花费了三天时间(英语不好,没过四级,大家在阅读过程中若有遇到翻译不正确还望指正),望能帮助正在学习AI的你。 这是一篇经典的注意力机制的论文,原文名称就是《Attention Is All You Need》,也建议大家看原文。 鉴于文章中的公式对不上
阅读全文
摘要:1.遇到报错:ValueError: optimizer got an empty parameter list 在pycharm上也是报相同的错误 完整代码: 1 import torch 2 import torch.nn as nn 3 from torch.optim import SGD
阅读全文