摘要:
收藏两篇文章,就不自己写了: 详解Transformer (Attention Is All You Need) - 知乎 (zhihu.com) Self-Attention和Transformer - machine-learning-notes (gitbook.io) 阅读全文
摘要:
发现已经有人总结了,难得复制了,直接贴链接:一文读懂注意力机制 - 知乎 (zhihu.com) 阅读全文
摘要:
在当前文件夹路径下开启jupyter notebook 这样就可以直接使用相对路径了,而不用管绝对路径这一令人心烦的问题 首先需要重新安装PowerShell 下载链接:https://cloud.189.cn/web/share?code=bAfQFf7FNbAr(访问码:uoi6) 然后安装过程 阅读全文