摘要: 本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 本笔记中所涉及的Layer Normalization和Self-Attention笔记如下: Layer Normalization Self-Attent 阅读全文
posted @ 2021-05-19 16:08 sykline 阅读(727) 评论(1) 推荐(1) 编辑