04 2019 档案

摘要:attention的本质 通过计算Query和一组Key的相似度(或者叫相关性/注意力分布),来给一组Value赋上权重,一般地还会求出这一组Value的加权和。 一个典型的soft attention如下公式所示: 先用Query求出分别和一组Key计算相似度,计算相似度的方法有很多种,常用的有点 阅读全文
posted @ 2019-04-22 16:14 sbj123456789 阅读(3396) 评论(0) 推荐(0) 编辑
摘要:直接看 https://pytorch.org/docs/stable/nn.html 就行了 阅读全文
posted @ 2019-04-17 14:18 sbj123456789 阅读(436) 评论(0) 推荐(0) 编辑
摘要:Python 3.7版本,函数的参数可以通过冒号来进行注释 str 这里都表示注释,而不是强制确定的类型(Python是动态类型的) 冒号后表示参数的注释,如果需要默认赋值再在后面加等号即可 箭头后表示返回值的注释 参考: https://www.cnblogs.com/Stitchez/p/100 阅读全文
posted @ 2019-04-16 17:02 sbj123456789 阅读(1489) 评论(0) 推荐(0) 编辑
摘要:要用到Pycharm专业版(社区版没有此功能),学生应该有免费的。 参考: https://www.cnblogs.com/superjn/p/8624605.html 阅读全文
posted @ 2019-04-14 20:53 sbj123456789 阅读(287) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示