上一页 1 2 3 4 5 6 7 ··· 9 下一页
摘要: title: Transformer源码 date: 2022-10-09 18:30:35 mathjax: true tags: Encoder Decoder Transformer Transformer代码(源码Pytorch版本)从零解读(Pytorch版本)_哔哩哔哩_bilibili 阅读全文
posted @ 2022-10-19 12:05 放学别跑啊 阅读(73) 评论(2) 推荐(1) 编辑
摘要: title: GRU原理及其实现 date: 2022-10-03 09:31:44 mathjax: true tags: GRU GRU原理及其实现 https://www.bilibili.com/video/BV1jm4y1Q7uh/?spm_id_from=333.788&vd_sourc 阅读全文
posted @ 2022-10-19 12:04 放学别跑啊 阅读(331) 评论(0) 推荐(0) 编辑
摘要: title: DataSet与DataLoaders使用教程 mathjax: true date: 2022-10-04 09:13:43 tags: DataSet DataLoader DataSet与DataLoaders使用教程 4、PyTorch的Dataset与DataLoader详细 阅读全文
posted @ 2022-10-19 12:03 放学别跑啊 阅读(39) 评论(0) 推荐(0) 编辑
摘要: title: bert详解 date: 2022-10-15 10:57:00 mathjax: true tags: encoder bert https://www.bilibili.com/video/BV1Ey4y1874y/?spm_id_from=333.999.0.0&vd_sourc 阅读全文
posted @ 2022-10-19 12:03 放学别跑啊 阅读(207) 评论(0) 推荐(0) 编辑
摘要: title: 预训练语言模型(Transformer, BERT)的前世今生 date: 2022-10-07 16:18:37 mathjax: true tags: RNN LSTM Attention Self-Attention Multi-Head Self-Attention Posit 阅读全文
posted @ 2022-10-19 11:45 放学别跑啊 阅读(342) 评论(0) 推荐(0) 编辑
摘要: 参考链接:卷积究竟卷了啥?——17分钟了解什么是卷积_哔哩哔哩_bilibili 阅读全文
posted @ 2022-05-26 10:29 放学别跑啊 阅读(119) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-05-24 18:14 放学别跑啊 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 1.首先求出梯度和L方向的单位矢量,梯度和单位矢量的乘积之和就是方向导数 2.要求梯度,就要求出z对x和y的偏导数 3.单位矢量等于分量除以模 参考链接:求方向导数_哔哩哔哩_bilibili 补充: 阅读全文
posted @ 2022-05-24 17:05 放学别跑啊 阅读(330) 评论(0) 推荐(0) 编辑
摘要: 将从官网下载的文件解压缩后,复制到主目录,然后进去sudo ./autorun.sh,就大功告成 阅读全文
posted @ 2021-01-30 15:41 放学别跑啊 阅读(1440) 评论(0) 推荐(0) 编辑
摘要: async await 要点1.await 后面可以追加promise对象 获取resolve的值2.await 必须包裹在async函数里面3.async 函数执行返回的也是一个promise对象4.try-catch 截获promise中reject的值 阅读全文
posted @ 2020-10-12 13:04 放学别跑啊 阅读(104) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 9 下一页