随笔 - 16  文章 - 0  评论 - 7  阅读 - 18293

随笔分类 -  神经网络与深度学习

神经网络与深度学习学习记录
一文读懂:注意力机制(Attention Mechanism)
摘要:注意力机制 第一部分:注意力机制(Attention Mechanism)浅谈 1. 注意力机制的由来,解决了什么问题? 早期在解决机器翻译这一类序列到序列(Sequence to Sequence)的问题时,通常采用的做法是利用一个编码器(Encoder)和一个解码器(Decoder)构建端到端的 阅读全文
posted @ 2022-11-17 21:40 ConBnZj 阅读(4548) 评论(0) 推荐(1) 编辑
一文读懂:BERT原理与实现
摘要:转载自:https://blog.csdn.net/m0_37477175/article/details/106578098?spm=1001.2014.3001.5506 本文框架: BERT原文:https://paperswithcode.com/paper/bert-pre-trainin 阅读全文
posted @ 2022-11-16 16:55 ConBnZj 阅读(1630) 评论(1) 推荐(0) 编辑
一文读懂:长短期记忆网络(LSTM)和注意力机制(Attention Model)
摘要:转载自:https://blog.csdn.net/wangyanbeilin/article/details/81350683 阅读全文
posted @ 2022-11-02 02:00 ConBnZj 阅读(484) 评论(0) 推荐(0) 编辑
一文读懂:AUC-ROC、F1-Score和Kappa系数(超详细描述)
摘要:AUC-ROC https://blog.csdn.net/u013385925/article/details/80385873 F1分数和Kappa系数 https://blog.sciencenet.cn/blog-3428464-1309052.html 注:后续会详细整理,使得更加通俗易懂 阅读全文
posted @ 2022-08-03 11:22 ConBnZj 阅读(477) 评论(0) 推荐(0) 编辑
神经网络与深度学习中文实战版--电子书
摘要:#版权: 本书电子版获取方式:链接:https://pan.baidu.com/s/1DIwYOCAZCr2ZTh1-c5Zvnw?pwd=s61p 提取码:s61p。 本书英⽂原版地址为:http://neuralnetworksanddeeplearning.com/ 。 在学术著作中请引⽤英⽂ 阅读全文
posted @ 2022-02-09 10:55 ConBnZj 阅读(202) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示