08 2020 档案

摘要:文章链接:https://zhuanlan.zhihu.com/p/128066632 (本文大部分内容都摘抄自这篇文章,主要用作个人笔记。) 论文标题:Dice Loss for Data-imbalanced NLP Tasks 论文作者:Xiaofei Sun, Xiaoya Li, Yuxi 阅读全文
posted @ 2020-08-24 15:46 ZH奶酪 阅读(1667) 评论(0) 推荐(0) 编辑
摘要:https://www.bilibili.com/video/av94519857?p=13 唯一需要知道的就是链式法则:引入隐变量。 只需要计算每1个样本对w的偏微分,然后求和,就得到所有样本对w的偏微分了;(b也是同样的。) 先考虑1个神经元的情况:有两部分,forward pass和backw 阅读全文
posted @ 2020-08-22 22:46 ZH奶酪 阅读(414) 评论(0) 推荐(0) 编辑
摘要:https://www.bilibili.com/video/av94519857?p=12 如果没有参数,就是一个function set: 一连串矩阵运算 Loss function 阅读全文
posted @ 2020-08-22 22:45 ZH奶酪 阅读(248) 评论(0) 推荐(0) 编辑
摘要:https://www.bilibili.com/video/av94519857?p=10 https://www.bilibili.com/video/av94519857?p=11 表格最左一列和最上一行 如果用regression的方法去做classification,就会发生右图的情况。 阅读全文
posted @ 2020-08-22 18:33 ZH奶酪 阅读(585) 评论(0) 推荐(0) 编辑
摘要:https://www.bilibili.com/video/av94519857?p=8 https://www.bilibili.com/video/av94519857?p=9 总结 一次能够拿到所有训练数据,就是offline learning。 每次梯度反方向 Momentum(累加历史所 阅读全文
posted @ 2020-08-22 16:58 ZH奶酪 阅读(549) 评论(0) 推荐(0) 编辑
摘要:https://www.bilibili.com/video/av94519857?p=5 https://www.bilibili.com/video/av94519857?p=6 https://www.bilibili.com/video/av94519857?p=7 为什么SGD比GD收敛更 阅读全文
posted @ 2020-08-22 12:19 ZH奶酪 阅读(158) 评论(0) 推荐(0) 编辑
摘要:https://www.bilibili.com/video/av94519857?p=1 1. 课程介绍 分类、回归、生成 监督、无监督、强化学习 可解释AI、对抗攻击、网络压缩 异常检测(知道自己不知道) 迁移学习(训练和测试的数据分布不同) Meta Learning(学习如何学习, Lear 阅读全文
posted @ 2020-08-22 12:15 ZH奶酪 阅读(400) 评论(0) 推荐(0) 编辑
摘要:![](https://img2020.cnblogs.com/blog/323808/202008/323808-20200822100842843-452598908.png) 阅读全文
posted @ 2020-08-22 10:09 ZH奶酪 阅读(399) 评论(0) 推荐(0) 编辑
摘要:![](https://img2020.cnblogs.com/blog/323808/202008/323808-20200822100156266-1970446755.png) 阅读全文
posted @ 2020-08-22 10:02 ZH奶酪 阅读(169) 评论(0) 推荐(0) 编辑
摘要:参考链接:https://juejin.im/post/6844903693184172040 查看模型的Signature签名 Tensorflow提供了一个工具 如果你下载了Tensorflow的源码,可以找到这样一个文件,./tensorflow/python/tools/saved_mode 阅读全文
posted @ 2020-08-18 15:56 ZH奶酪 阅读(2260) 评论(0) 推荐(0) 编辑
摘要:论文链接:Focal loss for dense object detection 总体上讲,Focal Loss是一个缓解分类问题中类别不平衡、难易样本不均衡的损失函数。首先看一下论文中的这张图: 解释: 横轴是ground truth类别对应的概率(经过sigmoid/softmax处理过的l 阅读全文
posted @ 2020-08-17 18:27 ZH奶酪 阅读(17228) 评论(4) 推荐(2) 编辑
摘要:原文链接:https://www.w3cschool.cn/tensorflow_python/tensorflow_python-85v22c69.html import tensorflow as tf tf.enable_eager_execution() # tf.string_to_num 阅读全文
posted @ 2020-08-08 22:44 ZH奶酪 阅读(341) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示