08 2020 档案
摘要:文章链接:https://zhuanlan.zhihu.com/p/128066632 (本文大部分内容都摘抄自这篇文章,主要用作个人笔记。) 论文标题:Dice Loss for Data-imbalanced NLP Tasks 论文作者:Xiaofei Sun, Xiaoya Li, Yuxi
阅读全文
摘要:https://www.bilibili.com/video/av94519857?p=13 唯一需要知道的就是链式法则:引入隐变量。 只需要计算每1个样本对w的偏微分,然后求和,就得到所有样本对w的偏微分了;(b也是同样的。) 先考虑1个神经元的情况:有两部分,forward pass和backw
阅读全文
摘要:https://www.bilibili.com/video/av94519857?p=12 如果没有参数,就是一个function set: 一连串矩阵运算 Loss function
阅读全文
摘要:https://www.bilibili.com/video/av94519857?p=10 https://www.bilibili.com/video/av94519857?p=11 表格最左一列和最上一行 如果用regression的方法去做classification,就会发生右图的情况。
阅读全文
摘要:https://www.bilibili.com/video/av94519857?p=8 https://www.bilibili.com/video/av94519857?p=9 总结 一次能够拿到所有训练数据,就是offline learning。 每次梯度反方向 Momentum(累加历史所
阅读全文
摘要:https://www.bilibili.com/video/av94519857?p=5 https://www.bilibili.com/video/av94519857?p=6 https://www.bilibili.com/video/av94519857?p=7 为什么SGD比GD收敛更
阅读全文
摘要:https://www.bilibili.com/video/av94519857?p=1 1. 课程介绍 分类、回归、生成 监督、无监督、强化学习 可解释AI、对抗攻击、网络压缩 异常检测(知道自己不知道) 迁移学习(训练和测试的数据分布不同) Meta Learning(学习如何学习, Lear
阅读全文
摘要:
阅读全文
摘要:
阅读全文
摘要:参考链接:https://juejin.im/post/6844903693184172040 查看模型的Signature签名 Tensorflow提供了一个工具 如果你下载了Tensorflow的源码,可以找到这样一个文件,./tensorflow/python/tools/saved_mode
阅读全文
摘要:论文链接:Focal loss for dense object detection 总体上讲,Focal Loss是一个缓解分类问题中类别不平衡、难易样本不均衡的损失函数。首先看一下论文中的这张图: 解释: 横轴是ground truth类别对应的概率(经过sigmoid/softmax处理过的l
阅读全文
摘要:原文链接:https://www.w3cschool.cn/tensorflow_python/tensorflow_python-85v22c69.html import tensorflow as tf tf.enable_eager_execution() # tf.string_to_num
阅读全文