上一页 1 2 3 4 5 6 ··· 28 下一页
摘要: 文章链接:https://zhuanlan.zhihu.com/p/128066632 (本文大部分内容都摘抄自这篇文章,主要用作个人笔记。) 论文标题:Dice Loss for Data-imbalanced NLP Tasks 论文作者:Xiaofei Sun, Xiaoya Li, Yuxi 阅读全文
posted @ 2020-08-24 15:46 ZH奶酪 阅读(1636) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/av94519857?p=13 唯一需要知道的就是链式法则:引入隐变量。 只需要计算每1个样本对w的偏微分,然后求和,就得到所有样本对w的偏微分了;(b也是同样的。) 先考虑1个神经元的情况:有两部分,forward pass和backw 阅读全文
posted @ 2020-08-22 22:46 ZH奶酪 阅读(404) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/av94519857?p=12 如果没有参数,就是一个function set: 一连串矩阵运算 Loss function 阅读全文
posted @ 2020-08-22 22:45 ZH奶酪 阅读(248) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/av94519857?p=10 https://www.bilibili.com/video/av94519857?p=11 表格最左一列和最上一行 如果用regression的方法去做classification,就会发生右图的情况。 阅读全文
posted @ 2020-08-22 18:33 ZH奶酪 阅读(580) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/av94519857?p=8 https://www.bilibili.com/video/av94519857?p=9 总结 一次能够拿到所有训练数据,就是offline learning。 每次梯度反方向 Momentum(累加历史所 阅读全文
posted @ 2020-08-22 16:58 ZH奶酪 阅读(538) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/av94519857?p=5 https://www.bilibili.com/video/av94519857?p=6 https://www.bilibili.com/video/av94519857?p=7 为什么SGD比GD收敛更 阅读全文
posted @ 2020-08-22 12:19 ZH奶酪 阅读(157) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/av94519857?p=1 1. 课程介绍 分类、回归、生成 监督、无监督、强化学习 可解释AI、对抗攻击、网络压缩 异常检测(知道自己不知道) 迁移学习(训练和测试的数据分布不同) Meta Learning(学习如何学习, Lear 阅读全文
posted @ 2020-08-22 12:15 ZH奶酪 阅读(397) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2020.cnblogs.com/blog/323808/202008/323808-20200822100842843-452598908.png) 阅读全文
posted @ 2020-08-22 10:09 ZH奶酪 阅读(391) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2020.cnblogs.com/blog/323808/202008/323808-20200822100156266-1970446755.png) 阅读全文
posted @ 2020-08-22 10:02 ZH奶酪 阅读(168) 评论(0) 推荐(0) 编辑
摘要: 参考链接:https://juejin.im/post/6844903693184172040 查看模型的Signature签名 Tensorflow提供了一个工具 如果你下载了Tensorflow的源码,可以找到这样一个文件,./tensorflow/python/tools/saved_mode 阅读全文
posted @ 2020-08-18 15:56 ZH奶酪 阅读(2238) 评论(0) 推荐(0) 编辑
摘要: 论文链接:Focal loss for dense object detection 总体上讲,Focal Loss是一个缓解分类问题中类别不平衡、难易样本不均衡的损失函数。首先看一下论文中的这张图: 解释: 横轴是ground truth类别对应的概率(经过sigmoid/softmax处理过的l 阅读全文
posted @ 2020-08-17 18:27 ZH奶酪 阅读(16943) 评论(4) 推荐(2) 编辑
摘要: 原文链接:https://www.w3cschool.cn/tensorflow_python/tensorflow_python-85v22c69.html import tensorflow as tf tf.enable_eager_execution() # tf.string_to_num 阅读全文
posted @ 2020-08-08 22:44 ZH奶酪 阅读(341) 评论(0) 推荐(0) 编辑
摘要: @deprecation.deprecated(None, "Please use `keras.layers.RNN(cell, unroll=True)`, " "which is equivalent to this API") @tf_export(v1=["nn.static_rnn"]) 阅读全文
posted @ 2020-07-31 20:30 ZH奶酪 阅读(614) 评论(0) 推荐(0) 编辑
摘要: @tf_export(v1=['layers.MaxPooling1D']) class MaxPooling1D(keras_layers.MaxPooling1D, base.Layer): """Max Pooling layer for 1D inputs. 用于1维输入的MaxPoolin 阅读全文
posted @ 2020-07-31 17:45 ZH奶酪 阅读(824) 评论(0) 推荐(0) 编辑
摘要: https://www.w3cschool.cn/tensorflow_python/tensorflow_python-1yed2mih.html @tf_export(v1=["squeeze"]) @dispatch.add_dispatch_support @deprecation.depr 阅读全文
posted @ 2020-07-31 17:10 ZH奶酪 阅读(230) 评论(0) 推荐(0) 编辑
摘要: @tf_export(v1=['layers.Conv1D']) class Conv1D(keras_layers.Conv1D, base.Layer): """1D convolution layer (e.g. temporal convolution). This layer create 阅读全文
posted @ 2020-07-31 11:56 ZH奶酪 阅读(1125) 评论(0) 推荐(0) 编辑
摘要: @keras_export('keras.layers.TimeDistributed') class TimeDistributed(Wrapper): """This wrapper allows to apply a layer to every temporal slice of an in 阅读全文
posted @ 2020-07-31 11:22 ZH奶酪 阅读(1837) 评论(0) 推荐(0) 编辑
摘要: """ Multilayer Perceptron. A Multilayer Perceptron (Neural Network) implementation example using TensorFlow library. This example is using the MNIST d 阅读全文
posted @ 2020-07-30 13:12 ZH奶酪 阅读(690) 评论(0) 推荐(0) 编辑
摘要: 原文链接:https://mp.weixin.qq.com/s/RO3FrPxhK2GEoDCGE9DXrw 在各种内部模型上观察到速度提升1.13~3.04倍。 通常情况下,当您运行 TensorFlow 图表时,所有运算都由 TensorFlow 图表执行器单独执行。每个运算都会安装由图表执行器 阅读全文
posted @ 2020-07-27 15:55 ZH奶酪 阅读(323) 评论(0) 推荐(0) 编辑
摘要: 原文链接:https://zhuanlan.zhihu.com/p/50661038 阅读全文
posted @ 2020-07-27 15:18 ZH奶酪 阅读(193) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 28 下一页