上一页 1 2 3 4 5 6 7 8 9 ··· 30 下一页
摘要: BN: 1.在神经网络中,防止梯度爆炸梯度消失,使用了batch normalization 2. 该方法是对一个batch的vectors的每一维度,比如100个输入向量的第1维,进行方差,均值的计算,然后 x = x-均值/方差 的操作 LN: 1. 在Tranformer中,对每一次的mult 阅读全文
posted @ 2020-09-29 18:56 ChevisZhang 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 1. 首先我们的目标函数是 最大似然估计,需要计算的是P(Y|X),即为给定vector x 的情况下,输出vector为Y的概率 1) 根据下图公式,我们可以看出,例如输入为 'we',输出为汉字的情况下,我们需要穷举计算所有汉字计算分母,是不可能的 2)所以将其优化为RNN的概率连乘 2. 最简 阅读全文
posted @ 2020-09-29 16:18 ChevisZhang 阅读(126) 评论(0) 推荐(0) 编辑
摘要: DP的思路: 1. 通常dp第一个难点都是找状态转移方程,对于 s中前i个字符与p中前j个字符: 1)p[j] == s[i] && dp[i-1][j-1] => dp[i][j] = True 2) p[j] == '?' && dp[i-1][j-1] => dp[i][j] = True 3 阅读全文
posted @ 2020-09-26 12:53 ChevisZhang 阅读(150) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/JustNo/p/12186632.html d-separation 也太难了 - - 例子看不懂 三种阻塞的情况里: 前两种是Z观测,则X,Y关于Z条件独立,否则不独立 第三种是Z不观测,条件独立,否则不独立 阅读全文
posted @ 2020-09-25 13:17 ChevisZhang 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-09-23 09:36 ChevisZhang 阅读(75) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-09-23 09:18 ChevisZhang 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-09-23 09:04 ChevisZhang 阅读(75) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/BV1si4y1G7Jb?t=1740 Xgboost思路: 1. 迭代的将残差y-f(x) (y-hat) 作为下一模型的label 2. 最后的预测结果为所有分类器的加和 目标函数的构建: 1. 阅读全文
posted @ 2020-09-21 20:07 ChevisZhang 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 思路: 1. 就是一个数学问题,需要明确绳子每段长度为3时取得最大乘积。 2. 此外,有几种特殊情况: 1) 绳子必须要分段,所以在 n = 2 -> 1,1 n=3 -> 2,1 2) 余数是1的时候, 2*2>3*1 所以要分为2*2 阅读全文
posted @ 2020-09-18 10:33 ChevisZhang 阅读(75) 评论(0) 推荐(0) 编辑
摘要: 用Counter的暴力解法 阅读全文
posted @ 2020-09-18 10:04 ChevisZhang 阅读(96) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 30 下一页