会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
suwenyuan
博客园
首页
新随笔
联系
订阅
管理
随笔 - 175
文章 - 0
评论 - 0
阅读 -
19万
随笔分类 -
正则化方法
L1和L2 详解(范数、损失函数、正则化)
摘要:一、易混概念 对于一些常见的距离先做一个简单的说明 1.欧式距离 假设X和Y都是一个n维的向量,即
X
=
(
x
1
,
x
2
,
x
3
,
…
x
n
)
,
Y
=
(
y
1
,
y
2
,
y
3
,
…
y
n
)
X
=
(
x
1
,
x
2
,
x
3
,
…
x
n
)
,
Y
=
(
y
1
,
y
2
,
y
3
,
…
y
n
)
则欧氏距离:
D
(
X
,
Y
)
=
√
∑
n
i
=
1
(
x
i
−
y
i
)
2
D
(
X
,
Y
)
=
∑
i
=
1
n
(
x
i
−
y
i
)
2
2.L
阅读全文
posted @
2019-12-25 17:25
suwenyuan
阅读(6224)
评论(0)
推荐(2)
编辑
dropout解析--缓解过拟合
摘要:一、dropout的提出和原理 在2012年,Hinton在其论文《Improving neural networks by preventing co-adaptation of feature detectors》中提出Dropout,目的是为了缓解模型的过拟合。 co-adaptation:在
阅读全文
posted @
2018-05-30 20:28
suwenyuan
阅读(793)
评论(0)
推荐(0)
编辑
公告
昵称:
suwenyuan
园龄:
8年
粉丝:
6
关注:
1
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔分类
C++(21)
DeepLearning(15)
GAN(1)
Git(7)
Hadoop(2)
ImageCaptioning(5)
java(8)
Javascript(1)
jQuery(4)
leetcode(16)
linux(10)
NLP(16)
Object Detection(4)
OS(1)
paddle(2)
python(21)
pytorch(9)
shell(7)
Spring Boot(4)
SQL(4)
概率(1)
机器学习(14)
搜索(1)
算法(4)
文献总结(3)
正则化方法(2)
更多
随笔档案
2023年7月(2)
2022年11月(2)
2022年10月(1)
2022年8月(2)
2022年7月(2)
2022年6月(1)
2022年5月(1)
2022年2月(5)
2021年10月(3)
2021年9月(1)
2021年8月(3)
2021年4月(1)
2021年3月(1)
2021年2月(2)
2021年1月(2)
2020年11月(1)
2020年10月(2)
2020年9月(4)
2020年8月(4)
2020年7月(2)
2020年4月(11)
2020年3月(7)
2020年2月(19)
2020年1月(10)
2019年12月(28)
2019年11月(24)
2019年10月(6)
2019年8月(1)
2019年6月(1)
2018年5月(1)
2018年4月(1)
2018年2月(1)
2018年1月(23)
更多
阅读排行榜
1. C++ 什么时候调用析构函数(20026)
2. RNN、lstm、gru详解(14994)
3. pytorch 中改变tensor维度(transpose)、拼接(cat)、压缩(squeeze)详解(14536)
4. 参考文献引用格式(著者-出版年制(author-year)和顺序编码制(numeric))(13691)
5. pytorch 中tensor的加减和mul、matmul、bmm(11832)
推荐排行榜
1. L1和L2 详解(范数、损失函数、正则化)(2)
2. pytorch中的nn.CrossEntropyLoss()(2)
3. jQuery function函数详解(1)
点击右上角即可分享