会员
商店
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
喂你在哪
博客园
首页
新随笔
联系
管理
订阅
随笔- 54 文章- 0 评论- 6 阅读-
12万
12 2019 档案
神经网络中的过拟合
摘要:先说下一般对原始数据的划分为什么分为训练集、验证集、测试集三个部分? train data的作用是训练模型,validation data的作用是对模型的超参数进行调节,为什么不直接在test data上对参数进行调节?因为如果在test data上来调节参数,那么随着训练的进行,我们的网络实际上就
阅读全文
posted @
2019-12-31 23:37
喂你在哪
阅读(2729)
评论(0)
推荐(0)
编辑
公告
昵称:
喂你在哪
园龄:
6年11个月
粉丝:
4
关注:
0
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
更多链接
随笔档案
2020年1月(1)
2019年12月(1)
2019年11月(3)
2019年7月(4)
2019年6月(30)
2019年5月(6)
2019年4月(2)
2019年3月(7)
阅读排行榜
1. 机器学习之特征选择和特征抽取(24425)
2. NLP之语言模型(12272)
3. NLP之CRF应用篇(序列标注任务)(9214)
4. Linux中目录以及路径问题(6818)
5. BERT-wwm、BERT-wwm-ext、RoBERTa、SpanBERT、ERNIE2(6463)
评论排行榜
1. NLP之语言模型(5)
2. Batch Normalization和Layer Normalization的对比分析(1)
推荐排行榜
1. NLP之关键词提取(TF-IDF、Text-Rank)(3)
2. NLP之语言模型(2)
3. Batch Normalization和Layer Normalization的对比分析(1)
4. BERT-wwm、BERT-wwm-ext、RoBERTa、SpanBERT、ERNIE2(1)
5. 机器学习之特征选择和特征抽取(1)
最新评论
1. Re:Batch Normalization和Layer Normalization的对比分析
写的太好了
--cz23333
2. Re:NLP之语言模型
@ 喂你在哪十分感谢!🙏我先认真理解下!...
--清风明月9527
3. Re:NLP之语言模型
@ 清风明月9527word2vec算是促进了语言模型的兴起,bert算是把语言模型带上了顶峰。word2vec训练出来的直接产物是词向量,Bert是以Token为单位的,可以直接获取的是字向量。对于...
--喂你在哪
4. Re:NLP之语言模型
你好,我是一个做nlp对话的产品经理,文章收益很多,一直有个疑问想请教下。像word2vec、bert这种语言模型,他们训练出来的产物是词向量吗?我理解是获取到词向量后,再通过标记数据进行对应模型的训...
--清风明月9527
5. Re:NLP之语言模型
@ 123向前走谢谢,我也是菜鸟都是根据看的别人总结的。...
--喂你在哪
点击右上角即可分享