会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
持续学习的JielongZ
不积跬步无以至千里
博客园
首页
新随笔
联系
订阅
管理
随笔 - 26
文章 - 1
评论 - 15
阅读 -
10万
09 2018 档案
概述机器学习中的偏差与方差
摘要:在这篇博文中主要介绍下机器学习中的偏差和方差。在实际运用机器学习(或深度学习)模型的过程当中,总是会难免碰到一个问题,就是常说的偏差(Bias)与方差(Variance),及其之间的权衡(Bias-Variance Tradeoff),理解了机器学习中的方差和偏差有助于进一步理解机器学习算法的运作并
阅读全文
posted @
2018-09-01 14:58
JieLongZ
阅读(1055)
评论(0)
推荐(0)
编辑
公告
昵称:
JieLongZ
园龄:
6年6个月
粉丝:
23
关注:
0
+加关注
<
2025年1月
>
日
一
二
三
四
五
六
29
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
6
7
8
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
深度学习
(6)
Python
(4)
卷积神经网络
(3)
机器学习
(3)
TF-IDF
(2)
TensorFlow
(2)
Stable Matching
(2)
ResNet
(2)
os.path.splitext()
(2)
NLP
(2)
更多
随笔分类
JavaScript(4)
Python(5)
TensorFlow(1)
机器学习(6)
开发环境搭建(1)
论文概要(3)
其他(书籍推荐)(1)
深度学习(9)
算法(5)
特征工程(1)
自然语言处理(6)
随笔档案
2020年11月(2)
2020年10月(2)
2020年5月(1)
2019年10月(1)
2019年9月(4)
2019年2月(4)
2019年1月(1)
2018年12月(1)
2018年9月(1)
2018年8月(4)
2018年7月(5)
阅读排行榜
1. U-Net卷积神经网络简要解析(附基于TensorFlow自己实现的代码参考)(21320)
2. Python中关于split和splitext的差别和运用(15865)
3. 3D U-Net卷积神经网络(12455)
4. 分词(Tokenization) - NLP学习(1)(9824)
5. N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2)(9366)
评论排行榜
1. 3D U-Net卷积神经网络(6)
2. 解开Batch Normalization的神秘面纱(2)
3. U-Net卷积神经网络简要解析(附基于TensorFlow自己实现的代码参考)(2)
4. 文本向量化及词袋模型 - NLP学习(3-1)(1)
5. N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2)(1)
推荐排行榜
1. 解析Wide Residual Networks(2)
2. 分词(Tokenization) - NLP学习(1)(2)
3. 解开Batch Normalization的神秘面纱(1)
4. word2vec是如何工作的?(1)
5. TF-IDF与主题模型 - NLP学习(3-2)(1)
最新评论
1. Re:Python读取不同文件夹下的图片并且分类放到新创建的训练文件夹和标签文件夹
博主你好,我想问一下为什么我的运行出来会显示没有imgpath模块呀? NameError: name 'imgpath' is not defined 就成这样的了...
--你说的代码都对
2. Re:N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2)
写的很清楚
--CGZJDX
3. Re:解开Batch Normalization的神秘面纱
@consolexinhun 笔记是用印象那种写的,我记得比较多的是知识点,没有比较完整的记录,所以对于知识的梳理就不是很清楚。...
--JieLongZ
4. Re:解开Batch Normalization的神秘面纱
写博客和做笔记有什么区别么??
--consolexinhun
5. Re:U-Net卷积神经网络简要解析(附基于TensorFlow自己实现的代码参考)
博主你好,在github上提到使用的数据是LUNA 2016 lung segmentation的部分数据,请问博主你那边能公开已经处理好的数据吗?
--chenzhen0530
点击右上角即可分享