上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 27 下一页
摘要: 定位数据不匹配(Addressing data mismatch) 数据不匹配的问题没有完全系统的解决方案,但我们可以看看一些可以尝试的事情。如果我发现有严重的数据不匹配问题,我通常会亲自做错误分析,尝试了解训练集和开发测试集的具体差异。技术上,为了避免对测试集过拟合,要做错误分析,你应该人工去看开 阅读全文
posted @ 2018-11-04 11:27 刘-皇叔 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 不匹配数据划分的偏差和方差(Bias and Variance with mismatched data distributions) 我们继续用猫分类器为例,我们说人类在这个任务上能做到几乎完美,所以贝叶斯错误率或者说贝叶斯最优错误率,我们知道这个问题里几乎是 0%。所以要进行错误率分析,你通常需 阅读全文
posted @ 2018-11-04 11:24 刘-皇叔 阅读(436) 评论(0) 推荐(0) 编辑
摘要: 在不同的划分上进行训练并测试( Training and testing on different distributions) 在深度学习时代,越来越多的团队都用来自和开发集、测试集分布不同的数据来训练,这里有一些微妙的地方,一些最佳做法来处理训练集和测试集存在差异的情况,我们来看看。 假设你在开 阅读全文
posted @ 2018-11-04 11:21 刘-皇叔 阅读(329) 评论(0) 推荐(0) 编辑
摘要: 快速搭建你的第一个系统,并进行迭代( Build your first system quickly, then iterate) 如果你正在开发全新的机器学习应用,我通常会给你这样的建议,你应该尽快建立你的第一个系统原型,然后快速迭代。 所以我希望这些策略有帮助,如果你将机器学习算法应用到新的应用 阅读全文
posted @ 2018-11-04 11:18 刘-皇叔 阅读(339) 评论(0) 推荐(0) 编辑
摘要: 清除标注错误的数据( Cleaning up Incorrectly labeled data) 你的监督学习问题的数据由输入x和输出标签y构成,如果你观察一下你的数据,并发现有些输出标签y是错的,这些输出标签y是错的,你的数据有些标签是错的。 在猫分类问题中,图片是猫,y=1,图片不是猫,y=0。 阅读全文
posted @ 2018-10-30 14:58 刘-皇叔 阅读(865) 评论(0) 推荐(0) 编辑
摘要: 进行误差分析(Carrying out error analysis) 如果你希望让学习算法能够胜任人类能做的任务,但你的学习算法还没有达到人类的表现,那么人工检查一下你的算法犯的错误也许可以让你了解接下来应该做什么。这个过程称为错误分析。 假设你正在调试猫分类器,然后你取得了 90%准确率,相当于 阅读全文
posted @ 2018-10-24 09:01 刘-皇叔 阅读(482) 评论(0) 推荐(0) 编辑
摘要: 改善你的模型的表现(Improving your model performance) 想要让一个监督学习算法达到实用,基本上希望或者假设你可以完成两件事情。 首先,你的算法对训练集的拟合很好,这可以看成是你能做到可避免偏差很低。还有第二件事你可以做好的是,在训练集中做得很好,然后推广到开发集和测试 阅读全文
posted @ 2018-10-23 08:42 刘-皇叔 阅读(356) 评论(0) 推荐(0) 编辑
摘要: 超过人的表现( Surpassing human- level performance) 假设你有一个问题,一组人类专家充分讨论辩论之后,达到 0.5%的错误率,单个人类专家错误率是 1%,然后你训练出来的算法有 0.6%的训练错误率, 0.8%的开发错误率。所以在这种情况下,可避免偏差是多少?这个 阅读全文
posted @ 2018-10-23 08:40 刘-皇叔 阅读(298) 评论(0) 推荐(0) 编辑
摘要: 理解人的表现( Understanding human-level performance) 假设你要观察这样的放射科图像,然后作出分类诊断,假设一个普通的人类,未经训练的人类,在此任务上达到 3%的错误率。普通的医生,也许是普通的放射科医生,能达到 1%的错误率。经验丰富的医生做得更好,错误率为 阅读全文
posted @ 2018-10-23 08:39 刘-皇叔 阅读(315) 评论(0) 推荐(0) 编辑
摘要: 可避免偏差( Avoidable bias) 你得知道人类水平的表现是怎样的,可以确切告诉你算法在训练集上的表现到底应该有多好,或者有多不好。 我们经常使用猫分类器来做例子,比如人类具有近乎完美的准确度,所以人类水平的错误是 1%。在这种情况下,如果您的学习算法达到 8%的训练错误率和 10%的开发 阅读全文
posted @ 2018-10-23 08:37 刘-皇叔 阅读(619) 评论(0) 推荐(0) 编辑
摘要: 为什么是人的表现?( Why human-level performance?) 在过去的几年里,更多的机器学习团队一直在讨论如何比较机器学习系统和人类的表现,为什么呢? 我认为有两个主要原因: 首先是因为深度学习系统的进步,机器学习算法突然变得更好了。在许多机器学习的应用领域已经开始见到算法已经可 阅读全文
posted @ 2018-10-23 08:34 刘-皇叔 阅读(273) 评论(0) 推荐(0) 编辑
摘要: 什么时候该改变开发/测试集和指标?(When to change dev/test sets and metrics) 假设你在构建一个猫分类器,试图找到很多猫的照片,向你的爱猫人士用户展示,你决定使用的指标是分类错误率。所以算法A和B分别有 3%错误率和 5%错误率,所以算法A似乎做得更好。 但是 阅读全文
posted @ 2018-10-23 08:32 刘-皇叔 阅读(440) 评论(0) 推荐(0) 编辑
摘要: 训练/开发/测试集划分( Train/dev/test distributions) 开发(dev)集也叫做(development set),有时称为保留交叉验证集(hold out cross validation set)。然后,机器学习中的工作流程是,你尝试很多思路,用训练集训练不同的模型, 阅读全文
posted @ 2018-10-23 08:30 刘-皇叔 阅读(634) 评论(0) 推荐(0) 编辑
摘要: 满足和优化指标( Satisficing and optimizing metrics) 要把你顾及到的所有事情组合成单实数评估指标有时并不容易,在那些情况里,设立满足和优化指标是很重要的。 假设你已经决定你很看重猫分类器的分类准确度,这可以是${F_1}$分数或者用其他衡量准确度的指标。但除了准确 阅读全文
posted @ 2018-10-23 08:29 刘-皇叔 阅读(519) 评论(0) 推荐(0) 编辑
摘要: 单一数字评估指标( Single number evaluation metric) 无论你是调整超参数,或者是尝试不同的学习算法,或者在搭建机器学习系统时尝试不同手段,你会发现,如果你有一个单实数评估指标,你的进展会快得多,它可以快速告诉你,新尝试的手段比之前的手段好还是差。 我们来看一个例子,你 阅读全文
posted @ 2018-10-23 08:27 刘-皇叔 阅读(571) 评论(0) 推荐(0) 编辑
摘要: 正交化(Orthogonalization) 搭建建立机器学习系统的挑战之一是,你可以尝试和改变的东西太多太多了。比如说,有那么多的超参数可以调。我留意到,那些效率很高的机器学习专家有个特点,他们思维清晰,对于要调整什么来达到某个效果,非常清楚,这个步骤我们称之为正交化。 正交化的概念是指,你可以想 阅读全文
posted @ 2018-10-23 08:21 刘-皇叔 阅读(1541) 评论(0) 推荐(0) 编辑
摘要: 命令 在shell脚本程序内部可以执行两类命令。一类是可以在命令提示符中执行的"普通"命令,也称为外部命令,一类是"内置"命令,也成为内部命令。内置命令是在shell内部实现的,它们不能作为外部程序被调用。然后,大多数的内部命令同时也提供了独立运行的程序版本,这是POSIX规范的一部分。 break 阅读全文
posted @ 2018-09-29 17:08 刘-皇叔 阅读(125) 评论(0) 推荐(0) 编辑
摘要: 常用的深度学习框架 选用的参考依据: 便于编程 运行速度 是否真的开放 TensorFlow 使用Tensorflow求使损失函数$Jw = {w^2} - 10w + 25$最小的参数: 输出: 如果觉得上面计算的形式表示复杂,可以将上面表达式的书写形式修改为: 如果你想要最小化的函数是训练集函数 阅读全文
posted @ 2018-09-29 10:53 刘-皇叔 阅读(340) 评论(0) 推荐(0) 编辑
摘要: 训练一个 Softmax 分类器( Training a Softmax classifier) Softmax 这个名称的来源是与所谓hardmax 对比, hardmax会把向量z变成这个向量: hardmax 函数会观察z的元素,然后在z中最大元素的位置放上 1,其它位置放上 0,所以这是一个 阅读全文
posted @ 2018-09-24 21:36 刘-皇叔 阅读(777) 评论(0) 推荐(0) 编辑
摘要: Softmax 回归(Softmax regression) 我们讲到过的分类的例子都使用了二分分类,这种分类只有两种可能的标记 0 或 1,这是一只猫或者不是一只猫,如果我们有多种可能的类型的话呢?有一种 logistic回归的一般形式,叫做 Softmax 回归,能让你在试图识别某一分类时做出预 阅读全文
posted @ 2018-09-24 16:23 刘-皇叔 阅读(394) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 27 下一页