2019年7月19日
摘要: 在传统的数据处理系统或学习系统中,有一些工作需要多个步骤进行,但是端到端的学习就是用一个神经网络来代替中间所有的过程。 举个例子,在语音识别中: X(Audio) MFCC >features ML >phonemes >words >Y(transcript) 首先输入音频,使用MFCC提取低层次 阅读全文
posted @ 2019-07-19 16:25 NWNU-LHY 阅读(169) 评论(0) 推荐(0) 编辑
摘要: 在迁移学习transfer learning中,你的步骤是串行的sequential process 在多任务学习multi-task learning中,你试图让单个神经网络同时做几件事情,然后这里的每个任务都希望能够帮助到其他的任务。 这是一个汽车自动驾驶的问题,在这张图像中我们需要同时检测四个 阅读全文
posted @ 2019-07-19 15:40 NWNU-LHY 阅读(168) 评论(0) 推荐(0) 编辑
摘要: 在深度学习领域中,最强力的理念之一就是可以将神经网络学习的一种知识应用到另一个独立的任务中。 看上面的例子,首先我们有一个已经完成训练的神经网络,其目标是图像识别,我们有了绿色的1000000张图片并训练了上面的网络。 在完成图像识别后,我们希望将我们的模型用于放射诊断任务,这就是一种迁移。 我们的 阅读全文
posted @ 2019-07-19 14:40 NWNU-LHY 阅读(170) 评论(0) 推荐(0) 编辑
摘要: 1.人工检验train和dev/test之间的区别; 比如:汽车语音识别中的噪音、地名难以识别等等 2.使得你的训练集更靠近(相似于)dev/test,收集更多类似于dev的数据; 比如:dev中存在很多噪音,可以模拟噪音数据;或者地名难以识别,可以收集更多地名的语音数据。 注意:目前没有系统化解决 阅读全文
posted @ 2019-07-19 13:51 NWNU-LHY 阅读(170) 评论(0) 推荐(0) 编辑
摘要: 在11.2中,我们提到了一种数据划分的方法,那么怎么衡量这种数据划分方法中的误差呢? 来看一个例子:有20w条各种领域的语音识别数据,2w条汽车语音定位数据 train+dev+test,其中train是20w原始数据+1w汽车数据,dev和test各自都是5k条汽车数据 显然地,train和dev 阅读全文
posted @ 2019-07-19 13:24 NWNU-LHY 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 快速搭建系统并进行迭代 1.建立dev/test set,并确定你的目标 2.快速建立初始化的系统 3.使用前面提到的bias/variance分析和错误分析来进行模型优化和迭代 针对以上的过程,Andrew Ng建议在搭建第一个系统的时候遵循quick and dirty的思路 不要过度复杂化初始 阅读全文
posted @ 2019-07-19 11:18 NWNU-LHY 阅读(168) 评论(0) 推荐(0) 编辑
摘要: 举个例子 还是分类猫图片的例子 假设在dev上测试的时候,有100张图片被误分类了。现在要做的就是手动检查所有被误分类的图片,然后看一下这些图片都是因为什么原因被误分类了。 比如有些可能因为被误分类为狗或者其他的原因,然后列一张表格 通过这种人工检查误分类的方式,就可以得到误分类数据被误分类原因的占 阅读全文
posted @ 2019-07-19 10:39 NWNU-LHY 阅读(138) 评论(0) 推荐(0) 编辑