上一页 1 2 3 4 5 6 ··· 8 下一页
摘要: 1 语义分割 语义分割是对图像中每个像素作分类,不区分物体,只关心像素。如下: (1)完全的卷积网络架构 处理语义分割问题可以使用下面的模型: 其中我们经过多个卷积层处理,最终输出体的维度是C*H*W,C表示类别个数,表示每个像素在不同类别上的得分。最终取最大得分为预测类别。 训练这样一个模型,我们 阅读全文
posted @ 2018-01-31 12:05 coldyan 阅读(2621) 评论(0) 推荐(0) 编辑
摘要: 1 RNN介绍 (1)一对多,多对一,多对多的任务 传统的神经网络只能处理一对一的任务,而RNN可以处理一对多,多对一,多对多的任务: 其中,一些典型的应用如下: Image Captioning:image -> sequence of words (one to many) Sentiment 阅读全文
posted @ 2018-01-30 15:03 coldyan 阅读(1084) 评论(0) 推荐(0) 编辑
摘要: 1 LeNet-5 (1998) 第一个被提出的卷积网络架构,深度较浅,用于手写数字识别。 2 AlexNet (2012) 架构为: CONV1 ->MAX POOL1 ->NORM1 ->CONV2 ->MAX POOL2 ->NORM2 ->CONV3->CONV4->CONV5->Max P 阅读全文
posted @ 2018-01-28 17:31 coldyan 阅读(517) 评论(0) 推荐(0) 编辑
摘要: 原版地址:http://cs231n.github.io/convolutional-networks/ 知乎翻译地址:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit 1 卷积层 (1)理解卷积层 按照卷积的观点看,卷积层由若干 阅读全文
posted @ 2018-01-25 17:40 coldyan 阅读(676) 评论(0) 推荐(0) 编辑
摘要: 一.作业要求 原版:http://cs231n.github.io/assignments2017/assignment2/ 翻译:http://www.mooc.ai/course/268/learn?lessonid=2029#lesson/2029 二.作业收获及代码 完整代码地址:https 阅读全文
posted @ 2018-01-24 10:46 coldyan 阅读(289) 评论(0) 推荐(0) 编辑
摘要: (本文记录深度神经网络中最基本最重要的内容,想要快速复习这些内容,阅读这些笔记即可) 1.反向传播 反向传播理解:https://zhuanlan.zhihu.com/p/21407711?refer=intelligentunit 最好的向量反向传播理解:http://www.cnblogs.co 阅读全文
posted @ 2018-01-22 10:50 coldyan 阅读(233) 评论(0) 推荐(0) 编辑
摘要: 本文记录官方note中比较新颖和有价值的观点(从反向传播开始) 一 反向传播 1 “反向传播是一个优美的局部过程。在整个计算线路图中,每个门单元都会得到一些输入并立即计算两个东西:1. 这个门的输出值,和2.其输出值关于输入值的局部梯度。门单元完成这两件事是完全独立的,它不需要知道计算线路中的其他细 阅读全文
posted @ 2018-01-18 10:45 coldyan 阅读(2295) 评论(0) 推荐(0) 编辑
摘要: 一.作业要求 原版:http://cs231n.github.io/assignments2017/assignment1/ 翻译:http://www.mooc.ai/course/268/learn?lessonid=1962#lesson/1962 二.作业收获及代码 完整代码地址:https 阅读全文
posted @ 2018-01-15 16:44 coldyan 阅读(276) 评论(0) 推荐(0) 编辑
摘要: 1 只考虑二阶特征组合情况,穷举所有可能的二阶特征组合并用LR训练,与直接使用FM训练,哪一种效果更好?为什么? 答:使用FM效果更好。原因是穷举所有二阶特征组合,对于高维稀疏特征来说,某些特征组合项非0的样本数是很少的,势必会导致学出来的权重不准,这也是为什么FM要学习特征隐向量的原因。 2 如果 阅读全文
posted @ 2017-10-13 21:03 coldyan 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 1 对决策树使用adaboost 对决策树使用adaboost时,有以下几个问题: (1)adaboost每次更新的样本权重如何应用到决策树中? 由于我们不知道决策树的err目标是什么,因此通常的方法是根据权重对样本采样,然后给决策树训练,这样我们不需要修改决策树算法本身,样本的权重信息就传进去了。 阅读全文
posted @ 2017-03-27 10:53 coldyan 阅读(291) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 8 下一页