上一页 1 ··· 4 5 6 7 8 9 下一页
摘要: 在图像识别分类算法中,非常盛行的是VGG16和VGG19, VGG16中池化层不仅能增大上层卷积核的感受野,而且能聚合背景同时丢弃部分位置信息。然而,语义分割方法需对类别图谱进行精确调整,因此需保留池化层中所舍弃的位置信息。于是研究者提出编码器-解码器结构解决这个问题。其中,编码器使用池化层逐渐缩减 阅读全文
posted @ 2018-06-26 15:30 findtruth123 阅读(560) 评论(0) 推荐(0) 编辑
摘要: 随着中国高速公路建设的迅速发展,通过引进、吸收和再研发,中国路面机械有了很大的发展。目前,中国工程机械正处在从制造大国向制造强国转型的关键阶段,正视中国工程机械的现状,针对国内外设备主要技术差距进行进一步研发,将有助于实现赶超国外产品的目标。我在研究生阶段负责的第一个项目就是工程车的智能化,主要工作 阅读全文
posted @ 2018-06-13 16:41 findtruth123 阅读(242) 评论(0) 推荐(0) 编辑
摘要: 深度学习是一种特殊的机器学习,它将现实世界表示为嵌套的层次概念体系(由较简单概念间的联系定义复杂概念,从一般抽象概括到高级抽象表示),从而获得强大的性能与灵活性。 深度学习和传统机器学习最重要的区别是它的性能随着数据量的增加而增强。如果数据很少,深度学习算法性能并不好,这是因为深度学习算法需要大量数 阅读全文
posted @ 2018-05-11 20:56 findtruth123 阅读(611) 评论(0) 推荐(0) 编辑
摘要: CNN(Convolutional Neural Network) (1)CNN的概念 CNN,常被称作卷积神经网络,经常被用于图像处理。 CNN最关键的两个步骤是:卷积与池化。以下是它的过程图: CNN之所以能够进行卷积,有两点理由:1.图像的模式会远远的小于整张图片;2.图像中相同的模式会出现在 阅读全文
posted @ 2018-05-10 12:28 findtruth123 阅读(263) 评论(0) 推荐(0) 编辑
摘要: 1.选择合适的损失函数 典型的损失函数有平方误差损失函数和交叉熵损失函数 交叉熵损失函数: 不同的损失函数的选择会对训练结果产生影响 2.mini-batch和epoch 所谓mini-batch是把我们原来的数据分成了不重叠的若干个小的数据块,然后在每一个epoch中分别运行每一个mini-bat 阅读全文
posted @ 2018-05-09 14:32 findtruth123 阅读(938) 评论(0) 推荐(0) 编辑
摘要: 之前介绍的分类的目标变量都是标称型数据,接下来我们将介绍连续型的数据并且作出预测,本篇介绍的是线性回归,接下来引入局部平滑技术,能够更好地拟合数据 本篇我们主要讨论欠拟合情况下的缩减的技术,探讨偏差和方差的概念。 优点:结构易于理解,计算上不复杂 缺点:对非线性的数据拟合不好 适合数值型和标称型数据 阅读全文
posted @ 2018-05-04 13:23 findtruth123 阅读(4748) 评论(0) 推荐(0) 编辑
摘要: 问题描述: 给定两个链表,计算出链表对应位置相加的和,如果和大于10要往后进位。用链表返回结果。其实上是一种大数加法。可以把一个大数倒着写存入链表,然后两个链表相加就是所需要的大数相加的和 输入 2 -> 3 -> 5 3-> 4 -> 6 输出 5->7->1->1 Python实现的代码 Cla 阅读全文
posted @ 2018-05-03 20:25 findtruth123 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 算法题 问题描述:在一些给定的数中,找到三个数,他们相加的和是0,并且这三个数的组合是不能重复的 例子: input [-1, 0, -1, 2, 1] Output [[-1, 1 ,0], [-1, -1, 2]] 解法: Python代码: Class threesum(object): de 阅读全文
posted @ 2018-05-03 15:56 findtruth123 阅读(131) 评论(0) 推荐(0) 编辑
摘要: 元算法背后的思路是对其他算法进行组合的一种方式,A daboost是最为流行的元算法,是机器学习中最强有力的工具之一 组合方式有不同算法之间的组合,也可以是同一算法在不同设置下的集成,还可以是数据集不同部分分配给不同分类器之后的集成 优点:泛化错误率低,易编码,可应用于大部分的分类器上,无参数需调整 阅读全文
posted @ 2018-05-03 14:44 findtruth123 阅读(218) 评论(0) 推荐(0) 编辑
摘要: 有人说,SVM是现成最好的分类器,指的是该分类器不加修改既可直接使用。同时意味着在数据上应用基本形式的SVM分类器可以得到低的错误率的结果。 SVM有很多实现,但是最流行的是实现序列最小优化SMO,通过核函数Kernel将SVM扩展到更多的数据集上 优点:泛化错误率低,计算开销不大,结果易解释 缺点 阅读全文
posted @ 2018-05-03 10:54 findtruth123 阅读(377) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 下一页