上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 28 下一页
摘要: 一、SVM模型 1.函数间隔与几何间隔,哪一条线是最好的? (1)公式化问题。 分类模型:当里面的值小于0的时候就是-1,当里面的值是大于等于0的时候就是1 函数间隔:前面乘以y(i),是为了保持数值为正值,数据点到直线的距离。把点代进去就是其函数间隔,函数间隔最好的是几何间隔最大的那个。最好的分类 阅读全文
posted @ 2019-01-29 11:10 stone1234567890 阅读(195) 评论(0) 推荐(0) 编辑
摘要: 一、神经网络与卷积神经网络 0.DNN(MLP多层感知器)能用到计算机视觉上吗?为什么需要CNN DNN可以用在计算机视觉上, 1.卷积神经网络和人工神经网络的差异在哪里? 为什么需要卷积神经网络。下面是一个32x32x3的图片,隐层一般为1024或者4096的维度。输入维度是4k左右,隐层在102 阅读全文
posted @ 2019-01-26 21:08 stone1234567890 阅读(1868) 评论(0) 推荐(0) 编辑
摘要: 一、什么是推荐系统 1.个性化推荐系统:从庞大的电影库中找几部符合你兴趣的电影供你选择。 2.推荐系统是帮助用户快速发现有用信息的工具。和搜索引擎不同的是,推荐系统不需要用户提供明确的需求,而是通过分析用户的历史行为给用户的兴趣建模,从而主动给用户推荐能够满足他们兴趣和需求的信息。搜索引擎和推荐系统 阅读全文
posted @ 2019-01-26 17:16 stone1234567890 阅读(236) 评论(0) 推荐(0) 编辑
摘要: 一、从LR到决策树 0.思考一些一个分类问题:是否去相亲,LR解决的问题可能是这样的 在下面各个特征下给定w1,w2,w3,w4等参数值,将wx+b送到sigmoid函数中去,拿到一个概率p,我们在使用这个函数的时候会有一个损失函数loss function,对于这个代价函数通过GD梯度下降完成优化 阅读全文
posted @ 2019-01-26 12:40 stone1234567890 阅读(404) 评论(0) 推荐(0) 编辑
摘要: 一、机器学习以及scikit-learn 1. 机器学习基本步骤: (1)定义一系列函数 => (2)定义函数的优劣 => (3)选择最优函数 2.什么是scikit-learn? (1)面向python的免费机器学习库 (2)包含分类、回归、聚类算法,比如:SVM、随机森林、k-means等 (3 阅读全文
posted @ 2019-01-24 17:00 stone1234567890 阅读(291) 评论(0) 推荐(0) 编辑
摘要: 一、分类问题(监督学习,选择题) 1.根据数据样本上抽出的特征,判别其属于有限个类别中的哪一个 2.垃圾邮件识别(结果类别:1、垃圾邮件;2、正常邮件) 3.文本情感褒贬分析(结果类别:1、褒;2、贬) 4.图像内容识别(选择题:结果类别:1、喵星人;2、汪星人;3、人类;4、草拟马;5、都不是) 阅读全文
posted @ 2019-01-24 12:56 stone1234567890 阅读(2779) 评论(0) 推荐(0) 编辑
摘要: 一、背景介绍 1.深度学习应用 二、神经网络非线性能力及原理 0.线性分类器得分函数 (1)假设函数:x到y的映射f。 这个f可以是多种表现形式,比如逻辑回归,决策树,随机森林以及xgboost是另外的一种表达形式,这里的神经网络是另外的表达。 (2)我们要的结果是要结果和标准答案更加接近,损失函数 阅读全文
posted @ 2019-01-24 09:55 stone1234567890 阅读(310) 评论(0) 推荐(0) 编辑
摘要: 1.python中的广播: (1)广播是一种手段,可以让python代码执行得更快,我们来看看python实际如何执行。 下面矩阵列出了100克苹果、牛肉、鸡蛋和蛋白质中含有的碳水化合物、蛋白质和脂肪的数量 比如说我们的目标是四种食物中卡路里有多少百分比。比如100克苹果中有56+1.2+1.8卡路 阅读全文
posted @ 2019-01-23 20:25 stone1234567890 阅读(242) 评论(0) 推荐(0) 编辑
摘要: 1.之前学习了如何通过向量化同时计算整个训练集预测值a。本次课程将会学习如何同时向量化计算m个训练集的梯度,之前的计算得到dz的计算形式:,我们可以将dz写成一个1*m的矩阵,,之前定义过A,定义了Y为:这样一个行向量。这样计算dz=A-Y, 2.我们已经去掉了一个for循环,我们将dw初始化为0向 阅读全文
posted @ 2019-01-23 18:09 stone1234567890 阅读(146) 评论(0) 推荐(0) 编辑
摘要: 1.不使用任何for循环用梯度下降实现整个训练集的一步迭代。 (0)我们已经讨论过向量化如何显著加速代码,在这次视频中我们会设计向量化是如何实现logistic回归,这样酒桶同时处理m个训练集,来实现梯度下降算法的一步迭代,不需要使用任何显式的for循环 (1)logistic回归正向传播的步骤:如 阅读全文
posted @ 2019-01-23 17:28 stone1234567890 阅读(165) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 28 下一页