上一页 1 ··· 11 12 13 14 15
摘要: 在上一篇的一般线性回归中,使用的假设函数是一元一次方程,也就是二维平面上的一条直线。但是很多时候可能会遇到直线方程无法很好的拟合数据的情况,这个时候可以尝试使用多项式回归。多项式回归中,加入了特征的更高次方(例如平方项或立方项),也相当于增加了模型的自由度,用来捕获数据中非线性的变化。添加高阶项的时 阅读全文
posted @ 2019-10-23 14:37 笔记记忆 阅读(718) 评论(0) 推荐(0) 编辑
摘要: 0. 概述 线性回归应该是我们听过次数最多的机器学习算法了。在一般的统计学教科书中,最后都会提到这种方法。因此该算法也算是架起了数理统计与机器学习之间的桥梁。线性回归虽然常见,但是却并不简单。该算法中几乎包含了所有有监督机器学习算法的重要知识点,比如数据的表示、参数的训练、模型的评价、利用正则化防止 阅读全文
posted @ 2019-10-23 14:31 笔记记忆 阅读(651) 评论(0) 推荐(0) 编辑
摘要: 什么是异或 在数字逻辑中,异或是对两个运算元的一种逻辑分析类型,符号为XOR或EOR或⊕。与一般的或(OR)不同,当两两数值相同时为否,而数值不同时为真。异或的真值表如下: 0, false 1, true 据说在人工神经网络(artificial neural network, ANN)发展初期, 阅读全文
posted @ 2019-10-23 14:24 笔记记忆 阅读(5567) 评论(0) 推荐(0) 编辑
摘要: 开始学习《人工智能》选修课,老师提纲挈领的介绍了一番,听完课只了解了个大概,剩下的细节只能自己继续摸索。 从本质上讲:机器学习就是一个模型对外界的刺激(训练样本)做出反应,趋利避害(评价标准)。 1. 什么是逻辑回归? 图1:sigmoid函数的图像 通过函数S的作用,我们可以将输出的值限制在区间[ 阅读全文
posted @ 2019-10-23 14:20 笔记记忆 阅读(323) 评论(0) 推荐(0) 编辑
摘要: 1. 什么是代价函数? 假设有训练样本(x, y),模型为h,参数为θ。h(θ) = θTx(θT表示θ的转置)。 (1)概况来讲,任何能够衡量模型预测出来的值h(θ)与真实值y之间的差异的函数都可以叫做代价函数C(θ),如果有多个样本,则可以将所有代价函数的取值求均值,记做J(θ)。因此很容易就可 阅读全文
posted @ 2019-10-23 13:56 笔记记忆 阅读(233) 评论(0) 推荐(0) 编辑
摘要: 压缩和解压类 7.8.1 gzip/gunzip 压缩 1.基本语法 gzip 文件 (功能描述:压缩文件,只能将文件压缩为*.gz文件) gunzip 文件.gz (功能描述:解压缩文件命令) 2.经验技巧 (1)只能压缩文件不能压缩目录 (2)不保留原来的文件 3.案例实操 (1)gzip压缩 阅读全文
posted @ 2019-09-18 17:34 笔记记忆 阅读(2005) 评论(0) 推荐(0) 编辑
摘要: 恢复内容开始 IRIS分类问题分类:根据数据集目标的特征和属性,划分为已有的类别中常用的分类算法:K紧邻(KNN),逻辑回归,决策树,朴素贝叶斯#iris数据加载 from sklearn import datasets iris=datasets.load_iris() #展示iris数据 pri 阅读全文
posted @ 2019-09-10 18:22 笔记记忆 阅读(2051) 评论(0) 推荐(1) 编辑
上一页 1 ··· 11 12 13 14 15