上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 62 下一页
摘要: 阅读全文
posted @ 2021-04-15 09:43 北极星! 阅读(138) 评论(0) 推荐(0) 编辑
摘要: numpy是什么?为什么使用numpy 使用numpy库与原生python用于数组计算性能对比 阅读全文
posted @ 2021-04-14 20:14 北极星! 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 高等数学 导数 泰勒公式 方向导数 梯度 凸函数 概率论 可以根据特征与目标的分布情况提前了解特征与目标的相关性 数理统计 期望 方差 协方差 线性代数 阅读全文
posted @ 2021-04-14 16:47 北极星! 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 机器学习分类 监督学习:有特征、有目标的数据(训练集)训练出一种算法(模型),使用该算法(模型)对另外一些有特征没有目标的数据进行判断,判断这些数据的目标是什么 训练好的模型可以称为得分函数(模型本身也是函数) 损失函数可以称为得分函数的函数,损失函数最小时得分函数的参数最优,也就是通过损失函数来对 阅读全文
posted @ 2021-04-14 15:54 北极星! 阅读(41) 评论(0) 推荐(0) 编辑
摘要: logistic回归模型的参数估计问题,是可以用最小二乘方法的思想进行求解的,但和经典的(或者说用在经典线性回归的参数估计问题)最小二乘法不同,是用的是“迭代重加权最小二乘法”(IRLS, Iteratively Reweighted Least Squares)。本质上不能使用经典的最小二乘法的原 阅读全文
posted @ 2021-04-14 15:18 北极星! 阅读(1335) 评论(0) 推荐(0) 编辑
摘要: 回归:连续值预测 逻辑回归:分类算法。–逻辑回归是干什么?定义:对定性变量的回归分析;定性:定量:之前的回归模型,处理的是因变量是数值型区间(负无穷到正无穷)变量,建立的模型描述的是因变量Y与自变量(X)之间的线性关系。 期望=期望参数与自变量的分别乘积和; 逻辑变换的公式:要记住 注:结果是对称的 阅读全文
posted @ 2021-04-14 14:16 北极星! 阅读(562) 评论(0) 推荐(0) 编辑
摘要: 函数凸凹性: 用到的范数知识: 详细解释:每一个元素的平方再开方。补充损失函数: Huber Loss知识点 loss函数可以通过loss参数进行设置。SGDRegressor支持以下的loss函数: SGD:随机梯度下降四个损失函数: 事例代码: import numpy as np import 阅读全文
posted @ 2021-04-14 14:12 北极星! 阅读(295) 评论(0) 推荐(0) 编辑
摘要: 线性回归 基础知识: 回归是监督学习中的重要问题,回归用于预测输入变量和输出变量之间的关系;很好的拟合已知模型,并很好的预测未知模型; 什么是回归: 1,回归问题分为模型的学习和预测两个过程。基于训练模型以及给定训练数据集构建一个模型,根据新的输入数据预测相应的输出;2,回归问题按照输入变量的个数可 阅读全文
posted @ 2021-04-14 11:36 北极星! 阅读(310) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2021-04-14 09:59 北极星! 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 梯度讲解 更新过程的公式有问题,修改为: a代表学习率或者说事步长 举例说明 假设 有样本点(4,20)、(8,50)、(5,30)、(10,70)、(12,60) 求回归函数 求解过程: 将样本点拆分 x=[4, 8, 5, 10, 12] y = [20, 50, 30, 70, 60] 假设回 阅读全文
posted @ 2021-04-12 17:38 北极星! 阅读(85) 评论(0) 推荐(0) 编辑
上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 62 下一页