摘要: 本次笔记绝大部分转自https://www.cnblogs.com/Luv-GEM/p/10674719.html softmax回归 Logistic回归是用来解决二类分类问题的,如果要解决的问题是多分类问题呢?那就要用到softmax回归了,它是Logistic回归在多分类问题上的推广。此处神经 阅读全文
posted @ 2019-09-20 20:29 yg_staring 阅读(1299) 评论(0) 推荐(0) 编辑
摘要: 在说逻辑回归之前,可以先说一说逻辑回归与线性回归的区别: 逻辑回归与线性回归在学习规则形式上是完全一致的,它们的区别在于hθ(x(i))为什么样的函数 当hθ(x(i))=θTx(i)时,表示的是线性回归,它的任务是做回归用的。 当时,表示的是逻辑回归,假定模型服从二项分布,使用最大似然函数推导的, 阅读全文
posted @ 2019-09-20 19:29 yg_staring 阅读(557) 评论(0) 推荐(0) 编辑
摘要: 对于m个样本 某模型的估计值为 计算样本的总平方和TSS(Total Sum of Squares): 计算残差平方和RSS(Residual Sum of Squares): RSS即误差平方和SSE(Sum of Squares for Error) 定义 R2=1-RSS/TSS R2越大,拟 阅读全文
posted @ 2019-09-20 17:29 yg_staring 阅读(2341) 评论(0) 推荐(0) 编辑