摘要: %基于主成分分析的特征提取代码 %读取原始数据,调用三个子函数,输出主成分分析结果 %command %[fid,vector,v1,result]=cwprint('data.txt',145,55) function [fid,vector,v1,result]=cwprint(filename 阅读全文
posted @ 2020-05-15 11:24 Feynmania 阅读(1038) 评论(0) 推荐(0) 编辑
摘要: 1.matlab多元回归示例如下: 解决问题:油价预测 方法:多元线性回归 实现:matlab regress()函数 技巧:通过增加X1^2,X2^2,或者X1*X2等构造的特征项,可以提高回归模型的拟合准确度;但计算代价增大。 function result=reg_new_month(XX1_ 阅读全文
posted @ 2020-05-15 11:10 Feynmania 阅读(3400) 评论(0) 推荐(0) 编辑
摘要: 1.输入nftool;点击next 2.输入特征X 和目标值Y如下:【注意按行/按列】 3.设置训练集/验证集/测试机比例:【一般默认为0.7:0.15:0.15】 4.设置隐藏层个数:【需要调的参数之一】 5.选择优化算法:默认如图;点击train进行训练 6.生成图像:【如图plots】 6.1 阅读全文
posted @ 2020-05-15 10:33 Feynmania 阅读(6043) 评论(0) 推荐(0) 编辑
摘要: 1.从感知学习算法到深度学习演化时间轴 2.非线性问题的三种解决方法: 参考资料: 1.https://www.bilibili.com/video/BV1Tt411s7fK?from=search&seid=14161509480958797618,B站白板推导,作者:shuhuai008 2.白 阅读全文
posted @ 2020-05-01 16:05 Feynmania 阅读(1165) 评论(0) 推荐(0) 编辑
摘要: 一、决策树不同算法信息指标: 发展过程:ID3 -> C4.5 -> Cart; 相互关系:ID3算法存在这么一个问题,如果某一个特征中种类划分很多,但是每个种类中包含的样本个数又很少,就会导致信息增益很大的情况,但是这个特征和结果之间并没有很大的相关性。所以这个特征就不是我们最终想优先决策的特征【 阅读全文
posted @ 2020-04-30 20:33 Feynmania 阅读(2096) 评论(0) 推荐(0) 编辑
摘要: 1.决策树思想:以信息增益作为指标,得出最高效的一种决策方案,可用于回归或者分类问题。【由if-else演化而来,后续可发展成机器学习中的随机森林算法】2.决策树指标: 香农:消除随机不确定性的东西。信息熵:定量表示(某种事物)随机不确定性的大小。样本:假设一个人身上有四种属性,分别是年龄【青年,中 阅读全文
posted @ 2020-04-29 22:51 Feynmania 阅读(902) 评论(0) 推荐(0) 编辑
摘要: 0.相关概念 数据:X 参数:theta 假设概率模型为:x~p(x|theta) 【xi服从于p(x|theta),并且是独立同分布(iid)】 明确先验、后验和似然的概念: 似然(likelihood/evidence):p(X|theta)【有看到别的地方的evidence指的是所有样本X的总 阅读全文
posted @ 2020-04-27 21:58 Feynmania 阅读(582) 评论(0) 推荐(0) 编辑
摘要: 参考资料: https://www.bilibili.com/video/BV1Tt411s7fK?from=search&seid=14915472540855411533,B站白板推导及笔记,作者:shuhuai008 阅读全文
posted @ 2020-04-24 18:32 Feynmania 阅读(562) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-04-23 23:23 Feynmania 阅读(234) 评论(0) 推荐(0) 编辑
摘要: x=[1790:10:2000]; y=[3.9 5.3 7.2 9.6 12.9 17.1 23.2 31.4 38.6 50.2 62.9 76.0 92.0 106.5 123.2 131.7 150.7 179.3 204.0 226.5 251.4 281.4]; x=x';y=y'; % 阅读全文
posted @ 2020-04-22 11:20 Feynmania 阅读(2129) 评论(0) 推荐(0) 编辑