摘要:
##线性回归算法 特点线性回归算法的特点: 其解决的是回归问题 其思想简单,实现容易 有许多强大的非线性模型的基础 结果具有很好的可解释性 蕴含机器学习中的很多的重要的思想 ###什么是线性回归算法呢 设立一个有横纵坐标的二维坐标系,在各个样本之间,我们寻找一条直线,最大程度的“拟合”样本特征和样本 阅读全文
摘要:
##更多的关于k近邻算法的思考 KNN(K- Nearest Neighbor)法即K最邻近法,数据挖掘分类技术中最简单的方法之一 对k近邻算法的总结: ####优点部分 其可以解决分类问题,同时可以天然的解决多分类问题 其具备着思想简单,效果强大优点 同时,还可以使用k近邻算法来解决回归问题 对于 阅读全文
摘要:
##scikit-learn中的数据归一化 在机器学习使用数据归一化的时候有一个重要的注意事项 我们对训练数据进行均值和方差的处理,得到mean_train以及std_train,但是在对测试数据进行归一化的时候,是不能直接用测试数据的均值和方差来进行归一化的,应该使用训练数据的均值和方差对测试数据 阅读全文
摘要:
##数据归一化 feature scaling 在分类的时候需要进行数据归一化 那么为什么要进行数据归一化? 像是肿瘤情况,当时间单位是天,大小单位是厘米,由于时间的跨度比大小的跨度差值大的太多,会导致样本间的距离被时间所主导,同理,将时间变成以年为单位一样会因为差值太大而导致模型不行 所谓的数据归 阅读全文
摘要:
##KNeighborsClassifier()的参数无效错误 写在前面:如果对自己英语拼写很自信,可以不用往下看了,我就是拼写错误 错误提示 Invalid parameter n_neightbors for estimator KNeighborsClassifier(). Check the 阅读全文
摘要:
##网格搜索与k近邻算法中更多超参数 网格搜索与k近邻算法中更多超参数 ###网络搜索 前笔记中使用的for循环进行的网格搜索的方式,我们可以发现不同的超参数之间是存在一种依赖关系的,像是p这个超参数,只有在 weights="uniform"才有意义 在sklearn中有一种封装好的网格搜索,gr 阅读全文
摘要:
##超参数 超参数 很多时候,对于算法来说,关于这个传入的参数,传什么样的值是最好的? 这就涉及到了机器学习领域的超参数 超参数简单来说就是在我们运行机器学习之前用来指定的那个参数,就是在算法运行前需要决定的参数 像是knn算法中的k就是典型的超参数 同时,还有一种是模型参数,即在算法过程中学习的参 阅读全文
摘要:
##ImportError: attempted relative import with no known parent package ImportError: attempted relative import with no known parent package 截图: 或许是因为同文件 阅读全文
摘要:
##分类准确度 分类准确度 以sklearn中的手写数字datasets.load_digits为例,其是8*8的图形,具有64个特征值,类别由0到9 我们挑选出666这个图形,将其可视化 X = digits.data some_digit = X[666] some_digit_image = 阅读全文