文章分类 - 机器学习
摘要:[TOC] k近邻算法(鸢尾花分类) 导入模块 获取数据 构建决策边界 训练模型 KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski', metric_params=None, n_jobs=None, n_n
阅读全文
摘要:[TOC] scikit learn库之k近邻算法 由于k近邻可以做回归又可以做分类,所以最普通的k近邻算法在scikit learn库中有两种实现,即KNeighborsClassifier和KNeighborsRegressor;上次讲到了k近邻的两个扩展限定半径k近邻,
阅读全文
摘要:kd树 k近邻算法中讲到它有一个较为致命的缺点就是每个实例到未来新数据之间都需要计算一次距离,如果实例数趋于无穷,那么计算量是很庞大的。但是我们要知道的是计算距离是为了找到距离目标点最近的$k$个实例,那么是不是有另外一种更好的方法,能够更快速找到这$k$个最近的实例呢?由此
阅读全文
摘要:k近邻算法 k近邻算法(k nearest neighbors,KNN)是一种基本的分类和回归方法,本文只探讨分类问题中的k近邻算法,回归问题通常是得出最近的$k$个实例的标记值,然后取这$k$实例标记值的平均数或中位数。 k近邻算法经常被人们应用于生
阅读全文
摘要:Logistic回归(鸢尾花分类) 导入模块 获取数据 构建决策边界 训练模型 LogisticRegression(C=100, class_weight=None, dual=False, fit_intercept=True, intercept_scaling=1, max_iter=100
阅读全文
摘要:[TOC] scikit learn库之逻辑回归 相比较线性回归,由于逻辑回归的变种较少,因此scikit learn库中的逻辑回归类就比较少,只有 、`LogisticRegressionCV logistic_regression_path`。 接
阅读全文
摘要:[TOC] Softmax回归 Softmax回归属于多分类$c_1,c_2,\ldots,c_k$模型,它通过估计某个样本属于$k$个类别的各自的概率达到多分类的目的。它是逻辑回归的一般形式,即当$k=2$的时候退化为逻辑回归。 Softmax回归详解 让步比
阅读全文