边儿上的小人您要嫌碍事儿,可将鼠标放在上头,边上底下有个叉,点一下就收起来了

关于knn算法的总结思考

更多的关于k近邻算法的思考

KNN(K- Nearest Neighbor)法即K最邻近法,数据挖掘分类技术中最简单的方法之一

对k近邻算法的总结:

优点部分

其可以解决分类问题,同时可以天然的解决多分类问题
其具备着思想简单,效果强大优点
同时,还可以使用k近邻算法来解决回归问题
对于我们要预测的k个节点,可以根据这k个样本的情况来解决,sklearn已经封装好了一个用来解决回归问题

缺点部分

最大的缺点就是效率低下
如果训练集有m个样本,n个特征,则预测每一个新的数据,需要o(m*n)的时间复杂度
当然,也有解决的方法,像是使用树结构:KD-tree,Ball-tree

除此之外,还有其他的问题,像是高度数据相关,虽然机器学习算法基本都是高度数据相关,但是相对而言,影响更加的厉害

同时,预测结果不具有可解释性也是其缺点之一

其很大的一个缺点,就是维度灾难
随着维度的增加,看似相近的两个点之间的距离会越来越大

其解决方法:降维

机器学习的流程回顾

posted @   DbWong_0918  阅读(533)  评论(0编辑  收藏  举报
编辑推荐:
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!
点击右上角即可分享
微信分享提示