千锋教育-做有情怀、有良心、有品质的职业教育机构

400-811-9990
手机站
千锋教育

千锋学习站 | 随时随地免费学

千锋教育

扫一扫进入千锋手机站

领取全套视频
千锋教育

关注千锋学习站小程序
随时随地免费学习课程

当前位置:北京千锋IT培训  >  技术干货  >  Python技术干货  > Python k-近邻算法的优缺点

Python k-近邻算法的优缺点

来源:千锋教育
发布人:xqq
时间: 2023-11-05 21:41:02

优点

pythonk-近邻算法简单,易于理解,易于实现,无需参数估计,无需训练,即可以用来做分类也可以用来做回归

和朴素贝叶斯算法比,对数据没有假设,准确度高,对异常值不敏感(个别噪音数据对结果的影响不是很大)

适合对稀有事件进行分类,也可以用于非线性分类

适合于多分类问题(multi-modal,对象具有多个类别标签),KNN要比SVM表现好

训练时间复杂度比支持向量机之类的算法低,仅为O(n)

由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合

该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易误分

缺点

对测试样本分类时的计算量大,内存开销大,因为对每个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点,目前常用的解决方法是对已知的样本点进行剪辑,事先要去除对分类作用不大的样本

可解析性差,无法告诉你哪个变量更重要,无法给出决策树那样的规则

k值的选择:最大的缺点是当样本不平衡时,如一个类的样本容量很大,而其他样本容量很小时候,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。该算法只计算“最近的”邻居样本,某一类的样本数量很大的时候,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论如何,数量并不影响运行结果,可以采用权值的方法(和该样本距离小的邻居权重大)来改进

KNN是一种消极学习方法,懒惰算法,导致预测时速度比起逻辑回归之类的算法慢

相对于决策树模型,KNN模型可解释性不强

KD树,球树之类的模型建立需要大量的内存

以上内容为大家介绍了Pythonk-近邻算法的优缺点,希望对大家有所帮助,如果想要了解更多Python相关知识,请关注IT培训机构:千锋教育。

声明:本站稿件版权均属千锋教育所有,未经许可不得擅自转载。

猜你喜欢LIKE

python中xluntils库是什么?

2023-11-06

python中ruamel.yaml模块是什么?

2023-11-06

python sleep和wait对比分析

2023-11-06

最新文章NEW

如何使用python中的help函数?

2023-11-06

如何使用python的callable函数?

2023-11-06

如何使用python中schedule模块?

2023-11-06

相关推荐HOT

快速通道 更多>>

最新开班信息 更多>>

网友热搜 更多>>