KNN算法分类原理和步骤(KNN算法分类实例)

发布:2023-05-10 10:25:33
阅读:1143
作者:网络整理
分享:复制链接

KNN算法是一种简单、易于实现的分类算法,适用于小规模数据集和低维特征空间。它在很多实际问题中都有较好的表现,如图像分类、文本分类等领域。

KNN算法的基本思想是将待分类样本的特征与所有训练样本的特征进行比较,找到最近的K个邻居,然后根据这K个邻居的类别来确定待分类样本的类别。在KNN算法中,训练集是已经标记好类别的数据集,而测试集是待分类的数据集。KNN算法的分类过程可以分为以下几个步骤:

1.计算距离

对于待分类的测试样本,需要计算它与训练集中所有样本的距离。距离通常使用欧式距离、曼哈顿距离等方法进行计算。

2.选择K个邻居

根据计算出来的距离,选择与待分类样本距离最近的K个训练集样本。这些样本就是待分类样本的K个邻居。

3.确定类别

根据K个邻居的类别来确定待分类样本的类别。通常采用“多数表决法”来确定待分类样本的类别,即选择K个邻居中出现最多的类别作为待分类样本的类别。

KNN算法相对简单,但也有一些需要注意的问题。首先,K值的选择对算法的性能有很大的影响,通常需要通过交叉验证等方法来确定最优的K值。其次,KNN算法对数据集的规模和维度敏感,对于大规模和高维数据集的处理会出现效率问题。此外,KNN算法还存在“类别不平衡”的问题,即某些类别的样本数量较少,可能导致算法对这些类别的分类效果较差。

以下是一个使用Python实现KNN算法的分类实例,代码如下:

import numpy as np
from collections import Counter

class KNN:
def __init__(self, k):
self.k = k

def fit(self, X, y):
self.X_train = X
self.y_train = y

def predict(self, X_test):
predictions = []

for x_test in X_test:
distances = []
for x_train in self.X_train:
distance = np.sqrt(np.sum((x_test - x_train)**2))
distances.append(distance)
idx = np.argsort(distances)[:self.k]
k_nearest_labels = [self.y_train[i] for i in idx]
most_common = Counter(k_nearest_labels).most_common(1)
predictions.append(most_common[0][0])

return np.array(predictions)

这个KNN类的构造函数中传入参数k表示选择多少个邻居来进行分类。fit方法用于训练模型,接受一个训练集X和它们对应的标签y。predict方法用于对测试集进行分类,接受一个测试集X_test,返回预测的标签。

在predict方法中,对于每个测试样本,首先计算它与训练集中所有样本的距离,并选择距离最近的k个样本。然后,统计这k个样本中出现最频繁的标签,并作为测试样本的分类标签。

下面是一个使用这个KNN类进行分类的例子,数据集为一个二维平面上的点集,其中红色点表示类别1,蓝色点表示类别2:

import matplotlib.pyplot as plt

# 生成数据集
X = np.random.rand(200, 2) * 5 - 2.5
y = np.zeros(200)
y[np.sum(X**2, axis=1) > 2] = 1

# 分割训练集和测试集
train_idx = np.random.choice(200, 150, replace=False)
test_idx = np.array(list(set(range(200)) - set(train_idx)))
X_train, y_train = X[train_idx], y[train_idx]
X_test, y_test = X[test_idx], y[test_idx]

# 训练模型并进行预测
knn = KNN(k=5)
knn.fit(X_train, y_train)
y_pred = knn.predict(X_test)

# 计算准确率并绘制分类结果
accuracy = np.mean(y_pred == y_test)
print("Accuracy:", accuracy)

plt.scatter(X_test[:, 0], X_test[:, 1], c=y_pred)
plt.show()

运行这段代码后,可以看到分类结果图像。其中,颜色表示预测的类别,红色表示类别1,蓝色表示类别2。根据分类结果,可以计算出模型的准确率。

这个实例展示了KNN算法在二维平面上的应用,通过计算距离来确定邻居,并根据邻居的类别来进行分类。在实际应用中,KNN算法可以用于图像分类、文本分类等领域,是一种简单而有效的分类算法。

扫码进群
微信群
免费体验AI服务