机器学习实战—第2章 k-近邻算法


2.1 K-近邻算法概述


k-近邻算法

  • 优点:
    • 精度高、对异常值不敏感、无数据输入假定
  • 缺点
    • 计算复杂度高、空间复杂度高
  • 使用数据范围:
    • 数值型和标称型

k-近邻算法的工作原理:

存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即知道样本集中每一数据与所属分类的关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,只选择样本数据集中前k个最相似的数据,通常k不大于20,选择k个最相似数据中出现次数最多的分类,作为数据的分类。


k-近邻算法的一般流程:

  • 收集数据:可以使用任何方法
  • 准备数据:距离计算所需要的数值,最好是结构化的数据格式
  • 分析数据:可以使用任何方法
  • 训练算法:此步骤不适用于k-近邻算法
  • 测试算法:计算错误率
  • 使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理

# -*- coding: utf-8 -*-
"""
Created on Wed May 24 21:42:55 2017
@name: kNN.py
@author: L. D. Xiao
"""

from numpy import *
import operator


#==============================================================================
# 创建数据集和标签
#==============================================================================
def createDataSet():
    group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels = ['A','A','B','B']
    return group, labels


#================================ kNN算法 ======================================
# kNN对未知类别属性的数据集中的每个点依次执行以下操作:
#     计算已知类别数据集中的点与当前点之间的距离;
#     按照距离递增次序排序;
#     选取与当前点距离最小的k个点;
#     确定前k个点所在类别的出现频率;
#     返回前k个点出现频率最高的类别作为当前点的预测分类
#==============================================================================
def classify0(inX, dataSet, labels,k):
    dataSetSize = dataSet.shape[0]
    #numpy.tile(A,(m,n)):在行方向上重复A m次,列方向上重复A n次
    diffMat = tile(inX, (dataSetSize,1)) - dataSet
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances**0.5
    sortedDistIndices = distances.argsort()
    classCount={}
    for i in range(k):
        voteIlabel = labels[sortedDistIndices[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True)
    return sortedClassCount[0][0]

2.2 示例:使用k-近邻算法改进约会网站的配对效果


示例:在约会网站上使用k-近邻算法


  • 收集数据:提供文本文件
  • 准备数据:使用Python解析文本文件
  • 分析数据:使用Matplotlib画二维散点图
  • 训练算法:此步骤不适用于k-近邻算法
  • 测试算法:使用提供的部分数据作为测试样本
  • 使用算法:产生简单的命令行程序,然后可以输入一些特征数据以判断对方是否为喜欢的类型

利用Python处理文本文件数据:

#==============================================================================
# 将文本文件记录转换为NumPy矩阵
#==============================================================================
def file2matrix(filename):
    fr = open(filename)
    arrayOLines = fr.readlines()
    numberOfLines = len(arrayOLines)
    returnMat = zeros((numberOfLines,3))
    classLabelVector = []
    index = 0
    for line in arrayOLines:
        line = line.strip()
        listFromLine = line.split('\t')
        returnMat[index,:] = listFromLine[0:3]
        classLabelVector.append(int(listFromLine[-1]))
        index += 1
    return returnMat,classLabelVector

使用Matplotlib可视化分析数据:

#==============================================================================
# 分析数据:使用Matplotlib创建散点图
#==============================================================================
import matplotlib
import matplotlib.pyplot as plt
fig = plt.figure()
ax = fig.add_subplot(111)
ax.scatter(returnMat[:,4], returnMat[:,5], 15*array(returnMat[:,4]), 15*array(returnMat[:,4]))

针对各特征归一化,以有效的计算各样本间的距离:

#==============================================================================
# 将数值特征归一化处理 newValue = (oldValue - min) / (max - min)
#==============================================================================
def autoNorm(dataSet):
    minVals = dataSet.min(0)
    maxVals = dataSet.max(0)
    ranges = maxVals - minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet - tile(minVals,(m,1))
    normDataSet = normDataSet/tile(ranges,(m,1))
    return normDataSet, ranges, minVals

构建分类器针对约会网站的测试代码:

#==============================================================================
# 程序清单2-4:分类器针对约会网站的测试代码
#==============================================================================
def datingClassTest():
    hoRatio = 0.10
    datingDataMat,datingLabels = file2matrix('datingTestSet.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        classifierResult = classify0(normMat[i,:], normMat[numTestVecs:m, :], \
                                     datingLabels[numTestVecs:m], 3)
        print "the classifier came back with: %d, the real answer is: %d" \
                                     % (classifierResult, datingLabels[i])
        if (classifierResult != datingLabels[i]): errorCount += 1.0
    print "the total error rate is: %f" % (errorCount/float(numTestVecs))

使用算法:构建完整可用系统:

#==============================================================================
# 程序清单2-5:约会网站预测函数
#==============================================================================
def classifyPerson():
    resultList = ['not at all', 'in small doses', 'in large doses']
    percentTats = float(raw_input(\
                                  "percentage of time spent playing video games ?"))
    ffMiles = float(raw_input("frequent flier miles earned per year ?"))
    iceCream = float(raw_input("liters of ice cream consumed per year ?"))
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    inArr = array([ffMiles, percentTats, iceCream])
    classifierResult = classify0((inArr-minVals)/ranges, normMat, datingLabels, 3)
    print "You will probably like this person: ", resultList[classifierResult - 1]

2.3 示例:手写识别系统


示例:使用k-近邻算法的手写识别系统


  • 收集数据:提供文本文件
  • 准备数据:编写函数classify0(),将图像格式转换为分类器使用的list格式
  • 分析数据:在Python命令提示符中检查数据,确保它符合要求
  • 训练算法:此步骤不适用于k-近邻算法
  • 测试算法:编写函数使用提供的部分数据集作为测试样本
  • 使用算法:本示例未完成

#==============================================================================
# 将32*32的二进制图像转换为1*1024的向量
#==============================================================================
def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect


#==============================================================================
# 程序清单2-6:手写数字识别系统的测试代码
#==============================================================================
def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir('trainingDigits')
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        hwLabels.append(classNumStr)
        trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)
    testFileList = listdir('testDigits')
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
        classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
        print "the classifier came back with: %d, the real answer is : %d"\
                                          % (classifierResult, classNumStr)
        if (classifierResult != classNumStr):
            errorCount += 1.0
    print "\nthe total number of errors is : %d" % errorCount
    print "\nthe total error rate is: %d" % (errorCount/float(mTest))

2.4 本章小结

k-近邻算法是分类数据最简单最有效的算法。k-近邻算法是基于实例的学习,使用算法时必须有接近实际数据的训练数据样本数据。k-近邻算法必须保存全部数据集,如果训练数据集很大,必须使用大量的存储空间。此外,由于必须对数据集中的每个数据计算距离值,实际使用时很可能非常耗时。
k-近邻算法的另一个缺陷是它无法给出任何数据的基础结构信息,因此也无法知晓平均实例样本和典型实例样本具有什么特征。


参考文献
Harrington, Peter. “机器学习实战.” 人民邮电出版社, 北京 (2013).