《机器学习实战》
介绍:本书没有从理论角度来揭示机器学习算法背后的数学原理,而是通过“原理简述+问题实例+ 实际代码+运行效果”来介绍每一个算法。本书的代码采用Python语言编写
主要任务
回归:用于预测数值型数据
分类和回归都属于监督学习
于监督学习对应是无监督学习,此时数据没有类别信息,也不会给定目标值。在无监督学习中,将数据集合分成由类似的对象组成的多个类的过程被称为聚类;将寻找描述数据统计值的过程称之为密度估计。此外,无监督学习还可以减少数据特征的维度。
表1-2列出了机器学习的主要任务,以及解决相应问题算法。
1.4 如何选择合适的算法
选择实际可用算法需考虑:1、使用机器学习算法的目的,2、需要分析或收集什么数据
首先考虑使用机器学习算法的目的。如果想要预测目标变量的值,可以选择监督学习算法,否则选无监督学习算法。
目标变量类型:离散型[是/否]|[1/2/3][A/B/C]===》分类算法。连续数值[0.0100.0][+∞ -∞]===》回归算法
1.5 开发机器学习应用程序的步骤
(1)收集数据(2)准备输入数据(3)分析输入数据(4)训练算法 (5)测试算法 (6)使用算法
1.6 Python 语言的优势
选择Python原因:(1)python语法清晰 (2)易于操作纯文本文件 (3)使用广泛,存在大量的开发文档。
1.6.1 可执行伪代码
1.6.2 Python比较流行
1.6.3 Python语言的特色
1.6.4 Python语言的缺点
性能问题
1.7 NumPy函数库基础
NumPy 函数库中有两种数据类型(矩阵matrix和数组array),输出结果完全不同,其中matrix与MATLAB中matrices等价。
调用mat()函数可以将数据转化为矩阵,输入:
randMat=mat(random.rand(4,4))
#随机函数产生矩阵
randMat.I
#.I操作符实现了矩阵求逆的运算
invRandMat=randMat.I
myEye=randMat*invRandMat
myEye-eye(4)
第二章k-近邻算法
本章内容
k-近邻分类算法
从文本文件中解析和导入数据
使用Matplotlib创建扩散图
归一化数值
2.1 k-近邻算法概述
k-近邻算法采用测量不同特征值之间的距离方法进行分类
优点:精度搞,对异常值不敏感,无数据输入假定
缺点:计算复杂度高,空间复杂度高
适用数据范围:数值型和标称型。
kNN工作原因:存在一个样本数据集合(训练样本集),每个数据都存在标签,输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般情况下,我们只选择样本数据集中前K个最相似的数据。通常K不小于20的整数。最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。
k-近邻算法的一般流程
(1)收集数据:可以使用任何方法。
(2)准备数据:距离计算所需要的数值,最好事结构化的数据格式。
(3)分析数据:可以使用任何方法。
(4)训练算法:此步骤不适用于k-近邻算法。
(5)测试算法:计算错误率。
(6)使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。
2.1.1 准备:使用Python导入数据
from numpy import *
import operator
def createDataSet():
group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
labels=['A','A','B','B']
return group,labels
建立名为kNN.py
调用方式
>>>import kNN
>>>group,labels=kNN.createDataSet()
####### 2.1.2 实施KNN算法
伪代码
对未知类别属性的数据集中的每个点依次执行以下操作:
(1)计算已知类别数据集中的点与当前点之间的距离;
(2)按照距离递增次序排序;
(3)选取与当前点距离最小的k个点;
(4)确定前k个点所在类别的出现频率;
(5)返回前k个点出现频率最高的类别作为当前点的预测分类。
距离计算-----选择距离最小的k个点-----排序
def classify0(inX,dataSet,labels,k):
dataSetSize=dataSet.shape[0]
diffMat=tile(inX,(dataSetSize,1)) - dataSet
sqDiffMat=diffMat**2
sqDistances=sqDiffMat.sum(axis=1)
distances=sqDistances**0.5
sorteDisIndicies=distances.argsort()
classCount={}
for i in range(k):
voteIlabel=labels[sortedDistIndicies[i]]
classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
sortedClassCount=sorted(classCount.iteritems()
key=operator.itemgetter(1),reverse=True)
return sortedClassCount[0][0]