01 核技巧
关于支持向量机,我们有这样的共识:
支持向量机是一种分类器,之所以叫“机”是因为它会产生一个二值决策结果,是一种决策机;
支持向量机的泛化误差较低,即,有良好的学习能力,且学到的模型具有很好的推广性,因此被认为是监督学习中最好的定式算法;
支持向量机通过求解一个二次优化问题来最大化分类间隔,在过去,训练SVM常采用非常复杂且低效的二次规划求解方法;1998年,Platt提出SMO算法,通过每次只优化两个alpha值来加快SVM训练速度。
在这篇文章中,我用python3实现了SMO算法,但是呢还有一个问题没有解决:
对于非线性数据集(比如圆环状分布的数据集),该如何分类呢?
我们可以将输入空间的样本特征映射到高维特征空间,使得原本非线性的数据集变得线性可分,这就是“核技巧”,核技巧的一个形象过程,如下图所示:
[图片上传失败...(image-a3012c-1538483274152)]
本文将利用核技巧,改进之前写的SMO算法,用于分类非线性数据集,一起来看看吧~
02 核函数
核函数可以自己构造,不过实际应用中我们常使用已有的核函数,不同的核函数适用于不同分布的数据集,典型的几个核函数如下:
[图片上传失败...(image-4e2fc9-1538483274152)]
[图片上传失败...(image-ee976a-1538483274152)]
其中,高斯径向基函数适用于圆环状分布的数据集,本文将利用径向基函数对数据进行核技巧处理。
03 算法实现
整体逻辑与SMOpro一致,差别只在于用K(x,xi)替换了X,Xi内积
3.1辅助函数
def loadDataSet(filename): #filename是待读取文件的文件名或路径+文件名 dataMat=[];labelMat=[] fr=open(filename) for line in fr.readlines(): lineArr=line.strip().split("\t") dataMat.append([float(lineArr[0]),float(lineArr[1])]) labelMat.append(float(lineArr[2])) return dataMat,labelMatdef randPickj(i,m): #i是alphai的i值,整数; m是alpha个数; j不能等于i j=i while j==i: j=int(np.random.uniform(0,m)) return jdef clipAlpha(aj,H,L): if aj>H: aj=H if aj<L: aj=L return aj
3.2 核转换函数(关键点)
# X为数据集特征矩阵,A为X[i,:]# kTup为元组类型,第一个参数表示所用核函数类型,第二个参数表示径向基函数对应的到达率(大小与支持向量对分离超平面的影响程度正相关)def kernelTrans(X,A,kTup): m,n=X.shape K=np.mat(np.zeros((m,1))) if kTup[0]=="lin": #核函数类型为 线性函数 K=X*A.T elif kTup[0]=="rbf": #核函数为 径向基函数 for j in range(m): #遍历每个样本 deltaRow=X[j,:]-A #Xj-Xi K[j]=deltaRow*deltaRow.T #||Xj-Xi||**2 K=np.exp(K/-kTup[1]**2) #径向基函数公式 else: raise NameError("Kernel not recognized") return K
#这里构造一个对象,目的是将此对象作为一个数据结构来使用class optStruct: def __init__(self,data,label,C,toler,kTup): #全局变量 self.X=data self.labelMatrix=label self.C=C self.toler=toler self.m=data.shape[0] #m为样本数 #初始化alpha矩阵、b、Es矩阵 self.alphas=np.mat(np.zeros((self.m,1))) self.Es=np.mat(np.zeros((self.m,2))) #缓存误差,两列,第一列表示当前Ei是否有效,第二列表示当前的Ei值 self.b=0 #核技巧增加项,初始化K矩阵(K矩阵用于存放K(xi,xj),维度为m*m) self.K=np.mat(np.zeros((self.m,self.m))) for i in range(self.m): self.K[:,i]=kernelTrans(self.X,self.X[i,:],kTup) def calcEk(oS,k): gxk=float(np.multiply(oS.alphas,oS.labelMatrix).transpose()*oS.K[:,k]+oS.b) Ek=gxk-float(oS.labelMatrix[k]) return Ek #选择相较ai具有最大步长(即Ei-Ej)的aj的函数def selectJ(oS,i,Ei): maxK=-1;maxDeltaE=0;Ej=0 #DeltaE表示Ei-Ej,k表示DeltaE最大的样本点索引值,最终会将Ek赋值给Ej oS.Es[i]=[1,Ei] #使Es矩阵第i位有效 validEsList=np.nonzero(oS.Es[:,0].A)[0] #将Es矩阵中有效的Ei对应的索引值选出来,作为挑选j的池子 if len(validEsList)>1: for k in validEsList: if k==i: continue Ek=calcEk(oS,k) deltaE=abs(Ei-Ek) if deltaE>maxDeltaE: maxDeltaE=deltaE;maxK=k;Ej=Ek return maxK,Ej else: #若validEsList只有一个Ei有效(初次循环),则随机选取一个j j=randPickj(i,oS.m) Ej=calcEk(oS,j) return j,Ej def updateEk(oS,k): Ek=calcEk(oS,k) oS.Es[k]=[1,Ek]
3.3 内循环
def innerL(i,oS): Ei=calcEk(oS,i) #判断Ei是否是违反KKT条件超过toler的点,若是再继续挑选j if (oS.labelMatrix[i]*Ei<-oS.toler and oS.alphas[i]<oS.C) or (oS.labelMatrix[i]*Ei>oS.toler and oS.alphas[i]>0): j,Ej=selectJ(oS,i,Ei) alphaIold=oS.alphas[i].copy();alphaJold=oS.alphas[j].copy() #计算L,H if oS.labelMatrix[i]!=oS.labelMatrix[j]: L=max(0,oS.alphas[j]-oS.alphas[i]) #这里alpha[i]仍然等于alphaIold H=min(oS.C,oS.C+oS.alphas[j]-oS.alphas[i]) else: L=max(0,oS.alphas[j]+oS.alphas[i]-oS.C) H=min(oS.C,oS.alphas[j]+oS.alphas[i]) if L==H: print ("L==H") return 0 #第一个跳出条件(跳出本次内循环,遍历下一个alpha进行更新) #计算eta eta=oS.K[i,i]+oS.K[j,j]-2.0*oS.K[i,j] if eta==0: print ("eta=0") return 0 #第二个跳出条件(因为eta=0不好处理,且出现情况较少,因此这里咱不处理,直接跳出) #根据统计学习方法中的结果公式得到alphaj的解析解,并更新Ej值 oS.alphas[j]=oS.alphas[j]+oS.labelMatrix[j]*(Ei-Ej)/eta oS.alphas[j]=clipAlpha(oS.alphas[j],H,L) updateEk(oS,j) #更新Ej值 #检验alphaj与alphaJold是否有足够大的改变,若改变不够大,说明与alpha旧值没有什么差异,跳出本次内循环 if abs(oS.alphas[j]-alphaJold)<0.00001: print ("j not moving enough") return 0 #第三个跳出条件 #约束条件让我们可以根据alphaJ求出alphaI oS.alphas[i]=oS.alphas[i]+oS.labelMatrix[i]*oS.labelMatrix[j]*(alphaJold-oS.alphas[j]) updateEk(oS,i) #更新Ei值 #更新b值,根据alpha是否在0~C决定更新的b值 b1=-Ei-oS.labelMatrix[i]*(oS.alphas[i]-alphaIold)*oS.K[i,i]\ -oS.labelMatrix[j]*(oS.alphas[j]-alphaJold)*oS.K[i,j]+oS.b b2=-Ej-oS.labelMatrix[i]*(oS.alphas[i]-alphaIold)*oS.K[i,j]\ -oS.labelMatrix[j]*(oS.alphas[j]-alphaJold)*oS.K[j,j]+oS.b #若ai或aj在(0,C)之间,则取b=bi或b=bj,若ai aj都不在(0,C)之间,取均值 if oS.alphas[i]>0 and oS.alphas[i]<oS.C: oS.b=b1 elif oS.alphas[j]>0 and oS.alphas[j]<oS.C: oS.b=b2 else: oS.b=(b1+b2)/2.0 return 1 #若执行到这里都没有return0跳出,说明已经完成了一个alpha对的更新,返回一个1 else: return 0 #若ai不足够违反KKT条件,则return0跳出本次内循环
3.4 外循环
def SMOpro(data,label,C,toler,maxIter,kTup): oS=optStruct(np.mat(data),np.mat(label).transpose(),C,toler,kTup) iter=0;entireSet=True;alphaPairsChanged=0 #当迭代次数达到上限(这里的迭代次数只要完成一次循环遍历就+1,不论该次循环遍历是否修改了alpha对),或全集再无可修改的alpha对时,循环停止,计算完成 while (iter<maxIter) and (entireSet or alphaPairsChanged>0): alphaPairsChanged=0 if entireSet: #全集遍历 for i in range(oS.m): alphaPairsChanged+=innerL(i,oS) print ("fullset, iter:%d i:%d, pairsChanged: %d" %(iter,i,alphaPairsChanged)) iter+=1 #这里的迭代次数只要完成一次循环遍历就+1,不论该次循环遍历是否修改了alpha对 else: #边界遍历 boundIs=np.nonzero((oS.alphas.A>0)*(oS.alphas.A<oS.C))[0] #选择0<alpha<C的样本点的索引值(即边界点) for i in boundIs: alphaPairsChanged+=innerL(i,oS) print ("bound, iter:%d i:%d, pairsChanged: %d" %(iter,i,alphaPairsChanged)) iter+=1 #控制遍历往返于全集遍历和边界遍历 if entireSet: entireSet=False #若本轮是全集遍历,则下一轮进入边界遍历(下一轮while条件中的entire是False) elif alphaPairsChanged==0: entireSet=True #若本轮是边界遍历,且本轮遍历未修改任何alpha对,则下一轮进入全集遍历 print ("iteration number: %d" %iter) return oS.b,oS.alphas
04 测试
我们用两个圆环分布的数据集测试这个利用了核技巧的SMO算法,数据集分布如下:
[图片上传失败...(image-c7075e-1538483274152)]
4.1 参数训练函数
def testRBF(C,toler,maxIter,kTup): #训练参数 data,label=loadDataSet("testSetRBF.txt") b,alphas=SMOpro(data,label,C,toler,maxIter,kTup) print (b,"\n",alphas[alphas>0]) #找到支持向量 dataMat=np.mat(data);labelMat=np.mat(label).transpose() svInd=np.nonzero(alphas.A>0)[0] #返回alpha>0的点的索引(即,支持向量点位置) svs=dataMat[svInd];labelSV=labelMat[svInd] #支持向量样本点特征和类型 print ("There are %d Support Vectors" %svs.shape[0]) #模型对于训练集的预测误差 m,n=dataMat.shape;errorCount=0 for i in range(m): kernelEval=kernelTrans(svs,dataMat[i,:],kTup) #只映射支持向量到特征空间 predict=kernelEval.T*np.multiply(labelSV,alphas[svInd])+b #wiX+b if np.sign(predict)!=np.sign(label[i]): #sign(x)为判别函数,X>0输出1,否则输出-1 errorCount+=1 print ("The training error rate is {0}%".format(float(errorCount)/m)) #模型对于测试集的预测误差 data2,label2=loadDataSet("testSetRBF2.txt") dataMat2=np.mat(data2);labelMat2=np.mat(label2).transpose() svInd2=np.nonzero(alphas.A>0)[0] #返回alpha>0的点的索引(即,支持向量点位置) svs2=dataMat2[svInd2];labelSV2=labelMat2[svInd2] #支持向量样本点特征和类型 print ("There are %d Support Vectors" %svs2.shape[0]) m2,n2=dataMat2.shape;errorCount2=0 for i in range(m2): kernelEval2=kernelTrans(svs2,dataMat2[i,:],kTup) #只映射支持向量到特征空间 predict2=kernelEval2.T*np.multiply(labelSV2,alphas[svInd2])+b #wiX+b if np.sign(predict2)!=np.sign(label2[i]): #sign(x)为判别函数,X>0输出1,否则输出-1 errorCount2+=1 print ("The training error rate is {0}%".format(100.0*float(errorCount2)/m2)) return b,alphas,svInd,svInd2
4.2 训练&绘图
b,alphas,svInd,svInd2=testRBF(20,0.001,1000,("rbf",0.4)) plotBestFit(svInd,"testSetRBF.txt") plotBestFit(svInd2,"testSetRBF2.txt")
得到如下输出:
[图片上传失败...(image-522757-1538483274152)]
直观点,我们来看看反应在图中是怎样的效果,第一张为训练集分类效果,第二张为测试集分类效果 (橙色、绿色点为支持向量):
[图片上传失败...(image-ef4583-1538483274152)]
[图片上传失败...(image-b67524-1538483274152)]
可以看到:
径向基函数的到达率(k1)有一个最优值
1.1 k1越大,支持向量对分离超平面影响越大,支持向量点可能越少,容易引起欠拟合,决策边界很差
1.2 k1越小,支持向量对分离超平面影响越小,支持向量点可能越多,容易引起过拟合(极端-所有样本点都是支持向量>>KNN)本来想用支持向量点来象征非线性数据集的分离超平面位置,但发现支持向量在图中看起来很杂乱,不过属于正常,因为支持向量是分离超平面两侧的样本点
05 总结
本文就之前写的SMO算法进行了改进,加入了核技巧可选项,可以处理非线性数据集。
这里使用的核函数是径向基函数,适用于圆环状分布的数据集,对于其他分布形状的数据集,可以增加其他核函数来处理,不过道理是一样的:将输入空间的样本特征映射到高维特征空间,使得原本非线性的数据集变得线性可分。
下期主攻AdaBoost集成算法啦,加油吧~
作者:邓莎
链接:https://www.jianshu.com/p/022804f8af2f
共同学习,写下你的评论
评论加载中...
作者其他优质文章