原理
- 寻找最大分类间距
- 转而通过拉格朗日函数求优化的问题
数据可以通过画一条直线就可以将它们完全分开,这组数据叫
线性可分(linearly separable)
数据,而这条分隔直线称为分隔超平面(separating hyperplane)
。 如果数据集上升到1024维呢?那么需要1023维来分隔数据集,也就说需要N-1维的对象来分隔,这个对象叫做超平面(hyperlane)
,也就是分类的决策边界。
寻找最大间隔
点到平面距离
- 分隔超平面
函数间距
: $y(x)=w^Tx+b$ - 分类的结果: $f(x)=sign(w^Tx+b)$ (sign表示>0为1,<0为-1,=0为0)
-
点到超平面的 几何间距
: $d(x)=(w^Tx+b)/w $ ( w 表示w矩阵的二范数=> $\sqrt{w^T*w}$, 点到超平面的距离也是类似的)
拉格朗日乘子法
- 类别标签用-1、1,是为了后期方便 $label(w^Tx+b)$ 的标识和距离计算;如果 $label(w^Tx+b)>0$ 表示预测正确,否则预测错误。
- 现在目标很明确,就是要找到
w
和b
,因此我们必须要找到最小间隔的数据点,也就是前面所说的支持向量
。- 也就说,让最小的距离取最大.(最小的距离:就是最小间隔的数据点;最大:就是最大间距,为了找出最优超平面–最终就是支持向量)
-
目标函数:$arg: max_{w, b} \left( min[label(w^Tx+b)]\frac{1}{ w } \right) $ -
如果 $label*(w^Tx+b)>0$ 表示预测正确,也称 函数间隔
,$w $ 可以理解为归一化,也称 几何间隔
。 - 令 $label(w^Tx+b)>=1$, 因为0~1之间,得到的点是存在误判的可能性,所以要保障 $min[label(w^Tx+b)]=1$,才能更好降低噪音数据影响。
-
所以本质上是求 $arg: max_{w, b} \frac{1}{ w } $;也就说,我们约束(前提)条件是: $label*(w^Tx+b)=1$
-
-
新的目标函数求解: $arg: max_{w, b} \frac{1}{ w } $ -
=> 就是求: $arg: min_{w, b} w $ (求矩阵会比较麻烦,如果x只是 $\frac{1}{2}*x^2$ 的偏导数,那么。。同样是求最小值) -
=> 就是求: $arg: min_{w, b} (\frac{1}{2}* w ^2)$ (二次函数求导,求极值,平方也方便计算) - 本质上就是求线性不等式的二次优化问题(求分隔超平面,等价于求解相应的凸二次规划问题)
-
- 通过拉格朗日乘子法,求二次优化问题
- 假设需要求极值的目标函数 (objective function) 为 f(x,y),限制条件为 φ(x,y)=M # M=1
- 设g(x,y)=M-φ(x,y) # 临时φ(x,y)表示下文中 $label*(w^Tx+b)$
- 定义一个新函数: F(x,y,λ)=f(x,y)+λg(x,y)
- a为λ(a>=0),代表要引入的拉格朗日乘子(Lagrange multiplier)
-
那么: $L(w,b,\alpha)=\frac{1}{2} * w ^2 + \sum_{i=1}^{n} \alpha_i * [1 - label * (w^Tx+b)]$ - 因为:$label(w^Tx+b)>=1, \alpha>=0$ , 所以 $\alpha[1-label(w^Tx+b)]<=0$ , $\sum_{i=1}^{n} \alpha_i * [1-label(w^Tx+b)]<=0$
- 当 $label*(w^Tx+b)>1$ 则 $\alpha=0$ ,表示该点为<font color=red>非支持向量</font>
-
相当于求解: $max_{\alpha} L(w,b,\alpha) = \frac{1}{2} * w ^2$ -
如果求: $min_{w, b} \frac{1}{2} * w ^2$ , 也就是要求: $min_{w, b} \left( max_{\alpha} L(w,b,\alpha)\right)$
- 现在转化到对偶问题的求解
- $min_{w, b} \left(max_{\alpha} L(w,b,\alpha) \right) $ >= $max_{\alpha} \left(min_{w, b}\ L(w,b,\alpha) \right) $
- 现在分2步
-
先求: $min_{w, b} L(w,b,\alpha)=\frac{1}{2} * w ^2 + \sum_{i=1}^{n} \alpha_i * [1 - label * (w^Tx+b)]$ - 就是求
L(w,b,a)
关于[w, b]的偏导数, 得到w和b的值
,并化简为:L和a的方程
。 - 参考: 如果公式推导还是不懂,也可以参考《统计学习方法》李航-P103<学习的对偶算法> ![计算拉格朗日函数的对偶函数](../images/6.SVM/SVM_5_Lagrangemultiplier.png)学习的对偶算法>
- 终于得到课本上的公式: $max_{\alpha} \left( \sum_{i=1}^{m} \alpha_i - \frac{1}{2} \sum_{i, j=1}^{m} label_i·label_j·\alpha_i·\alpha_j·<x_i, x_j> \right) $
- 约束条件: $a>=0$ 并且 $\sum_{i=1}^{m} a_i·label_i=0$
松弛变量公式
- 我们知道几乎所有的数据都不那么干净, 通过引入松弛变量来
允许数据点可以处于分隔面错误的一侧
。 - 约束条件: $C>=a>=0$ 并且 $\sum_{i=1}^{m} a_i·label_i=0$
- 总的来说:
- 表示
松弛变量
- 常量C是
惩罚因子
, 表示离群点的权重(用于控制“最大化间隔”和“保证大部分点的函数间隔小于1.0” )- $label*(w^Tx+b) > 1$ and alpha = 0 (在边界外,就是非支持向量)
- $label*(w^Tx+b) = 1$ and 0< alpha < C (在分割超平面上,就支持向量)
- $label*(w^Tx+b) < 1$ and alpha = C (在分割超平面内,是误差点 -> C表示它该受到的惩罚因子程度)
- 参考地址:https://www.zhihu.com/question/48351234/answer/110486455
- C值越大,表示离群点影响越大,就越容易过度拟合;反之有可能欠拟合。
- 我们看到,目标函数控制了离群点的数目和程度,使大部分样本点仍然遵守限制条件。
- 例如:正类有10000个样本,而负类只给了100个(C越大表示100个负样本的影响越大,就会出现过度拟合,所以C决定了负样本对模型拟合程度的影响!,C就是一个非常关键的优化点!)
- 表示
- 这一结论十分直接,SVM中的主要工作就是要求解 alpha.
开发流程
收集数据:可以使用任意方法。
准备数据:需要数值型数据。
分析数据:有助于可视化分隔超平面。
训练算法:SVM的大部分时间都源自训练,该过程主要实现两个参数的调优。
测试算法:十分简单的计算过程就可以实现。
使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器,对多类问题应用SVM需要对代码做一些修改。
Solution
对小规模数据点进行分类
- 收集数据
文本文件格式:
3.542485 1.977398 -1 3.018896 2.556416 -1 7.551510 -1.580030 1 2.114999 -0.004466 -1 8.127113 1.274372 1
- 准备数据
def loadDataSet(fileName):
"""
对文件进行逐行解析,从而得到第行的类标签和整个特征矩阵
Args:
fileName 文件名
Returns:
dataMat 特征矩阵
labelMat 类标签
"""
dataMat = []
labelMat = []
fr = open(fileName)
for line in fr.readlines():
lineArr = line.strip().split('\t')
dataMat.append([float(lineArr[0]), float(lineArr[1])])
labelMat.append(float(lineArr[2]))
return dataMat, labelMat
-
分析数据: 无
-
训练算法
def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
"""smoSimple
Args:
dataMatIn 特征集合
classLabels 类别标签
C 松弛变量(常量值),允许有些数据点可以处于分隔面的错误一侧。
控制最大化间隔和保证大部分的函数间隔小于1.0这两个目标的权重。
可以通过调节该参数达到不同的结果。
toler 容错率(是指在某个体系中能减小一些因素或选择对某个系统产生不稳定的概率。)
maxIter 退出前最大的循环次数
Returns:
b 模型的常量值
alphas 拉格朗日乘子
"""
dataMatrix = mat(dataMatIn)
# 矩阵转置 和 .T 一样的功能
labelMat = mat(classLabels).transpose()
m, n = shape(dataMatrix)
# 初始化 b和alphas(alpha有点类似权重值。)
b = 0
alphas = mat(zeros((m, 1)))
# 没有任何alpha改变的情况下遍历数据的次数
iter = 0
while (iter < maxIter):
# w = calcWs(alphas, dataMatIn, classLabels)
# print("w:", w)
# 记录alpha是否已经进行优化,每次循环时设为0,然后再对整个集合顺序遍历
alphaPairsChanged = 0
for i in range(m):
# print 'alphas=', alphas
# print 'labelMat=', labelMat
# print 'multiply(alphas, labelMat)=', multiply(alphas, labelMat)
# 我们预测的类别 y[i] = w^Tx[i]+b; 其中因为 w = Σ(1~n) a[n]*label[n]*x[n]
fXi = float(multiply(alphas, labelMat).T*(dataMatrix*dataMatrix[i, :].T)) + b
# 预测结果与真实结果比对,计算误差Ei
Ei = fXi - float(labelMat[i])
# 约束条件 (KKT条件是解决最优化问题的时用到的一种方法。我们这里提到的最优化问题通常是指对于给定的某一函数,求其在指定作用域上的全局最小值)
# 0<=alphas[i]<=C,但由于0和C是边界值,我们无法进行优化,因为需要增加一个alphas和降低一个alphas。
# 表示发生错误的概率:labelMat[i]*Ei 如果超出了 toler, 才需要优化。至于正负号,我们考虑绝对值就对了。
'''
# 检验训练样本(xi, yi)是否满足KKT条件
yi*f(i) >= 1 and alpha = 0 (outside the boundary)
yi*f(i) == 1 and 0<alpha< C (on the boundary)
yi*f(i) <= 1 and alpha = C (between the boundary)
'''
if ((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or ((labelMat[i]*Ei > toler) and (alphas[i] > 0)):
# 如果满足优化的条件,我们就随机选取非i的一个点,进行优化比较
j = selectJrand(i, m)
# 预测j的结果
fXj = float(multiply(alphas, labelMat).T*(dataMatrix*dataMatrix[j, :].T)) + b
Ej = fXj - float(labelMat[j])
alphaIold = alphas[i].copy()
alphaJold = alphas[j].copy()
# L和H用于将alphas[j]调整到0-C之间。如果L==H,就不做任何改变,直接执行continue语句
# labelMat[i] != labelMat[j] 表示异侧,就相减,否则是同侧,就相加。
if (labelMat[i] != labelMat[j]):
L = max(0, alphas[j] - alphas[i])
H = min(C, C + alphas[j] - alphas[i])
else:
L = max(0, alphas[j] + alphas[i] - C)
H = min(C, alphas[j] + alphas[i])
# 如果相同,就没法优化了
if L == H:
print("L==H")
continue
# eta是alphas[j]的最优修改量,如果eta==0,需要退出for循环的当前迭代过程
# 参考《统计学习方法》李航-P125~P128<序列最小最优化算法>
eta = 2.0 * dataMatrix[i, :]*dataMatrix[j, :].T - dataMatrix[i, :]*dataMatrix[i, :].T - dataMatrix[j, :]*dataMatrix[j, :].T
if eta >= 0:
print("eta>=0")
continue
# 计算出一个新的alphas[j]值
alphas[j] -= labelMat[j]*(Ei - Ej)/eta
# 并使用辅助函数,以及L和H对其进行调整
alphas[j] = clipAlpha(alphas[j], H, L)
# 检查alpha[j]是否只是轻微的改变,如果是的话,就退出for循环。
if (abs(alphas[j] - alphaJold) < 0.00001):
print("j not moving enough")
continue
# 然后alphas[i]和alphas[j]同样进行改变,虽然改变的大小一样,但是改变的方向正好相反
alphas[i] += labelMat[j]*labelMat[i]*(alphaJold - alphas[j])
# 在对alpha[i], alpha[j] 进行优化之后,给这两个alpha值设置一个常数b。
# w= Σ[1~n] ai*yi*xi => b = yj- Σ[1~n] ai*yi(xi*xj)
# 所以: b1 - b = (y1-y) - Σ[1~n] yi*(a1-a)*(xi*x1)
# 为什么减2遍? 因为是 减去Σ[1~n],正好2个变量i和j,所以减2遍
b1 = b - Ei- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i, :]*dataMatrix[i, :].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i, :]*dataMatrix[j, :].T
b2 = b - Ej- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i, :]*dataMatrix[j, :].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j, :]*dataMatrix[j, :].T
if (0 < alphas[i]) and (C > alphas[i]):
b = b1
elif (0 < alphas[j]) and (C > alphas[j]):
b = b2
else:
b = (b1 + b2)/2.0
alphaPairsChanged += 1
print("iter: %d i:%d, pairs changed %d" % (iter, i, alphaPairsChanged))
# 在for循环外,检查alpha值是否做了更新,如果更新则将iter设为0后继续运行程序
# 直到更新完毕后,iter次循环无变化,才退出循环。
if (alphaPairsChanged == 0):
iter += 1
else:
iter = 0
print("iteration number: %d" % iter)
return b, alphas
Programing Sample
Sklarn
#Import Library
from sklearn import svm
#Assumed you have, X (predic
tor) and Y (target) for training data set and x_test(predictor) of test_dataset
# Create SVM classification object
model = svm.svc() # there is various option associated with it, this is simple for classification. You can refer link, for mo# re detail.
# Train the model using the training sets and check score
model.fit(X, y)
model.score(X, y)
#Predict Output
predicted= model.predict(x_test)