svmNote - juedaiyuer/researchNote GitHub Wiki

#svm笔记#

按照自己的学习步骤和进度进行的SVM学习笔记

##了解SVM##

支持向量机,因其英文名为support vector machine,故一般简称SVM,通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划(convex quadratic programming)问题的求解,也等价于正则化的合页损失函数的最小化问题

二类分类模型

###分类标准的起源:logistic回归###

logistic函数,又称为sigmoid函数

logistic.png

其中x是n维特征向量,函数g就是logistic函数

logistic.png
logistic1.png

无穷映射到了(0,1),假设函数就是特征属于y=1的概率

logistic1.png

当我们要判别一个新来的特征属于哪个类时,只需要求出P即可,P>0.5就是y=1的类

####变形####

结果标签y=0和y=1替换为y=-1,y=1

###线性分类的一个例子###

如何确定这个超平面,从直观上而言,这个超平面应该是最适合分开两类数据的直线。而判定“最适合”的标准就是这条直线离直线两边的数据的间隔最大。所以,得寻找有着最大间隔的超平面。

###函数间隔Functional margin与几何间隔Geometrical margin###

几何间隔就是函数间隔除||w||

超平面方程

logistic1.png

超平面由法向量w和截距b决定,法向量指向的一侧为正类,另一侧为负类

函数间隔

在超平面wx+b=0确定的情况下,|wx+b|能够相对地表示点x距离超平面的远近。wx+b的符号与类标记y的符号是否一致能够表示分类是否正确。所以可用变量y(wx+b)来表示分类的正确性及确信度-统计学习方法(李航)

函数间隔可以表示分类预测的正确性及准确度,但是选择分类超平面时,只有函数间隔还不够,因为只要成比例地改变w和b,,比如说2w和2b,超平面并没有改变,但是函数间隔却称为原来的2倍

几何间隔

统计学习方法

geometricalMargin.png

###最大间隔分类器Maximum Margin Classifier的定义###

**对一个数据点进行分类,当超平面离数据点的“间隔”越大,分类的确信度(confidence)也越大。**所以,为了使得分类的确信度尽量高,需要让所选择的超平面能够最大化这个“间隔”值。这个间隔就是下图中的Gap的一半。

很喜欢统计学习方法中关于最大间隔的描述:

不仅将正负实例点分开,而且对最难分的实例点(离超平面最近的点)也有足够大的确信度将它们分开,这样的超平面应该对未知的新实例有很好的分类预测能力-统计学习方法

logistic.png

统计学习方法中关于最大间隔法

MaximumMarginClassifieAlgorithmnr.png

虚线上的点便叫做支持向量Support Vector,在线性可分情况下,训练数据集的样本点中与分离超平面最近的样本点的实例

满足公式:y(wx+b)-1=0

supportvector.png

在决定分离超平面时只有支持向量起作用

统计学习方法Page:115定义

##深入SVM##

###学习的对偶算法###

应用拉格郎日对偶性,通过求解对偶问题(dual problem)得到原始问题(primal problem)的最优解,这就是线性可分支持向量机的对偶算法(dual algorithm),优点为对偶问题更容易求解,引入核函数,进而推广到非线性分类问题

lagrangemultiplier.png

求解步骤

将拉格郎日函数L(w,b,a)分别对w,b求偏导数并令其等于0

将以上的结果代入之前的L

###线性可分到线性不可分###

##source##

##book##

  • 支持向量机导论
⚠️ **GitHub.com Fallback** ⚠️