此文是根据July大神所写的 支持向量机通俗导论(理解SVM的三层境界) 一文的读后感,记录下自己的一点感悟与体会。
SVM 它本质上即是一个二分类方法,用$$wT+b$$定义分类函数,于是求w、b,为寻最大间隔,引出$$1/2∥w∥^2$$ ,继而引入拉格朗日因子,化为对拉格朗日乘子α的求解(求解过程中会涉及到一系列最优化或凸二次规划等问题),如此,求w、b 与求α 等价,而α的求解可以用一种快速学习算法SMO,至于核函数,是为处理非线性情况,若直接映射到高维计算恐维度爆炸,故在低维计算,等效高维表现。
1.算法步骤:
1.1 选取合适的核函数 $$K(x_i,x_j)$$ 。
1.2 将训练数据 xi带入分类函数中,利用SMO求解系数αi。
这里,大部分αi为0,因为其对应的训练数据xi,有yi∗(w∗xi+b)>1,只有w∗xi+b=1的训练数据才真正对分类有效,即其对应的αi不为0,这些数据即为支持向量。
1.3 根据上一步求得得分类函数对待分类数据x进行二分类。即判断f(x)的正负。
2.核函数
核函数: K(xi,xj) ,一般选高斯核函数即可。而核函数的选择往往不是最关键的,分类器性能更依赖于训练数据。