1.2从线性分划到非线性分划 通过对我们已经知道的数据进行分类,即建立该问题分类模型,从而对数据的分类的类别进行预估,这就是分类问题。针对线
1.2从线性分划到非线性分划
通过对我们已经知道的数据进行分类,即建立该问题分类模型,从而对数据的分类的类别进行预估,这就是分类问题。针对线性问题和非线性问题,支持向量机有不同的解决办法。当对问题建立分类模型时,线性可分问题的解决方式比较简单,但是对非线性可分的问题时,我们就必须在解决过程中引入核函数。
通过对我们已经知道的数据进行回归,即建立该问题回归模型,寻找出一条与已知点偏离较小的直线,这就是回归问题。对于线性回归和非线性回归,解法类似。
1.2.1 线性分划
线性可分分类问题:
给定训练集:T={( ), …,( )} ,其中 , ={1,-1},i=1, …,l.若存在w ,b 和正数 ,使得对所有使 =1的下标i,有(w· )+b≥ ,而对所有使 =-1的下标i,有(w· )+b≤- ,则称训练集T线性可分。即对应的分类问题是线性可分的[7]。
针对线性分划的分类问题,算法如下:
(1),给定训练集T={( ), …,( )} ,其中 , ={1,-1},i=1, …,l.
(2),选出合适的惩罚参数C>0,构造并求解最优化问题 得解 = ;
(3),计算 = ;选择 的一个小于C的正分量 ,并据此计算 = - ;(4),构造分划超平面( )+ ,由此求得决策函数
ƒ( )=sgn(( )+ ).线性回归问题:
给定训练集:T={( ), …,( )} ,其中 , =R,i=1, …,l.我们可以找到 上的一个线性函数,g( )=(w· )+b,不论输入任何x的值,它所对应的值能够通过y=g( )来预测出来[8]。
简单来说,线性回归问题的解决就是寻找出一条与已知点偏离较小的直线[6]。