《計算機硬件及網絡支持向量機》由會員分享,可在線閱讀,更多相關《計算機硬件及網絡支持向量機(34頁珍藏版)》請在裝配圖網上搜索。
1、Click to edit Master title style,Click to edit Master text styles,Second level,Third level,Fourth level,Fifth level,*,*,支持向量機引導,孫宗寶,2006年12月20日,哈爾濱理工大學網絡信息中心學術交流,11/13/2024,1,支持向量機引導,孫宗寶,2006年12月20日,哈爾濱理工大學網絡信息中心學術交流,11/13/2024,2,內容提要,概述,線性可分情況理論,線性不可分情況,支持向量機模型,核函數(shù),支持向量機網絡,11/13/2024,3,SVM,簡介,90年代中
2、期在統(tǒng)計學習理論的根底上開展起來的一種機器學習方法 (Boser,Guyon,Vapnik),適合有限樣本(小樣本)問題,在很大程度上解決了傳統(tǒng)方法如神經網絡中存在的問題,如過學習、非線性、多維問題、局部極小點問題等,統(tǒng)計學習理論和支持向量機被視為機器學習問題的一個根本框架,傳統(tǒng)的方法都可以看作是SVM方法的一種實現(xiàn),有堅實的理論根底和嚴格的理論分析,11/13/2024,4,概述,一、向量的內積與超平面,11/13/2024,5,概述,二、最優(yōu)分類平面,11/13/2024,6,概述,二維數(shù)據最優(yōu)分類線的根本要求:,1、要能將兩類樣本無錯誤的分開,即使經驗風險最小,理論上為零,2、要使兩類之
3、間的距離最大,也就是使margin最大,從而使實際風險最小,11/13/2024,7,概述,我們要做的是什么呢?,找到一個超平面(最優(yōu)分類面),使得它能夠盡可能多的將兩類數(shù)據點正確的分開,同時使分開的兩類數(shù)據點距離分類面最遠。,11/13/2024,8,H,H,2,H,1,最優(yōu)分類平面,為最優(yōu)分類平面的方程,11/13/2024,9,SVM原理之線性可分,設線性可分樣本集為(xi,yi),i=1,2,n,xRd,y+1,-1是類別標號。,那么d維空間中線性判別函數(shù)的一般形式為:,g(x)=wx+b,分類面方程為:,wx+b=0 (1),11/13/2024,10,SVM原理之線性可分,將判別函
4、數(shù)進行歸一化,使兩類所有樣本都滿足|g(x)|1,即,使離分類面最近的樣本的|g(x)|=1,這樣分類間隔就等于2/w,因此,間隔最大等價于使w(或w,2,)最小;,而,要求分類線對所有樣本正確分類,就是要求其滿足:,y,i,(wx,i,)+b-10,(i=1,2,n)(2),11/13/2024,11,SVM原理之線性可分,我們解決這樣問題的思路是什么呢?,首要的就是設法找到解決問題的數(shù)學模型!,我們的問題是:,找到滿足上述式2、且使w2的分類面。,其實這個分類面就是最優(yōu)分類面!,11/13/2024,12,SVM原理之線性可分,支持向量SV在那呢?,能使式2,yi(wxi)+b-10,(i
5、=1,2,n),中等號成立的,也就是位于margin 上的樣本就是支持向量。,11/13/2024,13,SVM原理之線性可分,最優(yōu)分類平面求解的數(shù)學模型,我們的求解過程顯然是一個有 約束條件的優(yōu)化問題:,即在式(2)的約束下,求函數(shù):,(w)=1/2w,2,=1/2(ww)(3),的最小值。,11/13/2024,14,SVM原理之線性可分,求解方法-Lagrange 乘子法,什么是Lagrange 乘子法?,看一個例子。,問題:給你一塊面積固定等于a 的平方 板子,問做成什么樣的長方體盒子,它具有最大的體積。,11/13/2024,15,SVM原理之線性可分,Lagrange 乘子法,設長
6、方體的三個棱長為x,y,z,那么其體積f 為三個邊長的乘積:,f(x,y,z)=xyz,本問題要求外表積為a 的平方,于是長方體的6面的面積可以寫成:,2xy+2xz+2yz=a2,即 2xy+2xz+2yz-a2=0,這個問題轉化為了有約束條件的優(yōu)化問題。,11/13/2024,16,SVM原理之線性可分,Lagrange 乘子法,解題方法為:,1 用拉格朗日方法制造一個新函數(shù),F,2 在,F,中放進一個未知的常數(shù),C,得到:,F=xyz+C(2xy+2xz+2yz-a,2,),11/13/2024,17,SVM原理之線性可分,Lagrange 乘子法,F對,x,y,z 的三個自變量的偏微分
7、分別為零,得到三個新方程式:,yz+2,C,(,y,+,z,),=,0,xz,+2,C,(,x,+,z,)=0,xy,+2,C,(,x,+,y,)=0,因為自變量僅可能是正數(shù),把上面的式子相除得,(,x/y,)=(,x,+,z,)/(,y,+,z,),(,y,/,z,)=(,x,+,y,)/(,x,+,z,),11/13/2024,18,SVM原理之線性可分,Lagrange 乘子法,由此得出只有各個自變量的值相等才可以維持上面的關系,再由約束條件得到它們的值是:,x=y=z=(a/6),11/13/2024,19,SVM原理之線性可分,構造拉格朗日函數(shù):,L(w,b,a)=(ww),a,i,
8、y,i,(wx,i,)+b-1,其中:a,i,0為Lagrange系數(shù)。求式(3)的極小值就是對w和b求拉氏函數(shù)的極小值。求L對w和b的偏微分,并令其等于0,可轉化為對偶問題:,在約束條件 a,i,y,i,=0,ai0,i=1,2,n之下對,a,i,0求式(5)的最大值:,11/13/2024,20,SVM原理之線性可分,W(a)=ai-aiajyiyj(xi.xj)5,假設ai*為最優(yōu)解,那么,w*=i=1.n ai*yixi 6,即最優(yōu)分類面的權系數(shù)向量式訓練樣本的線性組合。,11/13/2024,21,SVM原理之線性可分,這是一個不等式約束的二次函數(shù)極值問題,存在唯一解,并且解必須滿足
9、(Kuhn-Tucker條件):,aiyi(w*xi+b)-1=0,i=1.n 7,顯然,只有支持向量的系數(shù)a,i,不為0,即只有支持向量影響最終的劃分結果。,這是為什么?,11/13/2024,22,SVM原理之線性可分,于是式6,w*=i=1.n ai*yixi,可以寫成:,w=,a,i,y,i,x,i,可以看出,只有支持向量影響最終的劃分結果,,,最優(yōu)分類面的權系數(shù)向量是訓練樣本向量的線性組合。,8,11/13/2024,23,SVM原理之線性可分,假設ai*為最優(yōu)解,求解上述問題后得到的最優(yōu)分類函數(shù)是:,f(x)=sgn(w*x)+b*=sgnai*yi(xix)+b*,其中:sgn(
10、)為符號函數(shù),b*是分類的閾值,可以由任意一個支持向量用式(2)求得,或通過兩類中任意一對支持向量取中值求得。對于給定的未知樣本x,只需計算sgn(wx+b),即可判定x所屬的分類。對于非支持向量ai 都為0。,11/13/2024,24,SVM原理之線性不可分,對于線性不可分的樣本,希望使誤分類的點數(shù)最小,為此在式(2)中引入松弛變量i0,即:,yi(wxi)+b-1+i0,(i=1,2,n)9,/yi(wxi)+b-10,(i=1,2,n)(2),11/13/2024,25,SVM原理之線性不可分,在式(9)中,對于給定的常數(shù)C,求出使,(w,)=(ww)+C i 10,取極小值的w,b,
11、這一優(yōu)化問題同樣需要變換為用拉格朗日乘子表示的對偶問題,變換的過程與前面線性可分樣本的對偶問題類似,結果也幾乎完全相同,只是約束條件略有變化:,a,i,y,i,=0,(0a,i,C,i=1,2,n)(11),C反映了在復雜性和不可分樣本所占比例之間的折中。,11/13/2024,26,支持向量機,如果用內積K(x,x)代替最優(yōu)分類面中的點積,就相當于把原特征空間變換到了某一新的特征空間,此時優(yōu)化函數(shù)變?yōu)?,W(a)=a,i,-a,i,a,j,y,i,y,j,K,(x,i,x,j,),相應的判別函數(shù)也應變?yōu)?,f(x)=sgn,a,i,*,y,i,k,(x,i,x)+b,*,11/13/2024
12、,27,支持向量機,算法的其他條件均不變,這就是支持向量機。,所以,原問題就轉化成了找SV的問題,而求SV的過程就是解一個,二次規(guī)劃,(有約束的),二次規(guī)劃無局部極值,只有一個最值,所以SV的求解不會有 不收斂 或者 收斂到局部極小 的問題。而VC維又保證了機器的容量,不可能過學習(因為機器的結構已經固定),具體的求解方法可以參考運籌學中約束二次規(guī)劃的求解,11/13/2024,28,非線性分類面,非線性可分的數(shù)據樣本在高維空間有可能轉化為線性可分。,在訓練問題中,涉及到訓練樣本的數(shù)據計算只有兩個樣本向量點乘的形式,使用函數(shù) ,將所有樣本點映射到高為空間,那么新的樣本集為,設函數(shù),內核函數(shù)(Kernel function),11/13/2024,29,一個能實現(xiàn)非線性關系到線性關系變換的實例,?。?那么,11/13/2024,30,核函數(shù),11/13/2024,31,核函數(shù),Mercer條件,對于任意的對稱函數(shù)K(,x,x,),它是某個特征空間中的內積運算的充分必要條件是,對于任意的(x)0且2(,x,)d,x,0,11/13/2024,32,支持向量網絡,11/13/2024,33,通常的內核函數(shù),線性內核,多項式內核,徑向基函數(shù)內核(RBF),S形內核,謝謝大家,!,11/13/2024,34,