svm和lssvm的區別?
SVM與LS-SVM的比較
(1)優化問題的構造
從前述對SVM與LS-SVM方法在樣本分類與回歸估計的分析中可以看出,兩種方法的優化問題的構造上,目標函數分別采用了誤差因子的一次項與二次項,同時約束條件分別采用了不等式約束與等式約束形式。這兩方面的差別也導致了兩種方法在求解過程中的差異。
(2)優化問題的求解
SVM求解QP問題中,變量維數等于訓練樣本的個數,從而使其中矩陣元素的個數是訓練樣本個數的平方。當數據規模達到一定程度時,SVM算法的求解規模就會使一些傳統辦法難以適應。針對SVM的求解困難的問題,也產生了一些相應的解決辦法,如選塊算法和SMO算法等。這些算法在一定程度上簡化了SVM優化問題的求解,促進了SVM的應用發展。而LS-SVM方法通過求解線性方程組實現最終的決策函數,在一定程度上降低了求解難度,提高了求解速度,使之更能適合于求解大規模問題,更能適應于一般的實際應用。雖然并不一