You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.
性质
稳健性与稀疏性: SVM的优化问题同时考虑了经验风险和结构风险最小化, 因此具有稳定性。从几何观点, SVM的稳定性体现在其构建超平面决策边界时要求边距最大, 因此间隔边界之间有充裕的空间包容测试样本 。SVM使用铰链损失函数作为代理损失, 铰链损失函数的取值特点使SVM具有稀疏性, 即其决策边界仅由支持向量决定, 其余的样本点不参与经验风险最小化。在使用核方法的非线性学习中, SVM的稳健性和稀疏性在确保了可靠求解结果的同时降低了核矩阵的计算量和内存开销。
与其它线性分类器的关系: SVM是一个广义线性分类器, 通过在SVM的算法框架下修改损失函数和优化问题可以得到其它类型的线性分类器, 例如将SVM的损失函数替换为logistic损失函数就得到了接近于logistic回归的优化问题。SVM和logistic回归是功能相近的分类器, 二者的区别在于logistic回归的输出具有概率意义, 也容易扩展至多分类问题, 而SVM的稀疏性和稳定性使其具有良好的泛化能力并在使用核方法时计算量更小 。
作为核方法的性质: SVM不是唯一可以使用核技巧的机器学习算法, logistic回归、岭回归和线性判别分析( Linear DiscriminantAnalysis, LDA) 也可通过核方法得到核logistic回归( kernel logistic regression) 、核岭回归( kernel ridge regression) 和核线性判别分析( Kernelized LDA, KLDA) 方法。因此SVM是广义上核学习的实现之一。