You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

5 lines
1.6 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

性质
稳健性与稀疏性SVM的优化问题同时考虑了经验风险和结构风险最小化因此具有稳定性。从几何观点SVM的稳定性体现在其构建超平面决策边界时要求边距最大因此间隔边界之间有充裕的空间包容测试样本 。SVM使用铰链损失函数作为代理损失铰链损失函数的取值特点使SVM具有稀疏性即其决策边界仅由支持向量决定其余的样本点不参与经验风险最小化。在使用核方法的非线性学习中SVM的稳健性和稀疏性在确保了可靠求解结果的同时降低了核矩阵的计算量和内存开销。
与其它线性分类器的关系SVM是一个广义线性分类器通过在SVM的算法框架下修改损失函数和优化问题可以得到其它类型的线性分类器例如将SVM的损失函数替换为logistic损失函数就得到了接近于logistic回归的优化问题。SVM和logistic回归是功能相近的分类器二者的区别在于logistic回归的输出具有概率意义也容易扩展至多分类问题而SVM的稀疏性和稳定性使其具有良好的泛化能力并在使用核方法时计算量更小 。
作为核方法的性质SVM不是唯一可以使用核技巧的机器学习算法logistic回归、岭回归和线性判别分析Linear DiscriminantAnalysis, LDA也可通过核方法得到核logistic回归kernel logistic regression、核岭回归kernel ridge regression和核线性判别分析Kernelized LDA, KLDA方法。因此SVM是广义上核学习的实现之一。