You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.
SVM原理:
支持向量机(SVM)是Vapnik及其研究小组提出的针对二类别的分类问题而提出的一种分类技术, 是一种新的非常有发展前景的分类技术。支持向量机的基本思想是在样本空间或特征空间, 构造出最优超平面使超平面与不同类样本集之间的距离最大, 从而达到最大的泛化能力, 其算法的详细叙述可参考文献。
支持向量机方法根据Vapnik的结构风险最小化原则, 尽量提高学习机的泛化能力, 使有限少量训练样本得到的决策规则对独立的测试集仍能得到小的误差。这样只需有限的少量样本参与训练, 就可以保证训练产生的分类器具有很小的误差。而车牌字符识别时, 相对于预测的样本, 只能有有限的少量样本参与训练, 支持向量机的方法可以使训练产生的分类器在识别车牌字符时只有小的误差, 并且大幅减少训练的时间。
对于数据分类问题, 通用的神经网络方法的机理可以简单地描述为: 系统随机产生一个超平面并移动它, 直到训练集中属于不同类别的点正好位于平面的不同侧面。这种处理机制决定了神经网络方法最终获得的分割平面并不是一个最优超平面, 只是一个局部的次优超平面。而SVM将最优超平面的求解问题转换为一个不等式约束下的二次函数寻优问题, 这是一个凸二次优化问题, 存在唯一解, 能保证找到的极值解就是全局最优解。
SVM通过一个非线性函数将输入数据映射到具有高维甚至为无穷维的特征空间, 并在这个高维特征空间进行线性分类, 构造最优分类超平面, 但在求解最优化问题和计算判别函数时并不需要显式计算该非线性函数, 而只需计算核函数, 从而避免特征空间维数灾难问题。
车牌字符识别问题中每个样本为一个字符图像, 每个字符图像由许多像素组成, 具有高维的特点。SVM通过核函数的计算, 避免了神经网络解决样本空间的高维问题带来的网络结构设计问题, 使训练模型与输入数据的维数无关; 并且每个字符的整幅图像作为一个样本输入, 不需要进行特征提取, 节省了识别时间。