论文摘要
支持向量机是Vapnik教授领导的研究小组于上世纪末提出的一种机器学习的新方法,是统计学习理论的核心部分,是处理小样本学习的有效工具。支持向量机作为统计学习理论的实现方法,能很好地解决非线性和高维数问题,克服了神经网络方法收敛慢、解不稳定、推广性差的缺点,近年来得到了广泛地研究,在模式识别、信号处理、控制、通讯等方面得到了广泛地应用。因此,研究支持向量机的理论和应用问题具有重要的理论与现实意义。回归估计是支持向量机方法的重要研究领域,本文以支持向量机理论为基础,对回归问题的方法进行了研究。全文共分六章,具体内容如下:1.介绍了机器学习领域中统计学习理论的基本思想和方法,进一步详细说明了结构风险最小化原理,同时,对支持向量机的发展进行了概括性的总结;2.在深入分析支持向量机基本原理的基础上,对目前的支持向量机的改进算法进行了总结,同时,将各种算法与传统算法进行了比较;3.针对非线性建模问题,提出一种新的支持向量机核函数构造方法,对高斯核函数在支持向量密集处拟合效果差的缺点进行了改进,仿真研究结果显示,新方法可以一定程度上减少泛化误差;4.提出了一种基于Fisher判别率的支持向量机回归算法。该方法通过引入样本内部相似程度的判别因子来减少样本错分几率,理论分析与仿真实验均验证了算法的有效性和优越性;5.提出了一种新的用于回归的支持向量机增量算法。该算法与传统算法相比,可以在满足模型精度要求的基础上,明显地提高算法的计算速度。
论文目录
摘要ABSTRACT第一章 绪论1.1 论文研究背景1.2 统计学习理论1.2.1 经验风险最小化原则1.2.2 结构风险最小化原则与VC维1.3 支持向量机研究现状与应用1.3.1 支持向量机研究现状1.3.2 支持向量机的应用1.4 本文的主要工作及内容安排第二章 支持向量机算法简介2.1 支持向量分类2.1.1 线性可分支持向量机2.1.2 非线性分类支持向量机2.2 支持向量回归2.3 各种支持向量机算法2.3.1 C-SVM算法2.3.2 BSVM算法2.3.3 ν-SVM算法2.3.4 One-class SVM算法2.3.5 RSVM算法2.3.6 LS-SVM算法2.4 各种支持向量算法的比较与总结2.5 小结第三章 核函数的改进与应用研究3.1 核函数方法简介3.1.1 核函数的定义3.1.2 核函数的构造3.2 几何学方法提高核函数效果3.3 基于放大因子的核函数构造方法3.3.1 高斯(RBF)核函数3.3.2 内积核函数3.3.3 核函数保角变换3.4 参数的选择3.4.1 κ的选择3.4.2 D(x)的选择3.5 仿真实验3.6 小结第四章 基于FISHER判别率的支持向量机回归算法的研究4.1 用于分类的MCVSVM算法4.1.1 问题描述4.1.2 Fisher判别分析4.1.3 MCVSVM算法4.1.4 小结4.2 基于Fisher判别率的支持向量机回归算法4.2.1 基于Fisher判别率的线性软间隔支持向量机回归算法4.2.2 非线性问题的求解方法4.2.3 改进后算法与原算法的关系4.2.4 仿真实验4.2.5 小结第五章 增量支持向量机回归算法的研究5.1 增量支持向量机基本算法5.1.1 支持向量机回归和KKT条件5.1.2 添加新样本的递增算法5.2 新的增量学习算法5.3 新的增量算法中的参数优化5.3.1 摄动参数的调整5.3.2 核参数的调整5.4 仿真实验5.5 小结第六章 结论与展望参考文献致谢
相关论文文献
标签:支持向量机论文; 统计学习理论论文; 核函数论文; 判别率论文; 增量算法论文;