基于集成学习模式的Boost-SVM算法研究

基于集成学习模式的Boost-SVM算法研究

论文摘要

集成学习是一种新的机器学习范式,它使用多个学习器来解决同一个问题,能够显著地提高学习系统的泛化能力,因此从20世纪90年代开始,集成学习逐渐成为了机器学习领域的一个新的热点。在实际分类问题中,为了减少损失和失误的概率,往往会对分类方法提出更高的要求,使其达到尽可能高的分类精确率,例如,行星探测、地震波分析、Web信息过滤、生物特征识别、计算机辅助医疗诊断等一些需要精确分类的实际项目。集成学习方法目前还不能满足这样的高精度要求。基于此类现实问题的考虑,本文提出了一种新的集成学习方法,为其注入了新鲜血液,将具备强学习能力的支持向量机方法运用于集成学习模式当中,称之为Boost-SVM算法,以期得到更高的分类精确率。选用支持向量机(Support Vector Machines,简称SVM)作为分量学习机,作为基于统计学习理论发展起来的分类方法,它解决了模型选择与过学习、非线性和维数灾难问题、局部极小点等问题。Boost-SVM算法实质上是通过重点训练容易被分类器错误分类的样本来减少错误分类率。影响学习机分类效果的正是这部分被错误分类的样本,Boost-SVM重点标记错误分类的样本权值,并且在反复迭代中多次学习该类样本,以减少被错误分类的样本个数,从而达到降低错误分类率的目的。本文在LIBSVM平台上通过改造实现了Boost-SVM算法并在UCI分类数据集上进行了验证。实验结果表明Boost-SVM可以有效地提高分类精确率,并且相对于SVM结果上有了较大的提高。该方法具有可理解性强、算法易于实现等优点,并可以用来解决多类别分类问题,在解决分类问题上颇具竞争力。

论文目录

  • 摘要
  • Abstract
  • 第一章 绪论
  • 1.1 本课题的研究背景和意义
  • 1.2 研究发展现状
  • 1.3 本文的主要工作
  • 1.4 本文的内容安排
  • 1.5 本章小结
  • 第二章 集成学习和Adaboost 算法
  • 2.1 集成学习的理论基础
  • 2.1.1 集成学习的起源
  • 2.1.2 集成学习基本概念
  • 2.1.3 集成学习的构成
  • 2.1.4 集成学习的作用
  • 2.2 集成学习算法
  • 2.3 Boosting 算法概述
  • 2.4 Adaboost 算法原理及分析
  • 2.4.1 Adaboost 算法原理
  • 2.4.2 Adaboost 算法分析
  • 2.5 本章小结
  • 第三章 支持向量机
  • 3.1 统计学习理论的核心内容
  • 3.1.1 VC 维
  • 3.1.2 推广性的界
  • 3.1.3 结构风险最小化
  • 3.2 支持向量机
  • 3.2.1 广义最优分类面
  • 3.2.2 核函数
  • 3.3 SVM 方法的特点
  • 3.4 SVM 解决实际问题的基本步骤
  • 3.5 本章小结
  • 第四章 Boost-SVM 优化算法设计
  • 4.1 Boost-SVM 算法设计
  • 4.2 应用Boost-SVM 算法解决两类分类问题
  • 4.3 应用Boost-SVM 算法解决多类分类问题
  • 4.4 本章小结
  • 第五章 实验结果与分析
  • 5.1 实验数据的介绍
  • 5.2 Boost-SVM 的实验过程
  • 5.3 实验结果
  • 5.4 本章小结
  • 第六章 总结与展望
  • 6.1 总结
  • 6.2 展望
  • 参考文献
  • 致谢
  • 附录 A 攻读硕士期间发表的文章和参加的项目
  • 相关论文文献

    标签:;  ;  ;  

    基于集成学习模式的Boost-SVM算法研究
    下载Doc文档

    猜你喜欢