龙空技术网

机器学习:聊聊机器学习模型集成学习算法——Boosting

你看我独角兽吗 400

前言:

此刻咱们对“boosting算法实现”大概比较注意,大家都需要剖析一些“boosting算法实现”的相关知识。那么小编也在网摘上收集了一些对于“boosting算法实现””的相关知识,希望小伙伴们能喜欢,看官们快快来学习一下吧!

这张图真的棒!

Boosting(提升算法)

Boosting这其实思想相当的简单,举个例子,对一份数据集建立M个模型(比如分类),一般这种模型比较简单,称为弱分类器(weak learner)。每次分类都将上一次分错的数据权重提高一点再进行分类,这样最终得到的分类器在测试数据与训练数据上都可以得到比较好的成绩。

Boosting算法基本步骤

先对N个训练样本S1的学习得到一个弱分类器M1;

将S1中分错的样本和其他新的数据一起构成新的N个训练样本S2,再得到一个弱分类器M2;

将S1和S2中都分错的样本和其他新的数据一起构成新的N个训练样本S3,再得到一个弱分类器M3;

最终得到一堆弱分类器,可根据弱分类器的多数投票表决。

Adaboosting

给定训练样本集 ,其中n+,n-分别对应于正例样本和负例样本;N为训练的最大循环次数;

初始化样本权重 ,即为训练样本的初始概率分布;

第一次迭代:

训练样本的初始概率分布下,训练弱分类器:

然后训练样例如果被误分,那么它的权重会被加重,相应地,正确被分类的样例的权重会减少;

更新训练样本的概率分布,如此迭代后得到m个弱分类器;

最终结果由弱分类器的结果进行加权多数表决。

<<统计学习方法>>中的阐述

Adaboosting特点:

标签: #boosting算法实现