简单看了一下sklearn中的gbdt源码
在这里记录一下,目前来说还不能把gbdt的所有理论都搞清楚
sklearn有两个类似于gbdt的实现

GradientBoostingClassifier
GradientBoostingRegressor

一个用于分类,另一个用于回归
这两个类其实区别只在于mixin上,下面是类继承关系

GradientBoostingRegressor继承了
    BaseGradientBoosting
    RegressorMixin
GradientBoostingClassifier继承了
    BaseGradientBoosting
    ClassifierMixin
ClassifierMixin和RgressorMixin的区别:
    classifierMixin使用的是准确率来计算误差
    而回归的是使用r_square来计算误差
实际上这两个模型的差距是很小的,就是计算一下拟合度

然后是整个训练的过程
训练的过程会先设置一些参数
设置n_estimators是要训练的分类器数据
如果损失函数是loss的话,那么就比较简单了
每次训练弱分类器都会根据上一次的结果来
上次生成的y - y_pred会作为新的y传进去
这样来训练直到n_estimators足够

不过在predict结果的时候有点看不懂代码
后面看了再补充


dmlllll
47 声望6 粉丝