boosting算法是由多个树模型通过叠加的办法来学习特色和标签之间的规律
虽然有很多的boosting算法,其核心思想是利用新的模型去拟合之前所有叠加起来的模型所没有捕捉到的规律,从而一点点的学习特色和标签的规律
评论区回答“十大算法”,免费领取《机器学习十大算法系列》PDF,内容 10 大常用机器学习算法,包括线性回归、Logistic 回归、线性判别剖析、朴素贝叶斯、KNN、随机森林等。

问题2:adaboost分类模型和boosting分类模型的异同是什么
相同点:
两者都是boosting模型
两者都是利用新的模型去学习之前所有模型所没捕捉到的规律
不同点:
两者的丢失函数不一样,adaboost分类用的丢失函数指数丢失函数,而gbdt分类用的丢失函数是logloss并且以logodds做的打算
两个的基模型不一样,adaboost分类的基是分类树模型,gbdt分类的基是回归树模型。
两个模型中,新模型学习之前模型所没有捕捉到的规律的办法不一样,adaboost中,之前的模型通过加大预测错的样本的权重,从而提醒下一个模型要负责学习预测错的样本(之前所没有捕捉到的规律)。而GBDT中,直接通过logodds的残差值来演习新的模型
问题3:gbdt如何做回归任务
基模型为回归树模型
丢失函数为MSE
利用新的模型去拟合之前所有的回归树叠加起来下遗留下来的残差,从而学习特色和标签之间的规律
问题4:gbdt和xgboost的差异是什么?
xgboost可以算作gbdt的升级版
xgboost实在便是在gbdt的丢失函数上加了约束项,从而掌握整体模型的繁芜度。
约束项为新的树模型的叶节点个数干系,和叶节点输出值干系。
xgboost包算法不仅仅可以做分类,回归,而且可以做排序
xgboost包可以支配分布式
评论区回答“十大算法”,免费领取《机器学习十大算法系列》PDF,内容 10 大常用机器学习算法,包括线性回归、Logistic 回归、线性判别剖析、朴素贝叶斯、KNN、随机森林等。