XGBoost的原理分析以及实践
XGBoost算法 原理 任何机器学习的问题都可以从目标函数(objective function)出发,目标函数的主要由两部分组成 $损失函数+正则项$: $$ Obj(\Theta)=L(\Theta)+\Omega(\Theta) $$ 在这里,当选择树模型为基学习器时,需要正则的对象,或者说需要控制复杂度的对象就是这K颗树,通常树的参数有树的深度,叶子节点的个数,叶子节点值的取值(xgboost里称为权重weight)。 所以,我们的目标函数形式如下: $$ \mathcal{L}=\sum_{i} l\left(\hat{y_i}, y_{i}\right)+\sum_{k} \Omega\left(f_{k}\right) $$ 这里前一半代表预……