Gradient Boosting
Newton-Raphson Optimization
Méthode d'optimisation second-order utilisée dans XGBoost exploitant les dérivées secondes (Hessian) pour des mises à jour plus précises et une convergence plus rapide.
← Kembali