Hyperparameter Optimization
Hypergradient Descent
Méthode d'optimisation qui calcule les gradients par rapport aux hyperparamètres pour les mettre à jour directement, permettant une optimisation plus efficace que les approches sans gradient.
← Tillbaka