TabNet
Normalisation par Lot (Batch Normalization)
Couche appliquée dans les blocs de TabNet pour stabiliser et accélérer l'entraînement, en normalisant les activations de chaque lot à une moyenne nulle et une variance unitaire.
← Retour