Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Hyperparamètre
Paramètre externe au modèle dont la valeur doit être définie avant l'entraînement, influençant directement la capacité d'apprentissage et la performance finale de l'algorithme.
Sous-apprentissage
Situation où le modèle est trop simple pour capturer la structure sous-jacente des données, résultant en de mauvaises performances à la fois sur les ensembles d'entraînement et de test.
Grid Search
Méthode d'optimisation systématique explorant exhaustivement toutes les combinaisons possibles d'hyperparamètres dans une grille prédéfinie pour identifier la meilleure configuration.
Random Search
Approche d'optimisation échantillonnant aléatoirement des combinaisons d'hyperparamètres dans l'espace de recherche, souvent plus efficace que Grid Search pour les espaces de grande dimension.
Optimisation Bayésienne
Méthode d'optimisation séquentielle utilisant un modèle probabiliste pour guider la recherche des hyperparamètres optimaux en équilibrant exploration et exploitation.
Score de Validation
Métrique quantitative évaluant la performance du modèle sur l'ensemble de validation, servant de critère objectif pour la sélection et le réglage des hyperparamètres.
Ensemble Learning
Paradigme combinant plusieurs modèles de base pour améliorer la performance prédictive globale par agrégation de leurs prédictions individuelles.
Boosting
Méthode d'ensemble séquentielle où chaque modèle apprend des erreurs du précédent, créant un composite puissant par pondération adaptative des apprenants faibles.
Métrique d'Évaluation
Indicateur quantitatif mesurant la performance du modèle selon des critères spécifiques (précision, rappel, F1-score, AUC-ROC, MSE, MAE, etc.).
Point de Coude
Point d'inflexion sur une courbe de performance où l'amélioration marginale devient négligeable, indiquant souvent la valeur optimale d'un hyperparamètre.