Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Apprentissage Éco-Efficace
Paradigme visant à minimiser la consommation énergétique et l'empreinte carbone des modèles d'IA tout en maintenant des performances acceptables, souvent via des techniques de distillation ou d'élagage.
Élagage de Neurones (Pruning)
Technique de réduction de modèle consistant à supprimer de manière sélective les poids ou les neurones les moins influents pour diminuer la complexité computationnelle et la mémoire requise.
Apprentissage sur Bords (Edge Learning)
Approche où le processus d'apprentissage ou d'inférence s'effectue directement sur des appareils à la périphérie du réseau (smartphones, capteurs), soumis à de fortes contraintes de calcul et d'énergie.
Conception de Réseaux Neuronaux Efficaces (Efficient Neural Architecture Search)
Sous-domaine du NAS (Neural Architecture Search) intégrant des contraintes de latence, de consommation énergétique ou de taille de modèle dans l'objectif d'optimisation pour trouver des architectures performantes et légères.
Apprentissage Fédéré avec Contraintes
Variante de l'apprentissage fédéré où les appareils clients participant à l'entraînement ont des capacités hétérogènes et limitées, nécessitant des algorithmes robustes à ces disparités de ressources.
Factorisation de Matrice de Poids
Technique de compression qui décompose une grande matrice de poids en un produit de matrices de plus petite dimension, réduisant ainsi le nombre de paramètres et le coût calculatoire.
Méthodes d'Entraînement à Faible Précision
Ensemble d'algorithmes permettant de réaliser la phase de rétropropagation et de mise à jour des gradients en utilisant une représentation numérique de faible précision (ex: 16 bits ou 8 bits).
Inférence Zéro-Copie (Zero-Copy Inference)
Optimisation visant à exécuter l'inférence d'un modèle directement sur les données d'entrée sans opérations de copie mémoire supplémentaires, réduisant la latence et la consommation énergétique.
Apprentissage par Impulsion (Spiking Neural Networks)
Paradigme de calcul neuronal où l'information est encodée dans des impulsions temporelles, offrant une grande efficacité énergétique en imitant le fonctionnement des neurones biologiques.
Optimisation Consciente de l'Énergie (Energy-Aware Optimization)
Processus d'entraînement où la fonction de perte intègre un terme de pénalité lié à la consommation énergétique estimée du modèle, guidant l'optimiseur vers des solutions plus économes.
Binarisation de Réseaux Neuronaux
Forme extrême de quantification où les poids et/ou les activations sont contraints à ne prendre que deux valeurs possibles (-1 et +1), maximisant la compression et la vitesse de calcul.
Mécanisme d'Attention Économe
Variantes des mécanismes d'attention (ex: dans les Transformers) conçues pour réduire leur complexité quadratique en temps et en mémoire, comme l'attention linéaire ou à fenêtrage glissant.
Apprentissage Continu sous Contraintes de Mémoire
Défi de l'apprentissage continu où le modèle doit apprendre de nouvelles tâches sans oublier les anciennes, tout en respectant une limite de mémoire stricte pour le stockage des connaissances.
Profiling de Ressources
Analyse détaillée des besoins en calcul, mémoire et énergie d'un modèle sur une plateforme cible, essentielle pour identifier les goulots d'étranglement et guider les stratégies d'optimisation.