KI-Glossar
Das vollständige Wörterbuch der Künstlichen Intelligenz
Pareto Front
Ensemble des solutions optimales où aucune autre solution n'est meilleure dans tous les objectifs simultanément, fondamental pour l'optimisation multi-objectifs en NAS.
Multi-objective Optimization
Processus mathématique d'optimisation visant à optimiser simultanément plusieurs objectifs contradictoires, comme la précision et la consommation énergétique en NAS.
Energy-aware Architecture Search
Méthodologie NAS qui optimise explicitement la consommation énergétique des architectures comme objectif principal ou contrainte during la recherche.
Latency-constrained NAS
Technique de recherche d'architecture où la latence d'inférence est utilisée comme contrainte ou objectif dans l'espace de recherche des architectures.
Pareto-optimal Architecture
Architecture neurale qui atteint l'équilibre optimal entre plusieurs objectifs contradictoires sans pouvoir être améliorée sur un aspect sans dégrader un autre.
Evolutionary Multi-objective NAS
Approche NAS utilisant des algorithmes évolutionnaires comme NSGA-II pour explorer simultanément plusieurs objectifs dans l'espace des architectures.
Resource-efficient Neural Architecture Search
Famille de méthodes NAS conçues pour minimiser l'utilisation des ressources computationnelles pendant la recherche tout en optimisant les objectifs multiples.
Accuracy-Latency Trade-off
Relation d'opposition fondamentale entre la précision de prédiction d'un modèle et sa vitesse d'inférence, centrale dans la NAS multi-objectifs.
Scalability-aware NAS
Approche de recherche d'architecture qui considère la capacité du modèle à s'adapter efficacement à différentes échelles de données et de calcul comme objectif.
Memory-efficient Architecture Search
Méthode NAS optimisant spécifiquement l'utilisation mémoire des architectures candidates, cruciale pour les déploiements sur dispositifs contraints.
Mobile-first Neural Architecture Search
Stratégie NAS conçue spécifiquement pour optimiser les architectures pour déploiement sur dispositifs mobiles avec contraintes multi-objectifs strictes.
Edge-computing Architecture Optimization
Processus d'optimisation d'architectures neurales spécifiquement adaptées aux contraintes et exigences de l'inference en edge computing.
Quantization-aware NAS
Approche NAS qui intègre les effets de la quantification dans le processus de recherche pour optimiser les performances post-quantification.
Pruning-integrated Architecture Search
Technique NAS qui incorpore les stratégies d'élagage (pruning) directement dans le processus de recherche pour optimiser la taille et l'efficacité.
Hypervolume Indicator
Métrique de qualité en optimisation multi-objectifs mesurant le volume couvert par le front de Pareto dans l'espace des objectifs.
Decomposition-based Multi-objective NAS
Méthode NAS transformant le problème multi-objectifs en plusieurs sous-problèmes mono-objectifs pour une optimisation plus efficace.
Adaptive Objective Weighting
Technique ajustant dynamiquement les poids des différents objectifs pendant la NAS pour améliorer l'exploration de l'espace de recherche.
Neural Architecture Transfer Learning
Approche utilisant les connaissances d'architectures optimisées pour un ensemble d'objectifs pour accélérer la recherche sur de nouveaux objectifs multi-objectifs.