Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Federated Learning
Approche d'apprentissage distribué où les modèles ML s'entraînent localement sur des dispositifs edge sans partager les données brutes, seuls les mises à jour de modèle étant agrégées de manière centralisée.
Model Quantization
Technique de réduction de la précision numérique des poids et activations d'un modèle ML (typiquement de 32 bits à 8 bits) pour optimiser sa taille et son temps d'inférence sur dispositifs edge.
TinyML
Domaine spécialisé du machine learning focalisé sur le déploiement de modèles ultra-légers sur microcontrôleurs avec des contraintes extrêmes de mémoire (quelques Ko) et de consommation énergétique.
Edge Inference
Processus d'exécution des prédictions ML directement sur les dispositifs edge, éliminant ainsi la dépendance à des serveurs cloud et garantissant des temps de réponse sub-millisecondes.
On-Device Training
Capacité d'entraîner ou de ré-entraîner des modèles ML directement sur les dispositifs edge, permettant une adaptation continue en fonction des données locales sans transfert vers le cloud.
Edge Device Management
Ensemble des processus et outils permettant le déploiement, la surveillance, la maintenance et la mise à jour à distance de modèles ML sur des milliers de dispositifs edge distribués.
Continuous Edge Learning
Paradigme où les modèles edge s'améliorent continuellement à partir de nouvelles données locales, avec des mises à jour incrémentielles synchronisées périodiquement avec le cloud.
Bandwidth-Aware Training
Stratégie d'entraînement qui optimise la taille des mises à jour de modèle et la fréquence de synchronisation en fonction des contraintes de bande passante réseau disponibles.
Latency-Aware Deployment
Approche de déploiement qui sélectionne et optimise les architectures de modèles en fonction des exigences de latence spécifiques à chaque application edge critique.
Resource-Constrained ML
Branche du ML spécialisée dans le développement d'algorithmes et modèles optimisés pour fonctionner efficacement sous des contraintes strictes de CPU, mémoire et énergie.
Edge Model Versioning
Système de suivi des versions de modèles ML déployés sur les dispositifs edge, permettant des rollbacks rapides et une traçabilité complète des déploiements.
Edge-to-Cloud Orchestration
Architecture de coordination qui optimise la répartition des tâches ML entre edge et cloud en fonction des contraintes temps-réel, ressources disponibles et besoins de confidentialité.
On-Device Model Compression
Techniques appliquées directement sur le dispositif edge pour réduire dynamiquement la taille du modèle en fonction des conditions opérationnelles et de l'utilisation des ressources.
Edge Model Monitoring
Surveillance continue des performances et de la dérive des modèles ML en production sur les dispositifs edge, avec alertes et triggers pour ré-entraînement automatique.
Adaptive Edge Inference
Mécanisme qui ajuste dynamiquement la complexité du modèle d'inférence en fonction des ressources disponibles et des exigences de précision en temps réel.
Edge Model Synchronization
Processus de coordination des mises à jour de modèles entre dispositifs edge et serveur central, gérant les conflits et assurant la cohérence tout en minimisant le trafic réseau.