🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Federated Learning

Approche d'apprentissage distribué où les modèles ML s'entraînent localement sur des dispositifs edge sans partager les données brutes, seuls les mises à jour de modèle étant agrégées de manière centralisée.

📖
termes

Model Quantization

Technique de réduction de la précision numérique des poids et activations d'un modèle ML (typiquement de 32 bits à 8 bits) pour optimiser sa taille et son temps d'inférence sur dispositifs edge.

📖
termes

TinyML

Domaine spécialisé du machine learning focalisé sur le déploiement de modèles ultra-légers sur microcontrôleurs avec des contraintes extrêmes de mémoire (quelques Ko) et de consommation énergétique.

📖
termes

Edge Inference

Processus d'exécution des prédictions ML directement sur les dispositifs edge, éliminant ainsi la dépendance à des serveurs cloud et garantissant des temps de réponse sub-millisecondes.

📖
termes

On-Device Training

Capacité d'entraîner ou de ré-entraîner des modèles ML directement sur les dispositifs edge, permettant une adaptation continue en fonction des données locales sans transfert vers le cloud.

📖
termes

Edge Device Management

Ensemble des processus et outils permettant le déploiement, la surveillance, la maintenance et la mise à jour à distance de modèles ML sur des milliers de dispositifs edge distribués.

📖
termes

Continuous Edge Learning

Paradigme où les modèles edge s'améliorent continuellement à partir de nouvelles données locales, avec des mises à jour incrémentielles synchronisées périodiquement avec le cloud.

📖
termes

Bandwidth-Aware Training

Stratégie d'entraînement qui optimise la taille des mises à jour de modèle et la fréquence de synchronisation en fonction des contraintes de bande passante réseau disponibles.

📖
termes

Latency-Aware Deployment

Approche de déploiement qui sélectionne et optimise les architectures de modèles en fonction des exigences de latence spécifiques à chaque application edge critique.

📖
termes

Resource-Constrained ML

Branche du ML spécialisée dans le développement d'algorithmes et modèles optimisés pour fonctionner efficacement sous des contraintes strictes de CPU, mémoire et énergie.

📖
termes

Edge Model Versioning

Système de suivi des versions de modèles ML déployés sur les dispositifs edge, permettant des rollbacks rapides et une traçabilité complète des déploiements.

📖
termes

Edge-to-Cloud Orchestration

Architecture de coordination qui optimise la répartition des tâches ML entre edge et cloud en fonction des contraintes temps-réel, ressources disponibles et besoins de confidentialité.

📖
termes

On-Device Model Compression

Techniques appliquées directement sur le dispositif edge pour réduire dynamiquement la taille du modèle en fonction des conditions opérationnelles et de l'utilisation des ressources.

📖
termes

Edge Model Monitoring

Surveillance continue des performances et de la dérive des modèles ML en production sur les dispositifs edge, avec alertes et triggers pour ré-entraînement automatique.

📖
termes

Adaptive Edge Inference

Mécanisme qui ajuste dynamiquement la complexité du modèle d'inférence en fonction des ressources disponibles et des exigences de précision en temps réel.

📖
termes

Edge Model Synchronization

Processus de coordination des mises à jour de modèles entre dispositifs edge et serveur central, gérant les conflits et assurant la cohérence tout en minimisant le trafic réseau.

🔍

Aucun résultat trouvé