🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

Federated Learning

Approche d'apprentissage distribué où les modèles ML s'entraînent localement sur des dispositifs edge sans partager les données brutes, seuls les mises à jour de modèle étant agrégées de manière centralisée.

📖
術語

Model Quantization

Technique de réduction de la précision numérique des poids et activations d'un modèle ML (typiquement de 32 bits à 8 bits) pour optimiser sa taille et son temps d'inférence sur dispositifs edge.

📖
術語

TinyML

Domaine spécialisé du machine learning focalisé sur le déploiement de modèles ultra-légers sur microcontrôleurs avec des contraintes extrêmes de mémoire (quelques Ko) et de consommation énergétique.

📖
術語

Edge Inference

Processus d'exécution des prédictions ML directement sur les dispositifs edge, éliminant ainsi la dépendance à des serveurs cloud et garantissant des temps de réponse sub-millisecondes.

📖
術語

On-Device Training

Capacité d'entraîner ou de ré-entraîner des modèles ML directement sur les dispositifs edge, permettant une adaptation continue en fonction des données locales sans transfert vers le cloud.

📖
術語

Edge Device Management

Ensemble des processus et outils permettant le déploiement, la surveillance, la maintenance et la mise à jour à distance de modèles ML sur des milliers de dispositifs edge distribués.

📖
術語

Continuous Edge Learning

Paradigme où les modèles edge s'améliorent continuellement à partir de nouvelles données locales, avec des mises à jour incrémentielles synchronisées périodiquement avec le cloud.

📖
術語

Bandwidth-Aware Training

Stratégie d'entraînement qui optimise la taille des mises à jour de modèle et la fréquence de synchronisation en fonction des contraintes de bande passante réseau disponibles.

📖
術語

Latency-Aware Deployment

一种部署方法,根据每个关键边缘应用的特定延迟要求,来选择和优化模型架构。

📖
術語

Resource-Constrained ML

机器学习的一个分支,专注于开发在严格的CPU、内存和能耗限制下仍能高效运行的算法和模型。

📖
術語

Edge Model Versioning

对部署在边缘设备上的机器学习模型进行版本跟踪的系统,支持快速回滚和部署的完全可追溯性。

📖
術語

Edge-to-Cloud Orchestration

一种协调架构,根据实时约束、可用资源和隐私需求,优化机器学习任务在边缘和云之间的分配。

📖
術語

On-Device Model Compression

直接在边缘设备上应用的技术,根据操作条件和资源使用情况动态减小模型尺寸。

📖
術語

Edge Model Monitoring

对部署在边缘设备上的生产环境机器学习模型的性能和漂移进行持续监控,并提供告警和自动重新训练触发器。

📖
術語

Adaptive Edge Inference

一种根据可用资源和实时精度要求,动态调整推理模型复杂度的机制。

📖
術語

Edge Model Synchronization

协调边缘设备与中央服务器之间模型更新的过程,负责处理冲突并确保一致性,同时最小化网络流量。

🔍

搵唔到結果