🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

Teacher-Student Architecture

Framework où un modèle teacher entraîne un modèle student en transférant ses connaissances implicites via des soft targets et des régularisations.

📖
術語

Feature Map Distillation

Méthode de transfert des connaissances au niveau des représentations intermédiaires du modèle plutôt qu'au niveau des prédictions finales.

📖
術語

Attention Transfer

Transfert des cartes d'attention du teacher vers le student pour préserver les régions importantes identifiées par le modèle complexe.

📖
術語

Relation Knowledge Distillation

Approche préservant les relations structurelles entre les échantillons d'apprentissage plutôt que les connaissances individuelles.

📖
術語

Self-Distillation

Processus où un modèle s'auto-améliore en transférant ses connaissances vers une version plus profonde ou plus large de lui-même.

📖
術語

Progressive Distillation

Méthode itérative de distillation où le student devient progressivement le teacher pour des modèles encore plus compacts.

📖
術語

Online Knowledge Distillation

Approche où plusieurs modèles s'entraînent mutuellement en temps réel sans nécessiter de teacher pré-entraîné.

📖
術語

Cross-Domain Distillation

Technique de transfert de connaissances entre modèles opérant sur des domaines différents mais partageant des structures sous-jacentes similaires.

📖
術語

Lifelong Learning via Distillation

Application de la distillation pour préserver les connaissances acquises lors de l'apprentissage continu et éviter l'oubli catastrophique.

📖
術語

Ensemble Distillation

Compression d'un ensemble de modèles en un unique modèle compact préservant la diversité des connaissances collectives.

📖
術語

Neural Architecture Search with Distillation

Intégration de la distillation dans le processus NAS pour guider la recherche d'architectures efficaces préservant les performances.

📖
術語

Contrastive Knowledge Distillation

Approche utilisant des contrastes positifs et négatifs pour transférer des représentations discriminatives du teacher vers le student.

🔍

搵唔到結果