🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Teacher-Student Architecture

Framework où un modèle teacher entraîne un modèle student en transférant ses connaissances implicites via des soft targets et des régularisations.

📖
个术语

Feature Map Distillation

Méthode de transfert des connaissances au niveau des représentations intermédiaires du modèle plutôt qu'au niveau des prédictions finales.

📖
个术语

Attention Transfer

Transfert des cartes d'attention du teacher vers le student pour préserver les régions importantes identifiées par le modèle complexe.

📖
个术语

Relation Knowledge Distillation

Approche préservant les relations structurelles entre les échantillons d'apprentissage plutôt que les connaissances individuelles.

📖
个术语

Self-Distillation

Processus où un modèle s'auto-améliore en transférant ses connaissances vers une version plus profonde ou plus large de lui-même.

📖
个术语

Progressive Distillation

Méthode itérative de distillation où le student devient progressivement le teacher pour des modèles encore plus compacts.

📖
个术语

Online Knowledge Distillation

Approche où plusieurs modèles s'entraînent mutuellement en temps réel sans nécessiter de teacher pré-entraîné.

📖
个术语

Cross-Domain Distillation

Technique de transfert de connaissances entre modèles opérant sur des domaines différents mais partageant des structures sous-jacentes similaires.

📖
个术语

Lifelong Learning via Distillation

Application de la distillation pour préserver les connaissances acquises lors de l'apprentissage continu et éviter l'oubli catastrophique.

📖
个术语

Ensemble Distillation

Compression d'un ensemble de modèles en un unique modèle compact préservant la diversité des connaissances collectives.

📖
个术语

Neural Architecture Search with Distillation

Intégration de la distillation dans le processus NAS pour guider la recherche d'architectures efficaces préservant les performances.

📖
个术语

Contrastive Knowledge Distillation

Approche utilisant des contrastes positifs et négatifs pour transférer des représentations discriminatives du teacher vers le student.

🔍

未找到结果