🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Vue de données

Représentation distincte des mêmes données utilisée en co-training, où chaque vue fournit des informations complémentaires pour l'apprentissage. Les vues doivent être statistiquement indépendantes conditionnellement à la classe pour garantir l'efficacité du co-training.

📖
个术语

Classifieur

Modèle algorithmique chargé d'assigner des étiquettes de classe aux données d'entrée selon des critères pré-définis. En co-training, les classifieurs travaillent en collaboration pour améliorer mutuellement leurs performances.

📖
个术语

Étiquetage automatique

Processus par lequel un algorithme assigne des étiquettes aux données non étiquetées sans intervention humaine directe. En co-training, cet étiquetage est basé sur la confiance des classifieurs dans leurs prédictions.

📖
个术语

Échantillonnage d'instances

Méthode de sélection des exemples non étiquetés à ajouter à l'ensemble d'entraînement basée sur leur score de confiance. Les instances les plus fiables sont choisies pour enrichir progressivement l'ensemble d'apprentissage.

📖
个术语

Divergence de classifieurs

Principe fondamental du co-training où les classifieurs doivent faire des erreurs différentes pour être complémentaires. Cette divergence maximise l'information mutuelle et améliore la robustesse du système global.

📖
个术语

Pool de données non étiquetées

Ensemble de données sans étiquettes utilisé par les algorithmes de co-training pour enrichir l'ensemble d'entraînement initial. Ces données sont progressivement étiquetées à mesure que les classifieurs gagnent en confiance.

📖
个术语

Seuil de confiance

Valeur numérique déterminant le niveau de confiance minimum requis pour qu'un classifieur étiquette une instance non étiquetée. Ce seuil crucial équilibre entre l'ajout de nouvelles données et le risque d'introduire du bruit.

📖
个术语

Co-EM

Variante du co-training inspirée de l'algorithme Expectation-Maximization où les classifieurs s'alternent dans les phases E et M. Chaque classifieur estime les étiquettes manquantes puis optimise ses paramètres sur ces estimations.

📖
个术语

Democratic co-learning

Méthode où plusieurs classifieurs votent démocratiquement pour décider de l'étiquetage des nouvelles instances. Chaque classifieur peut utiliser différentes vues ou algorithmes, favorisant la diversité des prédictions.

📖
个术语

Single-view co-training

Variante du co-training qui fonctionne avec une seule vue des données en créant artificiellement des vues multiples. Cette approche utilise des sous-ensembles de features ou différentes instances du même algorithme.

📖
个术语

Label propagation

Technique semi-supervisée où les étiquettes se propagent à travers un graphe de similarité entre les instances. Complémentaire au co-training, elle peut être utilisée pour initialiser ou raffiner les étiquettes.

📖
个术语

Weak supervision

Paradigme d'apprentissage utilisant des étiquettes imprécises, incomplètes ou bruitées pour entraîner des modèles. Le co-training s'inscrit dans ce cadre en générant progressivement des étiquettes de meilleure qualité.

📖
个术语

Graph-based co-training

Approche combinant co-training et méthodes basées sur graphes pour exploiter la structure des données. Les nœuds du graphe représentent les instances et les arêtes encodent leurs similarités.

📖
个术语

Co-forest

Algorithme de co-training basé sur les random forests où plusieurs arbres de décision s'entraînent mutuellement. Chaque arbre utilise un sous-ensemble aléatoire de features, créant naturellement des vues différentes.

📖
个术语

Confidence-based sampling

Stratégie de sélection des instances non étiquetées basée sur les scores de probabilité des classifieurs. Seules les instances dépassant un certain seuil de confiance sont ajoutées à l'ensemble d'entraînement.

📖
个术语

Multi-view consistency

Principe selon lequel les prédictions des classifieurs sur différentes vues des mêmes données doivent être cohérentes. Cette hypothèse sous-tend l'efficacité des méthodes de co-training en apprentissage semi-supervisé.

🔍

未找到结果