🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki

Słownik AI

Kompletny słownik sztucznej inteligencji

162
kategorie
2 032
podkategorie
23 060
pojęcia
📖
pojęcia

Consistency Learning

Technique d'apprentissage semi-supervisé qui force un modèle à produire des prédictions cohérentes lorsque le même échantillon subit différentes transformations ou augmentations de données.

📖
pojęcia

Temporal Ensembling

Méthode qui maintient des moyennes exponentielles des prédictions du modèle à travers les époques pour créer des cibles d'entraînement plus stables.

📖
pojęcia

Virtual Adversarial Training

Technique générant des perturbations adversaires sur les entrées non étiquetées pour maximiser la divergence de prédictions, puis utilisant cette divergence comme signal de régularisation.

📖
pojęcia

UDA (Unsupervised Data Augmentation)

Framework semi-supervisé combinant augmentation forte pour les données non étiquetées et seuillage de confiance pour filtrer les prédictions de faible qualité.

📖
pojęcia

FixMatch

Algorithme unifié appliquant une augmentation faible et forte aux données non étiquetées, ne conservant que les prédictions à haute confiance comme cibles d'apprentissage.

📖
pojęcia

Consistency Loss

Fonction de perte mesurant la divergence entre les prédictions sur différentes augmentations du même échantillon, typiquement utilisant KL divergence ou MSE.

📖
pojęcia

Strong Augmentation

Transformations radicales appliquées aux données non étiquetées (RandAugment, CTAugment) pour tester la robustesse du modèle et améliorer la généralisation.

📖
pojęcia

Weak Augmentation

Transformations légères appliquées aux données étiquetées (flip, crop) pour créer des variations subtiles tout en préservant le label original.

📖
pojęcia

Confidence Threshold

Seuil probabiliste τ utilisé pour filtrer les pseudo-labels de faible confiance, généralement fixé entre 0.8 et 0.95 selon le dataset.

📖
pojęcia

Entropy Minimization

Principe encourageant les prédictions sur les données non étiquetées à avoir une entropie faible, favorisant des décisions plus confiantes et moins incertaines.

📖
pojęcia

Ramp-up Schedule

Fonction temporelle augmentant progressivement le poids de la perte de consistance au début de l'entraînement pour éviter les minima locaux suboptimaux.

📖
pojęcia

CTAugment

Politique d'augmentation contrôlée par la consistance où les transformations sont sélectionnées dynamiquement basées sur leur capacité à maintenir la cohérence des prédictions.

📖
pojęcia

Sharpening

Opération appliquée aux distributions de probabilité pour accentuer les prédictions de haute confiance et réduire l'incertitude dans l'apprentissage par cohérence.

📖
pojęcia

EMA (Exponential Moving Average)

Mécanisme de mise à jour lente des poids du modèle enseignant, utilisant α = 0.99 comme paramètre typique pour créer des cibles d'entraînement stables.

🔍

Nie znaleziono wyników