🏠 Home
Benchmark Hub
📊 All Benchmarks 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List Applications 🎨 Creative Free Pages 🎯 FSACB - Ultimate Showcase 🌍 Translation Benchmark
Models
🏆 Top 10 Models 🆓 Free Models 📋 All Models ⚙️ Kilo Code
Resources
💬 Prompts Library 📖 AI Glossary 🔗 Useful Links

AI Glossary

The complete dictionary of Artificial Intelligence

162
categories
2,032
subcategories
23,060
terms
📖
terms

SimSiam

Architecture d'apprentissage auto-supervisé sans échantillons négatifs qui prévient l'effondrement des représentations grâce à une opération stop-gradient.

📖
terms

Collapse des représentations

Phénomène où l'encodeur produit des représentations identiques pour toutes les entrées, éliminant ainsi toute information discriminative.

📖
terms

Prédiction de tête

Réseau neuronal MLP qui transforme les projections de l'encodeur en prédictions utilisées pour le calcul de la perte dans SimSiam.

📖
terms

Stop-Gradient

Opération qui bloque la propagation du gradient dans une branche du réseau, essentielle pour prévenir le collapse dans SimSiam.

📖
terms

Projecteur

Couche MLP qui projette les représentations de l'encodeur dans un espace où la similarité est calculée pour la perte.

📖
terms

Perte de similarité cosinus

Fonction de perte basée sur la similarité cosinus entre les prédictions et les projections arrêtées dans SimSiam.

📖
terms

Appariement positif

Processus d'alignement des représentations de différentes vues augmentées de la même image dans l'espace latent.

📖
terms

Collapse trivial

Solution dégénérée où toutes les représentations sont identiques, maximisant la similarité mais éliminant toute information utile.

📖
terms

Dimensionnalité latente

Espace de représentation de haute dimension où les caractéristiques apprises sont encodées par l'encodeur.

📖
terms

Architecture siamese

Structure réseau avec deux branches partageant les mêmes poids, utilisées pour traiter différentes vues augmentées simultanément.

📖
terms

Taux d'apprentissage par paliers

Stratégie d'optimisation où le taux d'apprentissage est réduit par paliers successifs pendant l'entraînement.

📖
terms

Normalisation par lots

Technique de normalisation qui stabilise l'entraînement en normalisant les activations sur chaque mini-batch.

📖
terms

Symétrisation de la perte

Calcul de la perte dans les deux directions (vue1 vers vue2 et vue2 vers vue1) pour améliorer la stabilité de l'entraînement.

🔍

No results found