🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📂
sous-catégories

Descente de Gradient

Algorithme d'optimisation itératif qui suit la direction opposée du gradient pour minimiser une fonction.

3 termes
📂
sous-catégories

Descente de Gradient Stochastique

Variante de la descente de gradient utilisant un échantillon aléatoire unique à chaque itération.

2 termes
📂
sous-catégories

Mini-batch Gradient Descent

Compromis entre GD et SGD utilisant de petits lots d'exemples pour mettre à jour les paramètres.

2 termes
📂
sous-catégories

Momentum

Technique accélérant la convergence en ajoutant une composante d'inertie aux mises à jour de gradient.

14 termes
📂
sous-catégories

Nesterov Accelerated Gradient

Variante du momentum qui anticipe la position future pour des mises à jour plus précises.

10 termes
📂
sous-catégories

Adagrad

Adaptatif du taux d'apprentissage basé sur la somme historique des carrés des gradients.

10 termes
📂
sous-catégories

RMSprop

Méthode adaptative utilisant une moyenne mobile des carrés des gradients pour normaliser les mises à jour.

3 termes
📂
sous-catégories

Adam Optimizer

Combinaison de momentum et RMSprop avec estimations adaptatives des moments premier et second.

6 termes
📂
sous-catégories

AdamW

Variante d'Adam avec une régularisation L2 découplée pour de meilleures performances.

10 termes
📂
sous-catégories

AdaDelta

Extension d'Adagrad limitant l'accumulation historique pour un taux d'apprentissage stable.

8 termes
📂
sous-catégories

Méthodes de Newton

Algorithmes utilisant la matrice Hessienne pour une convergence quadratique locale.

16 termes
📂
sous-catégories

BFGS et L-BFGS

Méthodes quasi-Newton approximant la Hessienne avec une mémoire limitée (L-BFGS).

13 termes
📂
sous-catégories

Gradient Conjugué

Méthode itérative efficace pour les grands systèmes linéaires et l'optimisation non-linéaire.

10 termes
📂
sous-catégories

Descente de Gradient Projetée

Technique pour l'optimisation sous contraintes en projetant sur l'ensemble admissible.

15 termes
📂
sous-catégories

Méthodes Proximal Gradient

Algorithmes combinant descente de gradient et opérateur proximal pour fonctions non-lisses.

14 termes
🔍

Aucun résultat trouvé