🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📂
underkategorier

Descente de Gradient

Algorithme d'optimisation itératif qui suit la direction opposée du gradient pour minimiser une fonction.

3 termer
📂
underkategorier

Descente de Gradient Stochastique

Variante de la descente de gradient utilisant un échantillon aléatoire unique à chaque itération.

2 termer
📂
underkategorier

Mini-batch Gradient Descent

Compromis entre GD et SGD utilisant de petits lots d'exemples pour mettre à jour les paramètres.

2 termer
📂
underkategorier

Momentum

Technique accélérant la convergence en ajoutant une composante d'inertie aux mises à jour de gradient.

14 termer
📂
underkategorier

Nesterov Accelerated Gradient

Variante du momentum qui anticipe la position future pour des mises à jour plus précises.

10 termer
📂
underkategorier

Adagrad

Adaptatif du taux d'apprentissage basé sur la somme historique des carrés des gradients.

10 termer
📂
underkategorier

RMSprop

Méthode adaptative utilisant une moyenne mobile des carrés des gradients pour normaliser les mises à jour.

3 termer
📂
underkategorier

Adam Optimizer

Combinaison de momentum et RMSprop avec estimations adaptatives des moments premier et second.

6 termer
📂
underkategorier

AdamW

Variante d'Adam avec une régularisation L2 découplée pour de meilleures performances.

10 termer
📂
underkategorier

AdaDelta

Extension d'Adagrad limitant l'accumulation historique pour un taux d'apprentissage stable.

8 termer
📂
underkategorier

Méthodes de Newton

Algorithmes utilisant la matrice Hessienne pour une convergence quadratique locale.

16 termer
📂
underkategorier

BFGS et L-BFGS

Méthodes quasi-Newton approximant la Hessienne avec une mémoire limitée (L-BFGS).

13 termer
📂
underkategorier

Gradient Conjugué

Méthode itérative efficace pour les grands systèmes linéaires et l'optimisation non-linéaire.

10 termer
📂
underkategorier

Descente de Gradient Projetée

Technique pour l'optimisation sous contraintes en projetant sur l'ensemble admissible.

15 termer
📂
underkategorier

Méthodes Proximal Gradient

Algorithmes combinant descente de gradient et opérateur proximal pour fonctions non-lisses.

14 termer
🔍

Inga resultat hittades