🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📂
उप-श्रेणियाँ

Descente de Gradient

Algorithme d'optimisation itératif qui suit la direction opposée du gradient pour minimiser une fonction.

3 शब्द
📂
उप-श्रेणियाँ

Descente de Gradient Stochastique

Variante de la descente de gradient utilisant un échantillon aléatoire unique à chaque itération.

2 शब्द
📂
उप-श्रेणियाँ

Mini-batch Gradient Descent

Compromis entre GD et SGD utilisant de petits lots d'exemples pour mettre à jour les paramètres.

2 शब्द
📂
उप-श्रेणियाँ

Momentum

Technique accélérant la convergence en ajoutant une composante d'inertie aux mises à jour de gradient.

14 शब्द
📂
उप-श्रेणियाँ

Nesterov Accelerated Gradient

Variante du momentum qui anticipe la position future pour des mises à jour plus précises.

10 शब्द
📂
उप-श्रेणियाँ

Adagrad

Adaptatif du taux d'apprentissage basé sur la somme historique des carrés des gradients.

10 शब्द
📂
उप-श्रेणियाँ

RMSprop

Méthode adaptative utilisant une moyenne mobile des carrés des gradients pour normaliser les mises à jour.

3 शब्द
📂
उप-श्रेणियाँ

Adam Optimizer

Combinaison de momentum et RMSprop avec estimations adaptatives des moments premier et second.

6 शब्द
📂
उप-श्रेणियाँ

AdamW

Variante d'Adam avec une régularisation L2 découplée pour de meilleures performances.

10 शब्द
📂
उप-श्रेणियाँ

AdaDelta

Extension d'Adagrad limitant l'accumulation historique pour un taux d'apprentissage stable.

8 शब्द
📂
उप-श्रेणियाँ

Méthodes de Newton

Algorithmes utilisant la matrice Hessienne pour une convergence quadratique locale.

16 शब्द
📂
उप-श्रेणियाँ

BFGS et L-BFGS

Méthodes quasi-Newton approximant la Hessienne avec une mémoire limitée (L-BFGS).

13 शब्द
📂
उप-श्रेणियाँ

Gradient Conjugué

Méthode itérative efficace pour les grands systèmes linéaires et l'optimisation non-linéaire.

10 शब्द
📂
उप-श्रेणियाँ

Descente de Gradient Projetée

Technique pour l'optimisation sous contraintes en projetant sur l'ensemble admissible.

15 शब्द
📂
उप-श्रेणियाँ

Méthodes Proximal Gradient

Algorithmes combinant descente de gradient et opérateur proximal pour fonctions non-lisses.

14 शब्द
🔍

कोई परिणाम नहीं मिला