🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📖
शब्द

Momentum de Nesterov

Variante de l'algorithme de momentum qui applique une correction anticipée en calculant le gradient à la position future estimée, accélérant la convergence et réduisant les oscillations.

📖
शब्द

Adam (Adaptive Moment Estimation)

Algorithme d'optimisation combinant les idées de Momentum et RMSprop, utilisant des estimations des premier et second moments des gradients pour adapter les taux d'apprentissage de chaque paramètre.

📖
शब्द

AdaGrad

Optimiseur adaptatif qui ajuste le taux d'apprentissage de chaque paramètre en fonction de la somme historique des carrés de ses gradients, favorisant les paramètres peu fréquents.

📖
शब्द

AdaDelta

Extension d'AdaGrad qui limite la fenêtre d'accumulation des gradients passés à une taille fixe via une moyenne mobile glissante, évitant la décroissance agressive du taux d'apprentissage.

📖
शब्द

Decay du Taux d'Apprentissage

Stratégie de réduction progressive du taux d'apprentissage durant l'entraînement, souvent selon un calendrier prédéfini (step, exponential ou cosine), pour affiner la convergence vers un minimum.

📖
शब्द

Optimiseur LAMB (Layer-wise Adaptive Moments)

Algorithme d'optimisation conçu pour l'entraînement à grande échelle, adaptant le taux d'apprentissage par couche en utilisant la norme des poids et des gradients, efficace pour les très gros lots de données.

📖
शब्द

Optimiseur LARS (Layer-wise Adaptive Rate Scaling)

Méthode d'optimisation qui adapte le taux d'apprentissage pour chaque couche en fonction du ratio entre la norme des poids et la norme des gradients, particulièrement adaptée à l'entraînement avec de grands lots.

📖
शब्द

Lookahead Optimizer

Mécanisme d'optimisation qui met à jour périodiquement les poids 'lents' vers la moyenne des poids 'rapides' générés par un optimiseur interne, améliorant la généralisation et la stabilité de la convergence.

📖
शब्द

RAdam (Rectified Adam)

Variante d'Adam qui corrige la variance de l'adaptation du taux d'apprentissage dans les premières étapes de l'entraînement, offrant une convergence plus stable sans nécessiter de phase de warmup.

📖
शब्द

SWATS (Switching from Adam to SGD)

Stratégie qui commence l'entraînement avec un optimiseur adaptatif comme Adam pour une convergence rapide, puis bascule vers la Descente de Gradient Stochastique (SGD) pour une meilleure généralisation.

📖
शब्द

Optimiseur Yogi

Modification d'Adam visant à fournir une convergence plus stable en utilisant une mise à jour du second moment moins agressive, réduisant les oscillations et améliorant les performances sur les tâches complexes.

📖
शब्द

Shampoo

Optimiseur d'ordre deux qui préconditionne les gradients en utilisant des approximations de la matrice de Hessienne par blocs, accélérant la convergence pour les problèmes mal conditionnés.

📖
शब्द

Redécoupage du Taux d'Apprentissage (Learning Rate Restart)

Technique cyclique où le taux d'apprentissage est périodiquement réinitialisé à sa valeur initiale, permettant au modèle d'échapper à des minima locaux et d'explorer de nouvelles régions de l'espace des solutions.

🔍

कोई परिणाम नहीं मिला