🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📂
उप-श्रेणियाँ

Stochastic Gradient Descent (SGD)

Algorithme d'optimisation de base qui met à jour les paramètres en utilisant un échantillon aléatoire à chaque itération.

7 शब्द
📂
उप-श्रेणियाँ

Mini-batch Gradient Descent

Variante du SGD qui utilise de petits lots d'échantillons pour équilibrer variance et efficacité computationnelle.

3 शब्द
📂
उप-श्रेणियाँ

Momentum-based Optimization

Techniques incorporant une inertie pour accélérer la convergence et réduire les oscillations dans les vallées étroites.

14 शब्द
📂
उप-श्रेणियाँ

Adaptive Learning Rate Methods

Algorithmes comme Adam et RMSprop qui ajustent dynamiquement le taux d'apprentissage pour chaque paramètre.

9 शब्द
📂
उप-श्रेणियाँ

Variance Reduction Techniques

Méthodes comme SVRG et SAGA qui réduisent la variance des estimations de gradient pour améliorer la convergence.

14 शब्द
📂
उप-श्रेणियाँ

Distributed SGD

Approches parallélisant le SGD sur plusieurs machines pour accélérer l'entraînement de modèles à grande échelle.

9 शब्द
📂
उप-श्रेणियाँ

Non-convex Optimization

Techniques spécialisées pour l'optimisation de fonctions non-convexes typiques dans les réseaux de neurones profonds.

13 शब्द
📂
उप-श्रेणियाँ

Learning Rate Scheduling

Stratégies d'ajustement du taux d'apprentissage pendant l'entraînement pour optimiser la convergence.

13 शब्द
📂
उप-श्रेणियाँ

Second-order Stochastic Methods

Algorithmes utilisant des informations de deuxième ordre approximatives pour accélérer la convergence.

14 शब्द
📂
उप-श्रेणियाँ

Federated Learning Optimization

Méthodes SGD adaptées pour l'entraînement distribué préservant la confidentialité sur des données décentralisées.

3 शब्द
📂
उप-श्रेणियाँ

Robust Stochastic Optimization

Techniques rendant l'optimisation résiliente aux données bruitées et aux attaques adversariales.

3 शब्द
📂
उप-श्रेणियाँ

Online Learning Optimization

Variantes SGD adaptées aux scénarios où les données arrivent séquentiellement et nécessitent des mises à jour continues.

6 शब्द
🔍

कोई परिणाम नहीं मिला