🏠 Beranda
Benchmark
📊 Semua Benchmark 🦖 Dinosaurus v1 🦖 Dinosaurus v2 ✅ Aplikasi To-Do List 🎨 Halaman Bebas Kreatif 🎯 FSACB - Showcase Utama 🌍 Benchmark Terjemahan
Model
🏆 Top 10 Model 🆓 Model Gratis 📋 Semua Model ⚙️ Kilo Code
Sumber Daya
💬 Perpustakaan Prompt 📖 Glosarium AI 🔗 Tautan Berguna

Glosarium AI

Kamus lengkap Kecerdasan Buatan

162
kategori
2.032
subkategori
23.060
istilah
📖
istilah

Accumulation Historique

Processus consistant à stocker et cumuler les informations des gradients passés pour adapter dynamiquement les taux d'apprentissage. Dans AdaDelta, cette accumulation est limitée à une fenêtre glissante pour éviter la décroissance infinie du taux d'apprentissage.

📖
istilah

Facteur de Décroissance

Paramètre (typiquement entre 0.9 et 0.999) contrôlant la vitesse à laquelle l'influence des gradients passés diminue exponentiellement. Ce facteur détermine la taille effective de la fenêtre glissante dans les algorithmes adaptatifs comme AdaDelta.

📖
istilah

Normalisation du Gradient

Processus de mise à l'échelle des gradients en utilisant des statistiques historiques pour stabiliser l'entraînement. AdaDelta normalise les gradients en les divisant par la racine carrée de la moyenne mobile de leurs carrés.

📖
istilah

Unités Consistantes

Principe fondamental d'AdaDelta où les mises à jour ont les mêmes unités que les paramètres, éliminant le besoin d'un taux d'apprentissage global. Cette approche utilise le ratio entre les moyennes mobiles des mises à jour passées et des gradients actuels.

📖
istilah

Mise à Échelle des Paramètres

Processus d'ajustement dynamique de l'amplitude des mises à jour pour chaque paramètre en fonction de leur historique de gradients. AdaDelta utilise la moyenne mobile des mises à jour passées pour déterminer cette échelle adaptative.

📖
istilah

Conditions de Convergence

Critères mathématiques garantissant qu'un algorithme d'optimisation atteindra un optimum local ou global. Les algorithmes adaptatifs comme AdaDelta modifient ces conditions en changeant dynamiquement la direction et la magnitude des pas d'optimisation.

📖
istilah

État d'Optimisation

Informations supplémentaires stockées par les algorithmes adaptatifs pour calculer les mises à jour futures. AdaDelta maintient deux états : la moyenne mobile des carrés des gradients et celle des carrés des mises à jour.

📖
istilah

Hyperparamètre de Rho

Paramètre unique d'AdaDelta (généralement fixé à 0.95) contrôlant la vitesse de décroissance exponentielle de la fenêtre glissante. Ce paramètre détermine l'équilibre entre information récente et historique dans les calculs de mise à jour.

🔍

Tidak ada hasil ditemukan