🏠 होम
बेंचमार्क
📊 सभी बेंचमार्क 🦖 डायनासोर v1 🦖 डायनासोर v2 ✅ टू-डू लिस्ट ऐप्स 🎨 रचनात्मक फ्री पेज 🎯 FSACB - अल्टीमेट शोकेस 🌍 अनुवाद बेंचमार्क
मॉडल
🏆 टॉप 10 मॉडल 🆓 मुफ्त मॉडल 📋 सभी मॉडल ⚙️ किलो कोड
संसाधन
💬 प्रॉम्प्ट लाइब्रेरी 📖 एआई शब्दावली 🔗 उपयोगी लिंक

एआई शब्दावली

आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश

179
श्रेणियाँ
1,183
उप-श्रेणियाँ
14,904
शब्द
📖
शब्द

Optimisation Bayésienne Parallèle

Extension de l'optimisation bayésienne où plusieurs points sont évalués simultanément en parallèle, réduisant le temps total d'optimisation en exploitant des ressources de calcul distribuées.

📖
शब्द

Acquisition en Batch

Stratégie de sélection d'un lot de points à évaluer simultanément, basée sur une fonction d'acquisition qui optimise un critère de performance global sur l'ensemble du lot plutôt que sur un seul point.

📖
शब्द

GP-UCB en Batch

Variante de l'algorithme GP-UCB (Gaussian Process Upper Confidence Bound) adaptée pour la sélection simultanée de plusieurs points, en maximisant une borne supérieure sur la somme des récompenses attendues du lot.

📖
शब्द

Thompson Sampling Parallèle

Méthode d'acquisition en batch où plusieurs échantillons sont tirés de la distribution a posteriori du modèle, et les points correspondants aux maxima de ces échantillons sont évalués en parallèle.

📖
शब्द

Kriging Believer

Heuristique d'acquisition séquentielle en batch où chaque point suivant est sélectionné en supposant que les évaluations précédentes du lot sont égales à leurs prédictions par le modèle (le 'believer').

📖
शब्द

Local Penalisation

Technique d'acquisition en batch qui pénalise la sélection de points proches de ceux déjà choisis dans le lot actuel, en modifiant la fonction d'acquisition pour encourager la diversité spatiale des évaluations.

📖
शब्द

q-EI (Expected Improvement en quantité)

Généralisation de l'Expected Improvement pour l'optimisation en batch, calculant l'amélioration attendue sur un ensemble de q points simultanément, tenant compte de leur corrélation jointe.

📖
शब्द

Max-Value Entropy Search (MVES)

Méthode d'acquisition qui cible la réduction de l'incertitude sur la valeur maximale de la fonction, adaptée pour l'évaluation parallèle en sélectionnant les points qui maximisent l'information mutuelle sur ce maximum.

📖
शब्द

Multi-Armed Bandit Parallèle

Cadre d'optimisation où plusieurs bras (configurations) sont tirés simultanément à chaque tour, appliqué à l'optimisation bayésienne pour accélérer l'exploration-exploitation avec des évaluations parallèles.

📖
शब्द

Asynchrone BO

Approche d'optimisation bayésienne où le modèle est mis à jour et de nouveaux points sont choisis dès qu'une évaluation se termine, sans attendre la fin de toutes les évaluations en cours pour maximiser l'utilisation des ressources.

📖
शब्द

Fantôme Optimal (Phantom Optimal)

Concept dans l'acquisition en batch où un point optimal hypothétique est utilisé pour guider la sélection des autres points du lot, en pénalisant les points qui seraient optimaux si ce fantôme existait.

📖
शब्द

KB (Knowledge Gradient) en Batch

Extension du Knowledge Gradient pour l'optimisation parallèle, évaluant le gain d'information attendu d'un lot de points sur la prise de décision finale, en tenant compte des corrélations entre ces points.

📖
शब्द

Corrélation d'Acquisition en Batch

Mesure de la dépendance statistique entre les valeurs de la fonction d'acquisition pour différents points candidats dans un lot, cruciale pour éviter la redondance et maximiser l'efficacité de l'optimisation parallèle.

📖
शब्द

Diversité en Batch

Principe guidant la sélection de lots de points à évaluer simultanément, visant à maximiser la dispersion spatiale ou informationnelle des points pour couvrir efficacement l'espace de recherche.

📖
शब्द

Parallélisme Interne vs Externe

Distinction entre le parallélisme interne (évaluation parallèle des points au sein d'une seule itération) et externe (exécution de plusieurs itérations séquentielles en parallèle sur des ressources différentes).

📖
शब्द

Heuristique de Constant Liar

Stratégie d'acquisition en batch où les points déjà sélectionnés dans le lot sont supposés avoir une valeur constante (ex: la meilleure valeur observée) lors de la sélection des points suivants, pour simplifier le calcul.

📖
शब्द

GP-BUCB (Gaussian Process Batch Upper Confidence Bound)

Algorithme d'acquisition en batch qui étend le principe UCB à la sélection simultanée de plusieurs points, en équilibrant exploration et exploitation au niveau du lot plutôt que du point individuel.

📖
शब्द

Multi-Point Expected Improvement (MP-EI)

Variante de l'Expected Improvement qui calcule l'amélioration attendue pour un ensemble de points, souvent en utilisant des approximations de la distribution du maximum de ces points pour la sélection en batch.

📖
शब्द

Sequential Kriging Optimizer (SKO) Parallèle

Adaptation de l'optimiseur SKO pour les évaluations parallèles, utilisant des stratégies comme le Kriging Believer ou la Local Penalisation pour construire des lots de points efficaces.

📖
शब्द

Information-Theoretic Acquisition en Batch

Classe de fonctions d'acquisition en batch basées sur la théorie de l'information, comme l'Entropy Search ou le MES, qui visent à maximiser l'information gagnée sur la distribution de l'optimum global à partir d'un lot d'évaluations.

🔍

कोई परिणाम नहीं मिला