Глоссарий ИИ
Полный словарь искусственного интеллекта
Optimisation Bayésienne Parallèle
Extension de l'optimisation bayésienne où plusieurs points sont évalués simultanément en parallèle, réduisant le temps total d'optimisation en exploitant des ressources de calcul distribuées.
Acquisition en Batch
Stratégie de sélection d'un lot de points à évaluer simultanément, basée sur une fonction d'acquisition qui optimise un critère de performance global sur l'ensemble du lot plutôt que sur un seul point.
GP-UCB en Batch
Variante de l'algorithme GP-UCB (Gaussian Process Upper Confidence Bound) adaptée pour la sélection simultanée de plusieurs points, en maximisant une borne supérieure sur la somme des récompenses attendues du lot.
Thompson Sampling Parallèle
Méthode d'acquisition en batch où plusieurs échantillons sont tirés de la distribution a posteriori du modèle, et les points correspondants aux maxima de ces échantillons sont évalués en parallèle.
Kriging Believer
Heuristique d'acquisition séquentielle en batch où chaque point suivant est sélectionné en supposant que les évaluations précédentes du lot sont égales à leurs prédictions par le modèle (le 'believer').
Local Penalisation
Technique d'acquisition en batch qui pénalise la sélection de points proches de ceux déjà choisis dans le lot actuel, en modifiant la fonction d'acquisition pour encourager la diversité spatiale des évaluations.
q-EI (Expected Improvement en quantité)
Généralisation de l'Expected Improvement pour l'optimisation en batch, calculant l'amélioration attendue sur un ensemble de q points simultanément, tenant compte de leur corrélation jointe.
Max-Value Entropy Search (MVES)
Méthode d'acquisition qui cible la réduction de l'incertitude sur la valeur maximale de la fonction, adaptée pour l'évaluation parallèle en sélectionnant les points qui maximisent l'information mutuelle sur ce maximum.
Параллельный Многорукий Бандит
Фреймворк оптимизации, где несколько манипуляторов (конфигураций) тянутся одновременно на каждом шаге, применяемый к байесовской оптимизации для ускорения исследования-эксплуатации с параллельными оценками.
Асинхронная BO (Байесовская Оптимизация)
Подход байесовской оптимизации, где модель обновляется и новые точки выбираются сразу после завершения оценки, без ожидания завершения всех текущих оценок для максимизации использования ресурсов.
Оптимальный Фантом (Phantom Optimal)
Концепция в пакетном приобретении, где гипотетическая оптимальная точка используется для управления выбором других точек пакета, штрафуя точки, которые были бы оптимальными, если бы этот фантом существовал.
KB (Градиент Знаний) в Пакете
Расширение Градиента Знаний для параллельной оптимизации, оценивающее ожидаемый прирост информации от пакета точек для принятия окончательного решения с учетом корреляций между этими точками.
Корреляция Приобретения в Пакете
Мера статистической зависимости между значениями функции приобретения для различных точек-кандидатов в пакете, критическая для избежания избыточности и максимизации эффективности параллельной оптимизации.
Разнообразие в Пакете
Принцип, направляющий выбор пакетов точек для одновременной оценки, нацеленный на максимизацию пространственного или информационного разброса точек для эффективного покрытия пространства поиска.
Параллелизм Внутренний vs Внешний
Различие между внутренним параллелизмом (параллельная оценка точек в рамках одной итерации) и внешним (параллельное выполнение нескольких последовательных итераций на разных ресурсах).
Эвристика Постоянного Обманщика
Стратегия пакетного приобретения, где точки, уже выбранные в пакете, предполагаются имеющими постоянное значение (например, лучшее наблюдаемое значение) при выборе следующих точек для упрощения вычислений.
GP-BUCB (Gaussian Process Batch Upper Confidence Bound)
Алгоритм пакетного выбора, который расширяет принцип UCB для одновременного выбора нескольких точек, балансируя исследование и эксплуатацию на уровне пакета, а не отдельной точки.
Multi-Point Expected Improvement (MP-EI)
Вариант Ожидаемого Улучшения, который вычисляет ожидаемое улучшение для набора точек, часто используя аппроксимации распределения максимума этих точек для пакетного выбора.
Sequential Kriging Optimizer (SKO) Parallèle
Адаптация оптимизатора SKO для параллельных вычислений, использующая стратегии вроде Kriging Believer или Локальной Штрафикации для построения эффективных пакетов точек.
Information-Theoretic Acquisition en Batch
Класс функций пакетного выбора, основанных на теории информации, таких как Поиск Энтропии или MES, которые направлены на максимизацию информации о распределении глобального оптимума, полученной из пакета вычислений.