🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📖
termer

Opérateur Proximal

Opérateur mathématique qui généralise la projection sur un ensemble convexe, défini comme argmin_y{f(y) + (1/2λ)||y-x||²}. Il permet de traiter efficacement les problèmes d'optimisation avec des régularisateurs non-différentiables comme la norme L1.

📖
termer

Fonction Proximate

Fonction convexe semi-continue inférieurement pour laquelle l'opérateur proximal est bien défini. Inclut les fonctions convexes fermées comme la norme L1, l'indicatrice d'ensembles convexes, et les pénalités de groupe.

📖
termer

Algorithme ISTA

Iterative Soft-Thresholding Algorithm, méthode proximale spécifique pour la régularisation L1. Effectue une étape de gradient suivie d'un seuillage doux pour imposer la parcimonie dans les solutions.

📖
termer

Algorithme FISTA

Fast Iterative Soft-Thresholding Algorithm, version accélérée d'ISTA utilisant les techniques d'accélération de Nesterov. Atteint un taux de convergence optimal O(1/k²) pour les problèmes convexes avec régularisation L1.

📖
termer

Accélération de Nesterov

Technique d'accélération pour méthodes de gradient premier ordre utilisant des termes d'inertie mémoire. Améliore significativement la convergence de O(1/k) à O(1/k²) pour les problèmes convexes.

📖
termer

Condition de Lipschitz

Hypothèse que le gradient de la fonction objectif est L-Lipschitz continu, garantissant une convergence stable. Détermine la taille maximale du pas autorisée dans les méthodes proximales.

📖
termer

Moreau-Yosida Regularization

Technique de lissage de fonctions convexes non-différentiables par convolution quadratique. Crée des fonctions C1 tout en préservant les minima originaux via l'enveloppe de Moreau.

📖
termer

Problèmes Structurés

Problèmes d'optimisation avec structure spécifique exploitée par les méthodes proximales. Inclut les régularisateurs groupés, les normes mixtes et les contraintes structurelles complexes.

📖
termer

ADMM Proximal

Alternating Direction Method of Multipliers avec opérateur proximal, adapté pour contraintes complexes. Décompose le problème en sous-problèmes plus simples résolus alternativement avec mise à jour du multiplicateur.

📖
termer

Convergence Linéaire

Taux de convergence géométrique où l'erreur diminue exponentiellement avec le nombre d'itérations. Atteinte par les méthodes proximales sous conditions de forte convexité ou erreur quadratique moyenne bornée.

📖
termer

Pas de Taille Variable

Stratégie adaptative pour la sélection du pas d'apprentissage dans les méthodes proximales. Techniques comme backtracking line search optimisent la convergence en ajustant dynamiquement λ selon la courbure locale.

📖
termer

Stochastic Proximal Gradient

Version stochastique du gradient proximal utilisant des mini-batchs pour les problèmes à grande échelle. Combine efficacité computationnelle du SGD avec traitement des régularisateurs non-différentiables.

📖
termer

Point Fixe Proximal

Formulation des méthodes proximales comme itérations de point fixe sur un opérateur contractant. Garantit convergence unique sous conditions de Lipschitz et convexité appropriate.

📖
termer

Composite Optimization

Optimisation de fonctions objectives composites combinant termes lisses et non-lisses. Champ d'application principal des méthodes proximal gradient en apprentissage statistique et traitement du signal.

🔍

Inga resultat hittades