🏠 الرئيسية
المقاييس
📊 جميع المقاييس 🦖 ديناصور v1 🦖 ديناصور v2 ✅ تطبيقات قائمة المهام 🎨 صفحات حرة إبداعية 🎯 FSACB - العرض النهائي 🌍 مقياس الترجمة
النماذج
🏆 أفضل 10 نماذج 🆓 نماذج مجانية 📋 جميع النماذج ⚙️ كيلو كود
الموارد
💬 مكتبة الأوامر 📖 قاموس الذكاء الاصطناعي 🔗 روابط مفيدة

قاموس الذكاء الاصطناعي

القاموس الكامل للذكاء الاصطناعي

227
الفئات
2,955
الفئات الفرعية
34,512
المصطلحات
📖
المصطلحات

Problème d'optimisation quadratique

Formulation mathématique du problème SVM où l'objectif est de minimiser une fonction quadratique sous contraintes linéaires, nécessitant des algorithmes spécialisés pour sa résolution.

📖
المصطلحات

Gradient stochastique

Méthode d'optimisation qui met à jour les paramètres du modèle en utilisant un seul échantillon à la fois pour approximer le gradient, permettant une convergence rapide sur de grands ensembles de données.

📖
المصطلحات

Fonction noyau (Kernel)

Fonction mathématique permettant de transformer implicitement les données dans un espace de dimension supérieur où elles deviennent linéairement séparables, sans calculer explicitement cette transformation.

📖
المصطلحات

Variables de dualité

Multiplicateurs de Lagrange dans la formulation duale du problème SVM qui déterminent l'importance de chaque vecteur de support dans la construction de l'hyperplan de décision.

📖
المصطلحات

Conditions KKT (Karush-Kuhn-Tucker)

Conditions nécessaires et suffisantes pour l'optimalité dans les problèmes d'optimisation sous contraintes, utilisées pour vérifier la convergence des algorithmes d'optimisation SVM.

📖
المصطلحات

Hyperparamètres SVM

Paramètres non appris par le modèle qui doivent être configurés avant l'entraînement, notamment le paramètre de régularisation C et les paramètres de la fonction noyau.

📖
المصطلحات

Méthode des points intérieurs

Algorithme d'optimisation qui résout le problème quadratique SVM en traversant l'intérieur de la région réalisable, offrant une convergence polynomiale garantie pour les problèmes convexes.

📖
المصطلحات

Fonction de perte Hinge

Fonction de perte convexe utilisée dans les SVM qui pénalise les classifications incorrectes et celles proches de la frontière de décision, favorisant une marge maximale.

📖
المصطلحات

Méthode de Newton

Algorithme d'optimisation de second ordre qui utilise la matrice Hessienne pour trouver plus rapidement le minimum de la fonction objectif SVM, particulièrement efficace pour les problèmes de taille moyenne.

📖
المصطلحات

Algorithme de descente de coordonnées

Méthode d'optimisation qui minimise la fonction objectif en optimisant une coordonnée à la fois tout en maintenant les autres fixes, utilisée dans certaines implémentations SVM efficaces.

📖
المصطلحات

Décomposition par blocs

Stratégie d'optimisation qui divise le problème SVM en sous-problèmes plus petits traités séquentiellement, réduisant les besoins en mémoire pour les ensembles de données volumineux.

🔍

لم يتم العثور على نتائج