🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📂
underkategorier

Bagging

Technique d'ensemble créant plusieurs modèles sur des échantillons bootstrap du dataset original et agrégeant leurs prédictions par vote majoritaire ou moyenne.

7 termer
📂
underkategorier

Boosting

Méthode séquentielle où chaque modèle apprend des erreurs du précédent, en pondérant davantage les exemples mal classés pour améliorer progressivement les performances.

1 termer
📂
underkategorier

Stacking

Approche combinant les prédictions de plusieurs modèles de base via un méta-modèle apprenant à optimiser leurs poids pour de meilleures prédictions finales.

11 termer
📂
underkategorier

Random Forest

Ensemble d'arbres de décision utilisant bagging avec sélection aléatoire de features à chaque split, réduisant la variance et évitant le surapprentissage.

1 termer
📂
underkategorier

Gradient Boosting

Algorithme de boosting construisant séquentiellement des modèles apprenant à corriger les résidus du modèle précédent via descente de gradient.

2 termer
📂
underkategorier

AdaBoost

Adaptive Boosting ajustant les poids des exemples d'entraînement et des classifieurs faibles pour se concentrer sur les cas difficiles à classifier.

15 termer
📂
underkategorier

XGBoost

Implémentation optimisée de gradient boosting avec régularisation L1/L2, traitement parallèle et gestion efficace des valeurs manquantes.

5 termer
📂
underkategorier

LightGBM

Framework de gradient boosting utilisant leaf-wise growth et histogram-based algorithms pour un entraînement rapide et efficace sur grands datasets.

8 termer
📂
underkategorier

CatBoost

Algorithme de gradient boosting spécialisé dans le traitement automatique des variables catégorielles sans encodage préalable.

10 termer
📂
underkategorier

Voting Classifiers

Méthode d'ensemble combinant les prédictions de plusieurs classifieurs par vote majoritaire (hard voting) ou probabilités moyennes (soft voting).

17 termer
📂
underkategorier

Extra Trees

Extremely Randomized Trees utilisant coupes aléatoires complètes pour chaque split sans bootstrap, augmentant la diversité et réduisant le biais.

11 termer
📂
underkategorier

Blending

Variante du stacking utilisant un hold-out validation set pour entraîner le méta-modèle plutôt que cross-validation, plus simple mais moins robuste.

9 termer
📂
underkategorier

Dynamic Ensemble Selection

Méthodes sélectionnant dynamiquement un sous-ensemble de modèles compétents pour chaque nouvelle instance à prédire, optimisant les performances locales.

16 termer
📂
underkategorier

Ensemble Diversity

Techniques mesurant et maximisant la diversité entre modèles de base pour améliorer la robustesse de l'ensemble et réduire les erreurs corrélées.

16 termer
📂
underkategorier

Hybrid Ensemble Methods

Combinaison de différentes techniques d'ensemble (bagging + boosting) ou intégration d'autres paradigmes comme les réseaux de neurones.

16 termer
🔍

Inga resultat hittades