🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📂
underkategorier

Arbres de Décision Classiques

Algorithmes fondamentaux comme CART, ID3 et C4.5 qui construisent des structures arborescentes pour prendre des décisions basées sur des règles de partitionnement.

8 termer
📂
underkategorier

Random Forest

Méthode d'ensemble qui combine multiples arbres de décision entraînés sur des sous-échantillons bootstrap pour réduire la variance et éviter le surapprentissage.

12 termer
📂
underkategorier

Gradient Boosting Machines

Technique d'ensemble séquentielle qui construit des modèles additifs en optimisant une fonction de perte via descente de gradient.

11 termer
📂
underkategorier

XGBoost

Implémentation optimisée du gradient boosting avec régularisation L1/L2, traitement parallèle et gestion efficace des valeurs manquantes.

11 termer
📂
underkategorier

LightGBM

Algorithme de gradient boosting utilisant la croissance par feuille (leaf-wise) et l'échantillonnage basé sur les histogrammes pour une performance accrue.

12 termer
📂
underkategorier

CatBoost

Méthode de gradient boosting spécialisée dans le traitement automatique des variables catégorielles avec encodage target-wise et boosting ordonné.

13 termer
📂
underkategorier

AdaBoost

Algorithme de boosting adaptatif qui ajuste les poids des observations difficiles à prédire à travers des itérations successives d'apprenants faibles.

15 termer
📂
underkategorier

Bagging

Technique d'ensemble parallèle utilisant le bootstrap aggregating pour réduire la variance en combinant des modèles entraînés sur différents échantillons.

16 termer
📂
underkategorier

Stacking et Blending

Méthodes d'ensemble qui combinent les prédictions de multiples modèles de base via un méta-modèle pour améliorer la performance globale.

15 termer
📂
underkategorier

Extra Trees

Extremely Randomized Trees, méthode similaire à Random Forest mais avec sélection aléatoire des seuils de division pour une randomisation accrue.

4 termer
📂
underkategorier

Arbres de Régression vs Classification

Spécialisation des arbres de décision pour les problèmes de régression (prédiction continue) ou de classification (prédiction discrète).

7 termer
📂
underkategorier

Méthodes d'Ensemble Parallèles

Approches où les modèles sont construits indépendamment et simultanément, comme Random Forest et Bagging, pour réduire la variance.

7 termer
🔍

Inga resultat hittades