قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
Bootstrap Aggregating
Méthode statistique combinant le rééchantillonnage bootstrap et l'agrégation des prédictions de multiples modèles entraînés sur ces échantillons pour stabiliser les résultats.
Échantillonnage avec remise
Technique de création d'échantillons bootstrap où chaque observation peut être sélectionnée plusieurs fois, permettant une diversité maximale des sous-ensembles d'entraînement.
Out-of-Bag (OOB)
Échantillon d'observations non sélectionnées lors de la création d'un bootstrap spécifique, utilisé comme ensemble de validation interne pour évaluer la performance sans validation croisée externe.
Erreur OOB
Métrique d'évaluation calculée en agrégeant les prédictions sur les échantillons out-of-bag pour chaque observation, fournissant une estimation non biaisée de l'erreur de généralisation.
Agrégation par vote majoritaire
Méthode de combinaison des prédictions en classification où chaque modèle vote pour une classe et la classe majoritaire est sélectionnée comme prédiction finale.
Agrégation par moyenne
Technique de combinaison en régression où les prédictions numériques de tous les modèles sont moyennées pour produire une prédiction finale plus stable.
Parallélisation
Avantage computationnel du bagging permettant l'entraînement simultané des modèles sur différents processeurs ou machines car ils sont indépendants les uns des autres.
Sous-espaces aléatoires
Extension du bagging où chaque modèle n'utilise qu'un sous-ensemble aléatoire des caractéristiques, augmentant la diversité et réduisant la corrélation entre les prédictions.
Arbres de décision non élagués
متعلمون أساسيون يستخدمون في تقنية الـ Bagging ويُتركون بتعقيداتهم القصوى دون إجراء أي تقليل، لأن عملية التجميع ستعوض عن الإفراط في التعلم الخاص بهم.
استقرار النموذج
خاصية يتحسن بها أداء النموذج من خلال تقنية الـ Bagging حيث تتغير تنبؤات النموذج النهائي بشكل أقل عند مواجهة تغييرات طفيفة في بيانات التدريب.
الغابة العشوائية المتطرفة
نوع متغير من غابة العشوائي (Random Forest) يتم فيه اختيار عتبات التقسيم للVariables بشكل عشوائي بدلاً من تحسينها، مما يزيد من التنوع على حساب التحيز.
ارتباط المتغيرات التنبؤية
عامل رئيسي في كفاءة تقنية الـ Bagging، حيث يؤدي انخفاض الارتباط بين تنبؤات النماذج الأساسية إلى تقليل أفضل للتباين.
حجم المجموعة
عدد النماذج في تقنية الـ Bagging، كلما زاد العدد قل التباين ولكن مع عائدات متناقصة وزيادة في التكلفة الحسابية.
عينات Bootstrap
مجموعات بيانات تم إنشاؤها عبر أخذ عينات مع الاستبدال من مجموعة التدريب الأصلية، وكل مجموعة تحتوي تقريبًا على 63.2٪ من الملاحظات الفريدة.
دمج Bagging وBoosting
أساليب تجمع بين مبادئ الـ Bagging والـ Boosting للاستفادة من تقليل التباين وتقليل التحيز في نفس الوقت.
تباين تجريبي
مقياس يحدد مدى انتشار التنبؤات من النماذج الأساسية قبل التجميع، ويُستخدم كمؤشر لكسب تقنية الـ Bagging المحتمل.