قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
التجميع
تقنية تجميعية تنشئ نماذج متعددة من عينات تمهيدية (bootstrap) مأخوذة من مجموعة البيانات الأصلية، وتجمع تنبؤاتها إما عن طريق التصويت بالأغلبية أو حساب المتوسط.
التعزيز
طريقة تسلسلية يتعلم فيها كل نموذج من أخطاء النموذج السابق، مع إعطاء وزن أكبر للأمثلة المصنفة بشكل خاطئ لتحسين الأداء تدريجياً.
التكديس
نهج يجمع تنبؤات نماذج أساسية متعددة عبر نموذج ميتا يتعلم تحسين أوزانها للحصول على تنبؤات نهائية أفضل.
الغابة العشوائية
مجموعة من أشجار القرار تستخدم التجميع (bagging) مع اختيار عشوائي للميزات عند كل تقسيم، مما يقلل التباين ويتجنب الإفراط في التجهيز.
تعزيز التدرج
خوارزمية تعزيز تبني نماذج متتالية تتعلم تصحيح بقايا النموذج السابق عبر نزول التدرج.
أدابوست
تعزيز تكيفي يقوم بتعديل أوزان أمثلة التدريب والمصنفات الضعيفة للتركيز على الحالات الصعبة التصنيف.
XGBoost
تطبيق محسن لتعزيز التدرج (gradient boosting) مع تنظيم L1/L2، ومعالجة متوازية، وإدارة فعالة للقيم المفقودة.
LightGBM
إطار عمل تعزيز التدرج يستخدم نمو الأوراق وخوارزميات قائمة على الهيستوغرام للتدريب السريع والفعال على مجموعات البيانات الكبيرة.
كات بوست
خوارزمية تعزيز التدرج المتخصصة في المعالجة التلقائية للمتغيرات الفئوية دون ترميز مسبق.
مصنفات التصويت
طريقة تجميعية تجمع بين تنبؤات عدة مصنفات عن طريق التصويت بالأغلبية (التصويت الصارم) أو متوسط الاحتمالات (التصويت الناعم).
أشجار إضافية
الأشجار العشوائية للغاية التي تستخدم تقسيمات عشوائية كاملة لكل انقسام دون تمهيد (bootstrap)، مما يزيد من التنوع ويقلل من التحيز.
المزج
نسخة من التكديس تستخدم مجموعة تحقق منفصلة لتدريب النموذج الفوقي بدلاً من التحقق المتقاطع، وهي أبسط ولكنها أقل قوة.
اختيار المجموعة الديناميكي
طرق تختار ديناميكيًا مجموعة فرعية من النماذج الكفؤة لكل مثيل جديد يراد التنبؤ به، مما يحسن الأداء المحلي.
تنوع التجميع
تقنيات تقيس وتزيد التنوع بين النماذج الأساسية لتحسين متانة التجميع وتقليل الأخطاء المترابطة.
طرق التجميع الهجينة
مزيج من تقنيات التجميع المختلفة (التجميع العشوائي + التعزيز) أو دمج نماذج أخرى مثل الشبكات العصبية.