قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
مصنف ضعيف
نموذج تصنيف أداؤه أفضل قليلاً من التخمين العشوائي، ويُستخدم كوحدة بناء أساسية في خوارزميات التعزيز.
أوزان التدريب
قيم رقمية تُعيّن لكل مثال تدريب للإشارة إلى أهميته النسبية في التكرار التالي للخوارزمية.
معدل الخطأ المرجح
مقياس أداء لمصنف ضعيف يُحسب كمجموع أوزان الأمثلة المصنفة بشكل خاطئ مقسومًا على المجموع الكلي للأوزان.
معامل المصنف
وزن ألفا يُحسب لكل مصنف ضعيف في AdaBoost، ويحدد تأثيره في التصويت النهائي بناءً على أدائه.
جذع القرار
شجرة قرار مبسطة بعقدة واحدة وورقتين، تُستخدم غالبًا كمصنف ضعيف في AdaBoost.
SAMME
امتداد AdaBoost متعدد الفئات (النمذجة الإضافية المرحلية باستخدام خسارة أسية متعددة الفئات) يُكيف الخوارزمية الأصلية للمشكلات التي تحتوي على أكثر من فئتين.
التصويت المرجح بالأغلبية
طريقة تجميع حيث يصوت كل مصنف بما يتناسب مع معامل الثقة الخاص به الذي تحسبه خوارزمية AdaBoost.
التدريب التكراري
عملية متسلسلة حيث يتم تدريب كل مصنف جديد على البيانات المعاد ترجيحها بناءً على أداء المصنفات السابقة.
فرضية التعلم الضعيف
مبدأ أساسي للتعزيز ينص على أنه من الممكن دمج مصنفات أفضل قليلاً من العشوائية للحصول على مصنف قوي.
معدل تعلم أدا بوست
معلمة الانكماش التي تتحكم في مساهمة كل مصنف ضعيف في النموذج النهائي، مما يسمح بتنظيم الخوارزمية.
ترجيح الأمثلة
آلية مركزية لأدا بوست تعدل توزيع الاحتمالية على أمثلة التدريب للتركيز على الحالات الصعبة.
النمذجة الإضافية المرحلية
نهج بناء النموذج حيث يتم إضافة المصنفات تسلسليًا دون إعادة ضبط معلمات المصنفات السابقة.
المتانة تجاه القيم الشاذة
حساسية أدا بوست للقيم الشاذة بسبب الترجيح الأسي المتزايد للأمثلة التي يتم تصنيفها بشكل خاطئ باستمرار.
تقارب أدا بوست
خاصية نظرية تضمن أن خطأ التدريب لأدا بوست يتناقص أسيًا مع عدد التكرارات تحت شروط معينة.
حدود القرار الإضافية
سطح الفصل النهائي الناتج عن التركيب الخطي المرجح لحدود القرار للمصنفات الضعيفة.