এআই গ্লসারি
কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান
গ্রেডিয়েন্ট বুস্টিং
একটি এনসেম্বল লার্নিং কৌশল যা ভবিষ্যদ্বাণীমূলক মডেলগুলিকে ক্রমান্বয়ে গঠন করে, যেখানে প্রতিটি নতুন মডেল গ্রেডিয়েন্ট ডিসেন্টের মাধ্যমে একটি লস ফাংশন অপ্টিমাইজ করে পূর্ববর্তী মডেলগুলির ত্রুটিগুলি সংশোধন করে।
সংযোজনশীল শিক্ষা
গ্রেডিয়েন্ট বুস্টিং-এর মৌলিক নীতি যেখানে চূড়ান্ত মডেলটি একাধিক দুর্বল শিক্ষার্থীর ভবিষ্যদ্বাণীর ওজনযুক্ত সমষ্টি, যার প্রতিটি সামগ্রিক কর্মক্ষমতা উন্নত করার জন্য যোগ করা হয়।
শিক্ষার হার
একটি হাইপারপ্যারামিটার যা চূড়ান্ত মডেলে প্রতিটি দুর্বল শিক্ষার্থীর প্রভাব নিয়ন্ত্রণ করে, ওভারফিটিং এড়ানোর জন্য একটি ওজন ফ্যাক্টর হিসাবে কাজ করে।
অবশিষ্টাংশ
বর্তমান মডেলের ভবিষ্যদ্বাণী ত্রুটি, পর্যবেক্ষণকৃত মান এবং ভবিষ্যদ্বাণীর মধ্যে পার্থক্য হিসাবে গণনা করা হয়, যার উপর গ্রেডিয়েন্ট বুস্টিং-এ পরবর্তী দুর্বল শিক্ষার্থীকে প্রশিক্ষণ দেওয়া হয়।
অনুমানকারীর সংখ্যা
গ্রেডিয়েন্ট বুস্টিং মডেলে নির্মাণ করা দুর্বল শিক্ষার্থীদের (পুনরাবৃত্তি) সংখ্যা সংজ্ঞায়িত করে এমন একটি হাইপারপ্যারামিটার, যা সরাসরি জটিলতা এবং কর্মক্ষমতাকে প্রভাবিত করে।
এক্সজিবুস্ট (এক্সট্রিম গ্রেডিয়েন্ট বুস্টিং)
গ্রেডিয়েন্ট বুস্টিং-এর একটি অপ্টিমাইজড এবং সমান্তরাল বাস্তবায়ন যা উচ্চতর দক্ষতার জন্য নিয়মিতকরণ, অনুপস্থিত মানগুলির প্রক্রিয়াকরণ এবং গাছ ছাঁটাই কৌশলগুলিকে একীভূত করে।
লাইটজিবিএম
গ্রেডিয়েন্ট বুস্টিং ফ্রেমওয়ার্ক যা স্তর-ভিত্তিক (লেভেল-ওয়াইজ) এর পরিবর্তে পাতাভিত্তিক (লিফ-ওয়াইজ) গাছ বৃদ্ধি কৌশল ব্যবহার করে, যা প্রশিক্ষণের গতি বৃদ্ধি এবং মেমরি খরচ হ্রাস করে।
ক্যাটবুস্ট
গ্রেডিয়েন্ট বুস্টিং অ্যালগরিদম যা শ্রেণীবদ্ধ ভেরিয়েবলগুলির দক্ষ প্রক্রিয়াকরণে বিশেষীকৃত, অর্ডিনাল এনকোডিং কৌশল এবং অ্যাসিমেট্রিক বুস্টিং স্কিম ব্যবহার করে।
Stochastic Gradient Boosting
Variante du Gradient Boosting où chaque apprenant faible est entraîné sur un sous-ensemble aléatoire des données d'entraînement, réduisant la corrélation entre les arbres et améliorant la généralisation.
Sous-échantillonnage des Caractéristiques
Technique de régularisation dans le Gradient Boosting qui consiste à ne considérer qu'un sous-ensemble aléatoire des variables prédictives pour chaque分割 de nœud d'arbre, limitant le surapprentissage.
Profondeur Max de l'Arbre
Hyperparamètre contrôlant la complexité de chaque apprenant faible en limitant le nombre de分割 de décision, équilibrant le biais et la variance dans les modèles de Gradient Boosting.
Pseudo-Résidus
Généralisation des résidus dans le Gradient Boosting, représentant le gradient négatif de la fonction de perte par rapport aux prédictions actuelles, permettant l'optimisation pour diverses fonctions de perte.
Boosting de Régression
Application du Gradient Boosting aux problèmes de régression où l'objectif est de prédire des valeurs continues, utilisant typiquement une fonction de perte quadratique ou absolue.
Boosting de Classification
Application du Gradient Boosting aux problèmes de classification, utilisant des fonctions de perte spécifiques comme la log-loss (entropie croisée) pour guider l'optimisation des probabilités de classe.
Régularisation L1/L2
Techniques de pénalisation ajoutées à la fonction de perte dans le Gradient Boosting pour contrôler la complexité des poids des feuilles d'arbres, réduisant le surapprentissage et améliorant la robustesse.