এআই গ্লসারি
কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান
XGBoost
গ্রেডিয়েন্ট বুস্টিং-এর একটি অপ্টিমাইজড বাস্তবায়ন যা উন্নত নিয়মিতকরণ কৌশল, সমান্তরাল প্রক্রিয়াকরণ এবং মেমরি অপ্টিমাইজেশন ব্যবহার করে কর্মক্ষমতা এবং প্রশিক্ষণের গতি উন্নত করে।
AdaBoost
একটি অভিযোজিত বুস্টিং পদ্ধতি যা প্রশিক্ষণ পর্যবেক্ষণের ওজন গতিশীলভাবে সামঞ্জস্য করে, দুর্বল শিক্ষার্থীদের ধারাবাহিক পুনরাবৃত্তির মাধ্যমে কঠিন উদাহরণগুলিতে ফোকাস করে।
Weak Learner
একটি সাধারণ ভবিষ্যদ্বাণীমূলক মডেল (সাধারণত একটি অগভীর সিদ্ধান্ত গাছ) যার কর্মক্ষমতা এলোমেলোর চেয়ে সামান্য বেশি, বুস্টিং পদ্ধতিতে বিল্ডিং ব্লক হিসাবে ব্যবহৃত হয়।
Loss Function
একটি গাণিতিক ফাংশন যা মডেলের ভবিষ্যদ্বাণী এবং প্রকৃত মানের মধ্যে ত্রুটি পরিমাপ করে, গ্রেডিয়েন্ট বুস্টিং অ্যালগরিদমে পুনরাবৃত্তিমূলক অপ্টিমাইজেশনকে নির্দেশনা দেয়।
Gradient Descent
একটি পুনরাবৃত্তিমূলক অপ্টিমাইজেশন অ্যালগরিদম যা সামগ্রিক ত্রুটি কমানোর জন্য লস ফাংশনের গ্রেডিয়েন্টের বিপরীত দিকে মডেলের প্যারামিটার সামঞ্জস্য করে।
Residual Learning
একটি কৌশল যেখানে প্রতিটি পরবর্তী মডেল পূর্ববর্তী মডেলের অবশিষ্টাংশ (ত্রুটি) ভবিষ্যদ্বাণী করতে শেখে, লক্ষ্য ফাংশনের একটি ধারাবাহিক এবং সুনির্দিষ্ট অনুমান সম্ভব করে।
Subsampling
প্রতিটি পুনরাবৃত্তির জন্য প্রশিক্ষণ ডেটার এলোমেলো নমুনা কৌশল, স্টোকাস্টিসিটি প্রবর্তন করে এবং আরও ভাল সাধারণীকরণের জন্য গাছের মধ্যে পারস্পরিক সম্পর্ক হ্রাস করে।
Regularization
কৌশলের একটি সেট (L1, L2, প্রুনিং) যা মডেলের জটিলতা শাস্তি দেয় ওভারফিটিং নিয়ন্ত্রণ করতে এবং সাধারণীকরণ ক্ষমতা উন্নত করতে।
Tree Pruning
Processus d'élagage des branches d'arbre de décision après leur construction complète, éliminant les subdivisions non informatives pour réduire la complexité et améliorer la généralisation.
Histogram-based Algorithm
Optimisation qui discrétise les caractéristiques continues en histogrammes avant la construction des arbres, accélérant considérablement la recherche des meilleurs points de division.
Leaf-wise Growth
Stratégie de construction d'arbres qui divise la feuille présentant la plus grande réduction de perte, plutôt que de développer toutes les feuilles à la même profondeur.