এআই গ্লসারি
কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান
গ্রেডিয়েন্ট ডিসেন্ট
একটি পুনরাবৃত্তিমূলক অপ্টিমাইজেশন অ্যালগরিদম যা একটি ফাংশন কমানোর জন্য গ্রেডিয়েন্টের বিপরীত দিকে অগ্রসর হয়।
স্টোকাস্টিক গ্রেডিয়েন্ট ডিসেন্ট
গ্রেডিয়েন্ট ডিসেন্টের একটি প্রকরণ যা প্রতিটি পুনরাবৃত্তিতে একটি এলোমেলো নমুনা ব্যবহার করে।
মিনি-ব্যাচ গ্রেডিয়েন্ট ডিসেন্ট
জিডি এবং এসজিডির মধ্যে একটি সমঝোতা যা প্যারামিটার আপডেট করতে ছোট নমুনার ব্যাচ ব্যবহার করে।
Momentum
অভিসরণ ত্বরান্বিত করার একটি কৌশল যা গ্রেডিয়েন্ট আপডেটে জড়তার উপাদান যোগ করে।
Nesterov Accelerated Gradient
ভবিষ্যতের অবস্থান পূর্বাভাস দেয় এমন একটি মোমেন্টামের বৈকল্পিক যা আরও সঠিক আপডেটের জন্য।
Adagrad
অ্যাডাপ্টিভ লার্নিং রেট যা গ্রেডিয়েন্টের ঐতিহাসিক বর্গের যোগফলের উপর ভিত্তি করে।
RMSprop
অভিযোজিত পদ্ধতি যা গ্রেডিয়েন্টের বর্গের চলমান গড় ব্যবহার করে আপডেটগুলিকে স্বাভাবিক করে।
Adam Optimizer
মোমেন্টাম এবং RMSprop-এর সংমিশ্রণ প্রথম এবং দ্বিতীয় মুহুর্তের অভিযোজিত অনুমান সহ।
AdamW
L2 নিয়মিতকরণ বিচ্ছিন্ন সহ Adam-এর একটি বৈকল্পিক, উন্নত কর্মক্ষমতার জন্য।
AdaDelta
Adagrad-এর একটি সম্প্রসারণ যা স্থিতিশীল শিক্ষার হার নিশ্চিত করতে ঐতিহাসিক সঞ্চয় সীমিত করে।
নিউটনের পদ্ধতি
স্থানীয় দ্বিঘাত অভিসৃতি জন্য হেসিয়ান ম্যাট্রিক্স ব্যবহার করে অ্যালগরিদম।
BFGS এবং L-BFGS
সীমিত মেমরি (L-BFGS) সহ হেসিয়ান আনুমানিক করার কোয়াসি-নিউটন পদ্ধতি।
কনজুগেট গ্রেডিয়েন্ট
বৃহৎ রৈখিক সিস্টেম এবং অরৈখিক অপ্টিমাইজেশনের জন্য কার্যকর পুনরাবৃত্তিমূলক পদ্ধতি।
প্রজেক্টেড গ্রেডিয়েন্ট ডিসেন্ট
সীমাবদ্ধতার অধীনে অনুকূলকরণের জন্য অনুমোদিত সেটে প্রজেক্ট করার কৌশল।
প্রক্সিমাল গ্রেডিয়েন্ট পদ্ধতি
অমসৃণ ফাংশনের জন্য গ্রেডিয়েন্ট অবতরণ এবং প্রক্সিমাল অপারেটর সংমিশ্রিত অ্যালগরিদম।