🏠 হোম
বেঞ্চমার্ক
📊 সমস্ত বেঞ্চমার্ক 🦖 ডাইনোসর v1 🦖 ডাইনোসর v2 ✅ টু-ডু লিস্ট অ্যাপস 🎨 সৃজনশীল ফ্রি পেজ 🎯 FSACB - চূড়ান্ত শোকেস 🌍 অনুবাদ বেঞ্চমার্ক
মডেল
🏆 সেরা ১০টি মডেল 🆓 ফ্রি মডেল 📋 সমস্ত মডেল ⚙️ কিলো কোড
রিসোর্স
💬 প্রম্পট লাইব্রেরি 📖 এআই গ্লসারি 🔗 দরকারী লিঙ্ক

এআই গ্লসারি

কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান

238
বিভাগ
3,112
উপ-বিভাগ
36,890
শব্দ
📖
শব্দ

এনকোডার (Encoder)

অটোএনকোডারের সেই অংশ যা ইনপুট ডেটাকে নিম্ন মাত্রার একটি উপস্থাপনায় রূপান্তরিত করে, যাকে লেটেন্ট স্পেস বা কোড বলা হয়, একটি অরৈখিক সংকোচন ফাংশন শিখে।

📖
শব্দ

ডিকোডার (Decoder)

অটোএনকোডারের সেই অংশ যা লেটেন্ট স্পেসের সংকুচিত উপস্থাপনা গ্রহণ করে এবং মূল ইনপুট ডেটা পুনর্গঠনের চেষ্টা করে, এভাবে একটি ডিকম্প্রেশন ফাংশন শিখে।

📖
শব্দ

লেটেন্ট স্পেস (Latent Space)

অটোএনকোডারের সর্বনিম্ন মাত্রার উপস্থাপনা স্তর, যা ইনপুট ডেটার সবচেয়ে প্রয়োজনীয় ও সংকুচিত বৈশিষ্ট্যগুলি ধারণ করে।

📖
শব্দ

বটলনেক (Bottleneck)

অটোএনকোডারের আর্কিটেকচারের সবচেয়ে সংকীর্ণ স্তর, যা এনকোডার ও ডিকোডারের মাঝে অবস্থিত এবং নেটওয়ার্ককে ডেটার সংক্ষিপ্ত উপস্থাপনা শিখতে বাধ্য করে।

📖
শব্দ

পুনর্গঠন লস ফাংশন (Reconstruction Loss)

লক্ষ্য ফাংশন, সাধারণত গড় বর্গ ত্রুটি (MSE) বা ক্রস-এনট্রপি, যা মূল ইনপুট ডেটা এবং ডিকোডার দ্বারা পুনর্গঠিত ডেটার মধ্যে পার্থক্য পরিমাপ করে।

📖
শব্দ

সিমেট্রিক অটোএনকোডার (Symmetric Autoencoder)

অটোএনকোডারের এমন আর্কিটেকচার যেখানে এনকোডার ও ডিকোডারের গঠন একে অপরের প্রতিবিম্ব, সংকোচন ও ডিকম্প্রেশনের জন্য সংশ্লিষ্ট স্তরের মাত্রা থাকে।

📖
শব্দ

আন্ডারকমপ্লিটনেস (Undercompleteness)

এমন নীতি যেখানে অটোএনকোডারের লেটেন্ট স্পেসের মাত্রা ইনপুট ডেটার মাত্রার চেয়ে কম হওয়া উচিত, যা নেটওয়ার্ককে সাধারণ কপি করার পরিবর্তে সবচেয়ে প্রাসঙ্গিক বৈশিষ্ট্যগুলি শিখতে বাধ্য করে।

📖
শব্দ

টাইড ওয়েটস (Tied Weights)

এমন কৌশল যেখানে ডিকোডারের ওজন ম্যাট্রিক্স এনকোডারের ওজন ম্যাট্রিক্সের ট্রান্সপোজ হয়, যা প্যারামিটারের সংখ্যা কমায় এবং সিমেট্রিক পুনর্গঠনকে উৎসাহিত করে।

📖
শব্দ

ইউনিট গণনা (Unit Counting)

অটোএনকোডারের প্রতিটি স্তরে নিউরনের সংখ্যা নির্ধারণের প্রক্রিয়া, যেখানে এনকোডারের মধ্য দিয়ে ইউনিটের সংখ্যা ক্রমশ কমে গলার অংশে (bottleneck) পৌঁছায়।

📖
শব্দ

অরৈখিক মাত্রা হ্রাস (Non-Linear Dimensionality Reduction)

অটোএনকোডারের প্রধান প্রয়োগ, যা জটিল ডেটা ম্যানিফোল্ড শিখে উচ্চ-মাত্রিক ডেটাকে নিম্ন-মাত্রিক স্থানে প্রক্ষেপণ করে, যা রৈখিক পদ্ধতি যেমন PCA-এর চেয়ে উন্নত।

📖
শব্দ

প্রতিনিধিত্ব শিখন (Representation Learning)

অটোএনকোডারের স্বয়ংক্রিয়ভাবে ডেটার বিমূর্ত বৈশিষ্ট্য এবং অন্তর্নিহিত কাঠামো আবিষ্কার করার ক্ষমতা, কোনো তত্ত্বাবধানে লেবেলিং ছাড়াই।

📖
শব্দ

একক স্তরের অটোএনকোডার (Single-Layer Autoencoder)

সবচেয়ে সরল ধরনের অটোএনকোডার, যেখানে একটি মাত্র লুকানো স্তর গলার অংশ হিসেবে কাজ করে, যা অরৈখিক প্রধান উপাদান বিশ্লেষণের সমতুল্য।

📖
শব্দ

গভীর অটোএনকোডার (Deep Autoencoder)

এনকোডার এবং ডিকোডারে একাধিক লুকানো স্তরযুক্ত অটোএনকোডারের আর্কিটেকচার, যা বৈশিষ্ট্যের জটিল শ্রেণিবিন্যাস শিখে উন্নত সংকোচন সক্ষম করে।

📖
শব্দ

পুনর্গঠন শব্দ (Reconstruction Noise)

অটোএনকোডার দ্বারা পুনর্গঠিত ডেটায় প্রবর্তিত ত্রুটি বা আর্টিফ্যাক্ট, যা মডেলের শেখা প্রতিনিধিত্বের সীমাবদ্ধতা বোঝার জন্য বিশ্লেষণ করা হয়।

📖
শব্দ

এনকোডারের অ্যাক্টিভেশন ফাংশন (Encoder Activation Function)

এনকোডারের স্তরগুলিতে প্রয়োগ করা অরৈখিক ফাংশন (যেমন ReLU, সিগময়েড বা tanh), যা ইনপুট ডেটার জটিল রূপান্তর শেখার সুযোগ দেয়।

📖
শব্দ

ডিকোডারের অ্যাক্টিভেশন ফাংশন (Decoder Activation Function)

ডিকোডারের স্তরগুলিতে প্রয়োগ করা ফাংশন, যা প্রায়শই ইনপুট ডেটার বণ্টনের সাথে মিল রেখে নির্বাচন করা হয় (যেমন, ০ এবং ১-এর মধ্যে স্বাভাবিকীকৃত ডেটার জন্য সিগময়েড)।

📖
শব্দ

অতিরিক্ত সম্পূর্ণতা (Overcompleteness)

এমন একটি অবস্থা যেখানে লেটেন্ট স্পেসের মাত্রা ইনপুট ডেটার মাত্রার চেয়ে বেশি হয়, যা পরিচয় শেখা এড়াতে অতিরিক্ত সীমাবদ্ধতা যেমন রেগুলারাইজেশন প্রয়োজন করে।

📖
শব্দ

কোয়ান্টাইজেশন ত্রুটি

একটি অটোএনকোডারে পুনর্গঠন ত্রুটির সেই অংশ যা অবিচ্ছিন্ন তথ্যকে সসীম মাত্রার লেটেন্ট স্পেসে সংকোচনের ফলে সৃষ্ট হয়।

🔍

কোন ফলাফল পাওয়া যায়নি