🏠 হোম
বেঞ্চমার্ক
📊 সমস্ত বেঞ্চমার্ক 🦖 ডাইনোসর v1 🦖 ডাইনোসর v2 ✅ টু-ডু লিস্ট অ্যাপস 🎨 সৃজনশীল ফ্রি পেজ 🎯 FSACB - চূড়ান্ত শোকেস 🌍 অনুবাদ বেঞ্চমার্ক
মডেল
🏆 সেরা ১০টি মডেল 🆓 ফ্রি মডেল 📋 সমস্ত মডেল ⚙️ কিলো কোড
রিসোর্স
💬 প্রম্পট লাইব্রেরি 📖 এআই গ্লসারি 🔗 দরকারী লিঙ্ক

এআই গ্লসারি

কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান

238
বিভাগ
3,112
উপ-বিভাগ
36,890
শব্দ
📖
শব্দ

Biais

শিক্ষণ মডেলের অত্যন্ত সরলীকৃত অনুমান থেকে উদ্ভূত একটি পদ্ধতিগত ত্রুটি, যা আন্ডারফিটিং-এর দিকে নিয়ে যায়। উচ্চ বায়াস নির্দেশ করে যে মডেলটি প্রশিক্ষণ ডেটাতে বিদ্যমান জটিল সম্পর্কগুলি ধারণ করতে পারছে না।

📖
শব্দ

Variance

প্রশিক্ষণ সেটে উপস্থিত এলোমেলো ওঠানামার প্রতি মডেলের সংবেদনশীলতার একটি পরিমাপ, যা ওভারফিটিং-এর কারণ হয়। উচ্চ ভ্যারিয়েন্স মানে হল যে মডেলটি অন্তর্নিহিত প্রবণতার পরিবর্তে ডেটার গোলমাল ধারণ করছে।

📖
শব্দ

Trade-off Biais-Variance

মেশিন লার্নিং-এ একটি মৌলিক দ্বিধা যেখানে বায়াস হ্রাস করলে সাধারণত ভ্যারিয়েন্স বৃদ্ধি পায়, এবং এর বিপরীতও সত্য। এই আপসটিকে অপ্টিমাইজ করা মোট জেনারেলাইজেশন ত্রুটি হ্রাস করার জন্য সঠিক ভারসাম্য খুঁজে পেতে সাহায্য করে।

📖
শব্দ

Erreur de généralisation

অদৃশ্য ডেটার উপর মডেলের পারফরম্যান্সের একটি পরিমাপ, যা নতুন নমুনাগুলিতে সঠিকভাবে পূর্বাভাস দেওয়ার ক্ষমতা মূল্যায়ন করার জন্য অত্যন্ত গুরুত্বপূর্ণ। বায়াস-ভ্যারিয়েন্স তত্ত্ব অনুসারে, এটি স্কোয়ার্ড বায়াস, ভ্যারিয়েন্স এবং অপরিবর্তনীয় ত্রুটিতে বিভক্ত হয়।

📖
শব্দ

Courbe d'apprentissage

একটি গ্রাফ যা প্রশিক্ষণ সেটের আকারের ফাংশন হিসাবে মডেলের পারফরম্যান্সের বিবর্তন প্রতিনিধিত্ব করে, যা বায়াস এবং ভ্যারিয়েন্সের সমস্যাগুলি নির্ণয় করতে সাহায্য করে। এই বক্ররেখার বিশ্লেষণ করা ডেটা যোগ করা বা মডেলের জটিলতা সামঞ্জস্য করা প্রয়োজন কিনা তা নির্ধারণে সহায়তা করে।

📖
শব্দ

Régularisation

ভ্যারিয়েন্স হ্রাস করতে এবং ওভারফিটিং প্রতিরোধ করতে মডেলের জটিলতা নিয়ন্ত্রণ করার জন্য কৌশলগুলির একটি সেট। L1 এবং L2 রেগুলারাইজেশন মডেলের সহগের পরিমাণ সীমাবদ্ধ করতে ক্ষতি ফাংশনে পেনাল্টি শর্তাবলী যোগ করে।

📖
শব্দ

Complexité du modèle

জটিল ফাংশনগুলিতে মানিয়ে নেওয়ার জন্য একটি মডেলের ক্ষমতার একটি পরিমাপ, যা সরাসরি বায়াস-ভ্যারিয়েন্স ট্রেড-অফের সাথে সম্পর্কিত। প্যারামিটারের সংখ্যা, নিউরাল নেটওয়ার্কের গভীরতা বা বহুপদীর ডিগ্রি দ্বারা জটিলতা নিয়ন্ত্রণ করা যেতে পারে।

📖
শব্দ

Erreur d'approximation

নির্বাচিত মডেল পরিবারের অন্তর্নিহিত প্রকৃত ফাংশনটিকে নিখুঁতভাবে উপস্থাপন করতে অক্ষমতার কারণে ত্রুটির অংশ। বায়াসের সাথে সম্পর্কিত এই ত্রুটিটি অসীম পরিমাণে প্রশিক্ষণ ডেটা থাকলেও বজায় থাকে।

📖
শব্দ

Erreur d'estimation

Erreur résultant de l'utilisation d'un échantillon fini de données pour estimer les paramètres optimaux du modèle. Cette composante de l'erreur est directement liée à la variance et diminue avec l'augmentation de la taille des données d'entraînement.

📖
শব্দ

Courbe de validation

Outil de diagnostic visualisant les performances du modèle en fonction de variations d'hyperparamètres ou de la complexité. La courbe de validation aide à identifier le point optimal où l'écart entre les performances d'entraînement et de validation est minimal.

📖
শব্দ

Early Stopping

Méthode de régularisation consistant à arrêter l'entraînement avant convergence lorsque la performance sur l'ensemble de validation cesse de s'améliorer. Cette technique efficace limite le surapprentissage en trouvant automatiquement le point optimal du compromis biais-variance.

📖
শব্দ

Erreur irréductible

Partie de l'erreur de prédiction qui ne peut être éliminée quel que soit le modèle, due au bruit inhérent aux données. Cette composante constitue la borne inférieure théorique de l'erreur de généralisation que tout algorithme doit respecter.

📖
শব্দ

Capacité VC

Mesure théorique de la complexité d'une classe de modèles, représentant le nombre maximal de points qu'elle peut parfaitement séparer. La dimension de Vapnik-Chervonenkis fournit des bornes théoriques sur l'erreur de généralisation en fonction de la taille d'échantillon.

🔍

কোন ফলাফল পাওয়া যায়নি