এআই গ্লসারি
কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান
Biais
শিক্ষণ মডেলের অত্যন্ত সরলীকৃত অনুমান থেকে উদ্ভূত একটি পদ্ধতিগত ত্রুটি, যা আন্ডারফিটিং-এর দিকে নিয়ে যায়। উচ্চ বায়াস নির্দেশ করে যে মডেলটি প্রশিক্ষণ ডেটাতে বিদ্যমান জটিল সম্পর্কগুলি ধারণ করতে পারছে না।
Variance
প্রশিক্ষণ সেটে উপস্থিত এলোমেলো ওঠানামার প্রতি মডেলের সংবেদনশীলতার একটি পরিমাপ, যা ওভারফিটিং-এর কারণ হয়। উচ্চ ভ্যারিয়েন্স মানে হল যে মডেলটি অন্তর্নিহিত প্রবণতার পরিবর্তে ডেটার গোলমাল ধারণ করছে।
Trade-off Biais-Variance
মেশিন লার্নিং-এ একটি মৌলিক দ্বিধা যেখানে বায়াস হ্রাস করলে সাধারণত ভ্যারিয়েন্স বৃদ্ধি পায়, এবং এর বিপরীতও সত্য। এই আপসটিকে অপ্টিমাইজ করা মোট জেনারেলাইজেশন ত্রুটি হ্রাস করার জন্য সঠিক ভারসাম্য খুঁজে পেতে সাহায্য করে।
Erreur de généralisation
অদৃশ্য ডেটার উপর মডেলের পারফরম্যান্সের একটি পরিমাপ, যা নতুন নমুনাগুলিতে সঠিকভাবে পূর্বাভাস দেওয়ার ক্ষমতা মূল্যায়ন করার জন্য অত্যন্ত গুরুত্বপূর্ণ। বায়াস-ভ্যারিয়েন্স তত্ত্ব অনুসারে, এটি স্কোয়ার্ড বায়াস, ভ্যারিয়েন্স এবং অপরিবর্তনীয় ত্রুটিতে বিভক্ত হয়।
Courbe d'apprentissage
একটি গ্রাফ যা প্রশিক্ষণ সেটের আকারের ফাংশন হিসাবে মডেলের পারফরম্যান্সের বিবর্তন প্রতিনিধিত্ব করে, যা বায়াস এবং ভ্যারিয়েন্সের সমস্যাগুলি নির্ণয় করতে সাহায্য করে। এই বক্ররেখার বিশ্লেষণ করা ডেটা যোগ করা বা মডেলের জটিলতা সামঞ্জস্য করা প্রয়োজন কিনা তা নির্ধারণে সহায়তা করে।
Régularisation
ভ্যারিয়েন্স হ্রাস করতে এবং ওভারফিটিং প্রতিরোধ করতে মডেলের জটিলতা নিয়ন্ত্রণ করার জন্য কৌশলগুলির একটি সেট। L1 এবং L2 রেগুলারাইজেশন মডেলের সহগের পরিমাণ সীমাবদ্ধ করতে ক্ষতি ফাংশনে পেনাল্টি শর্তাবলী যোগ করে।
Complexité du modèle
জটিল ফাংশনগুলিতে মানিয়ে নেওয়ার জন্য একটি মডেলের ক্ষমতার একটি পরিমাপ, যা সরাসরি বায়াস-ভ্যারিয়েন্স ট্রেড-অফের সাথে সম্পর্কিত। প্যারামিটারের সংখ্যা, নিউরাল নেটওয়ার্কের গভীরতা বা বহুপদীর ডিগ্রি দ্বারা জটিলতা নিয়ন্ত্রণ করা যেতে পারে।
Erreur d'approximation
নির্বাচিত মডেল পরিবারের অন্তর্নিহিত প্রকৃত ফাংশনটিকে নিখুঁতভাবে উপস্থাপন করতে অক্ষমতার কারণে ত্রুটির অংশ। বায়াসের সাথে সম্পর্কিত এই ত্রুটিটি অসীম পরিমাণে প্রশিক্ষণ ডেটা থাকলেও বজায় থাকে।
Erreur d'estimation
Erreur résultant de l'utilisation d'un échantillon fini de données pour estimer les paramètres optimaux du modèle. Cette composante de l'erreur est directement liée à la variance et diminue avec l'augmentation de la taille des données d'entraînement.
Courbe de validation
Outil de diagnostic visualisant les performances du modèle en fonction de variations d'hyperparamètres ou de la complexité. La courbe de validation aide à identifier le point optimal où l'écart entre les performances d'entraînement et de validation est minimal.
Early Stopping
Méthode de régularisation consistant à arrêter l'entraînement avant convergence lorsque la performance sur l'ensemble de validation cesse de s'améliorer. Cette technique efficace limite le surapprentissage en trouvant automatiquement le point optimal du compromis biais-variance.
Erreur irréductible
Partie de l'erreur de prédiction qui ne peut être éliminée quel que soit le modèle, due au bruit inhérent aux données. Cette composante constitue la borne inférieure théorique de l'erreur de généralisation que tout algorithme doit respecter.
Capacité VC
Mesure théorique de la complexité d'une classe de modèles, représentant le nombre maximal de points qu'elle peut parfaitement séparer. La dimension de Vapnik-Chervonenkis fournit des bornes théoriques sur l'erreur de généralisation en fonction de la taille d'échantillon.