এআই গ্লসারি
কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান
FGSM (ফাস্ট গ্রেডিয়েন্ট সাইন মেথড)
ক্ষতি ফাংশনের গ্রেডিয়েন্টের সাইন ব্যবহার করে এডভারসারিয়াল উদাহরণ তৈরি করার একটি পদ্ধতি, যা এপসিলনের সীমার মধ্যে সর্বাধিক বিঘ্ন সৃষ্টি করে।
PGD (প্রজেক্টেড গ্রেডিয়েন্ট ডিসেন্ট)
FGSM-ভিত্তিক একটি পুনরাবৃত্তিমূলক আক্রমণ অ্যালগরিদম যা একাধিক ছোট গ্রেডিয়েন্ট ধাপ প্রয়োগ করে এবং বিঘ্নগুলি পূর্বনির্ধারিত সীমার মধ্যে থাকা নিশ্চিত করার জন্য প্রজেকশন ব্যবহার করে।
এডভারসারিয়াল রোবাস্টনেস
একটি ডিপ লার্নিং মডেলের ক্ষমতা যা ভুল ভবিষ্যদ্বাণী করতে সাবধানতার সাথে তৈরি করা এডভারসারিয়াল উদাহরণের মুখে তার কার্যকারিতা বজায় রাখে।
এডভারসারিয়াল র্যান্ডমাইজেশন
একটি প্রতিরক্ষামূলক পদ্ধতি যা ইনফারেন্সের সময় মডেল বা ইনপুটগুলিতে এলোমেলোতা প্রবর্তন করে, গ্রেডিয়েন্ট-ভিত্তিক আক্রমণগুলিকে কম কার্যকর এবং কম অনুমানযোগ্য করে তোলে।
ম্যাড্রি পদ্ধতি
একটি মিন-ম্যাক্স রোবাস্ট সমস্যা হিসাবে এডভারসারিয়াল প্রশিক্ষণের গঠন, যা প্রশিক্ষণের প্রতিটি ধাপে সবচেয়ে খারাপ বিঘ্ন খুঁজে পেতে PGD ব্যবহার করে।
মাল্টি-স্কেল এডভারসারিয়াল ট্রেনিং
একটি উন্নত কৌশল যা মডেলের সামগ্রিক রোবাস্টনেস উন্নত করার জন্য বিভিন্ন রেজোলিউশন স্কেল এবং শব্দের স্তরে এডভারসারিয়াল উদাহরণ তৈরি করে।
ডিফেনসিভ অটো-এনকোডার
একটি নিউরাল নেটওয়ার্ক যা দূষিত সংস্করণ থেকে মূল ইনপুটগুলি পুনর্গঠন করতে প্রশিক্ষিত, শ্রেণীবিভাগের আগে এডভারসারিয়াল বিঘ্নগুলি দূর করে।
এডভারসারিয়াল কনট্রাস্টিভ লার্নিং
একটি প্রশিক্ষণ পদ্ধতি যা ইতিবাচক এবং নেতিবাচক উদাহরণের জোড়া ব্যবহার করে শক্তিশালী উপস্থাপনা শেখার জন্য, যা বৈধ এবং এডভারসারিয়াল উদাহরণগুলিকে আরও ভালভাবে আলাদা করে।
Régularisation Adversariale
Terme de pénalité ajouté à la fonction de perte pendant l'entraînement pour encourager le modèle à avoir des gradients plus stables et des décisions plus robustes.
Ensemble Adversarial
Stratégie défensive combinant plusieurs modèles avec différentes architectures ou entraînements pour réduire la vulnérabilité aux attaques ciblant une seule configuration.
Validation Croisée Adversariale
Méthode d'évaluation robuste testant le modèle sur des ensembles de validation contenant des exemples adversariaux générés avec différentes techniques et paramètres.
Gradient Masking
Phénomène où un modèle semble robuste aux attaques basées sur gradient en raison d'une optimisation locale pauvre, créant une fausse impression de sécurité.
Borne Adversariale
Limite mathématique garantissant que la performance du modèle ne se dégradera pas au-delà d'un certain seuil face à des perturbations d'amplitude bornée.
Bruit Aléatoire Défensif
Technique ajoutant du bruit gaussien ou uniforme aux entrées pendant l'entraînement et l'inférence pour perturber les gradients utilisés dans les attaques adversariales.
Prétraitement Défensif
Étape de transformation appliquée aux entrées avant classification utilisant des filtres, compressions ou transformations pour atténuer les perturbations adversariales.