🏠 হোম
বেঞ্চমার্ক
📊 সমস্ত বেঞ্চমার্ক 🦖 ডাইনোসর v1 🦖 ডাইনোসর v2 ✅ টু-ডু লিস্ট অ্যাপস 🎨 সৃজনশীল ফ্রি পেজ 🎯 FSACB - চূড়ান্ত শোকেস 🌍 অনুবাদ বেঞ্চমার্ক
মডেল
🏆 সেরা ১০টি মডেল 🆓 ফ্রি মডেল 📋 সমস্ত মডেল ⚙️ কিলো কোড
রিসোর্স
💬 প্রম্পট লাইব্রেরি 📖 এআই গ্লসারি 🔗 দরকারী লিঙ্ক

এআই গ্লসারি

কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান

238
বিভাগ
3,112
উপ-বিভাগ
36,890
শব্দ
📖
শব্দ

FGSM (ফাস্ট গ্রেডিয়েন্ট সাইন মেথড)

ক্ষতি ফাংশনের গ্রেডিয়েন্টের সাইন ব্যবহার করে এডভারসারিয়াল উদাহরণ তৈরি করার একটি পদ্ধতি, যা এপসিলনের সীমার মধ্যে সর্বাধিক বিঘ্ন সৃষ্টি করে।

📖
শব্দ

PGD (প্রজেক্টেড গ্রেডিয়েন্ট ডিসেন্ট)

FGSM-ভিত্তিক একটি পুনরাবৃত্তিমূলক আক্রমণ অ্যালগরিদম যা একাধিক ছোট গ্রেডিয়েন্ট ধাপ প্রয়োগ করে এবং বিঘ্নগুলি পূর্বনির্ধারিত সীমার মধ্যে থাকা নিশ্চিত করার জন্য প্রজেকশন ব্যবহার করে।

📖
শব্দ

এডভারসারিয়াল রোবাস্টনেস

একটি ডিপ লার্নিং মডেলের ক্ষমতা যা ভুল ভবিষ্যদ্বাণী করতে সাবধানতার সাথে তৈরি করা এডভারসারিয়াল উদাহরণের মুখে তার কার্যকারিতা বজায় রাখে।

📖
শব্দ

এডভারসারিয়াল র্যান্ডমাইজেশন

একটি প্রতিরক্ষামূলক পদ্ধতি যা ইনফারেন্সের সময় মডেল বা ইনপুটগুলিতে এলোমেলোতা প্রবর্তন করে, গ্রেডিয়েন্ট-ভিত্তিক আক্রমণগুলিকে কম কার্যকর এবং কম অনুমানযোগ্য করে তোলে।

📖
শব্দ

ম্যাড্রি পদ্ধতি

একটি মিন-ম্যাক্স রোবাস্ট সমস্যা হিসাবে এডভারসারিয়াল প্রশিক্ষণের গঠন, যা প্রশিক্ষণের প্রতিটি ধাপে সবচেয়ে খারাপ বিঘ্ন খুঁজে পেতে PGD ব্যবহার করে।

📖
শব্দ

মাল্টি-স্কেল এডভারসারিয়াল ট্রেনিং

একটি উন্নত কৌশল যা মডেলের সামগ্রিক রোবাস্টনেস উন্নত করার জন্য বিভিন্ন রেজোলিউশন স্কেল এবং শব্দের স্তরে এডভারসারিয়াল উদাহরণ তৈরি করে।

📖
শব্দ

ডিফেনসিভ অটো-এনকোডার

একটি নিউরাল নেটওয়ার্ক যা দূষিত সংস্করণ থেকে মূল ইনপুটগুলি পুনর্গঠন করতে প্রশিক্ষিত, শ্রেণীবিভাগের আগে এডভারসারিয়াল বিঘ্নগুলি দূর করে।

📖
শব্দ

এডভারসারিয়াল কনট্রাস্টিভ লার্নিং

একটি প্রশিক্ষণ পদ্ধতি যা ইতিবাচক এবং নেতিবাচক উদাহরণের জোড়া ব্যবহার করে শক্তিশালী উপস্থাপনা শেখার জন্য, যা বৈধ এবং এডভারসারিয়াল উদাহরণগুলিকে আরও ভালভাবে আলাদা করে।

📖
শব্দ

Régularisation Adversariale

Terme de pénalité ajouté à la fonction de perte pendant l'entraînement pour encourager le modèle à avoir des gradients plus stables et des décisions plus robustes.

📖
শব্দ

Ensemble Adversarial

Stratégie défensive combinant plusieurs modèles avec différentes architectures ou entraînements pour réduire la vulnérabilité aux attaques ciblant une seule configuration.

📖
শব্দ

Validation Croisée Adversariale

Méthode d'évaluation robuste testant le modèle sur des ensembles de validation contenant des exemples adversariaux générés avec différentes techniques et paramètres.

📖
শব্দ

Gradient Masking

Phénomène où un modèle semble robuste aux attaques basées sur gradient en raison d'une optimisation locale pauvre, créant une fausse impression de sécurité.

📖
শব্দ

Borne Adversariale

Limite mathématique garantissant que la performance du modèle ne se dégradera pas au-delà d'un certain seuil face à des perturbations d'amplitude bornée.

📖
শব্দ

Bruit Aléatoire Défensif

Technique ajoutant du bruit gaussien ou uniforme aux entrées pendant l'entraînement et l'inférence pour perturber les gradients utilisés dans les attaques adversariales.

📖
শব্দ

Prétraitement Défensif

Étape de transformation appliquée aux entrées avant classification utilisant des filtres, compressions ou transformations pour atténuer les perturbations adversariales.

🔍

কোন ফলাফল পাওয়া যায়নি