قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
النموذج الظلي
نموذج تعلم آلي يدربه المهاجم لمحاكاة سلوك النموذج المستهدف، ويُستخدم لتوليد بيانات مرجعية في هجمات استنتاج العضوية.
النموذج المستهدف
نموذج تعلم الآلة الذي وقع ضحية لهجوم استنتاج العضوية، والذي يسعى المهاجم لتحديد ما إذا كان قد تم تدريبه على بيانات محددة.
تسرب الخصوصية
تسرب المعلومات السرية الذي يحدث عندما يكشف النموذج عن غير قصد تفاصيل حول بيانات التدريب الخاصة به من خلال تنبؤاته أو سلوكه.
ثغرة الإفراط في التخصيص
قابلية متزايدة لهجمات استنتاج العضوية عندما يفرط النموذج في تعلم بيانات التدريب الخاصة به، مما ينتج عنه تنبؤات مميزة للأمثلة التي تم رؤيتها وغير المرئية.
تحليل فجوة الثقة
تقنية هجوم تحلل الفجوة بين درجات ثقة النموذج لأمثلة التدريب مقابل الأمثلة غير المرئية لاستنتاج العضوية.
استخراج بيانات التدريب
هجوم أكثر توغلاً من استنتاج العضوية، يهدف إلى إعادة بناء أمثلة بيانات التدريب بالكامل من استجابات النموذج.
معرفة الخصم
مستوى المعلومات المتوفرة لدى المهاجم حول بنية النموذج، وخوارزمية التدريب، أو توزيع البيانات، مما يؤثر على نجاح هجمات الاستنتاج.
ميزة العضوية
مقياس يحدد ميزة المهاجم في استنتاج العضوية مقارنة بالتخمين العشوائي، ويقيس خطورة تسرب الخصوصية.
دفاع التنظيم
استراتيجية دفاعية تستخدم تقنيات التنظيم مثل التسرب (dropout) أو عقوبة L2 لتقليل الإفراط في التخصيص والضعف أمام هجمات الاستدلال.
تعديل دالة الخسارة
نهج دفاعي يقوم بتعديل دالة الخسارة أثناء التدريب لمعاقبة التنبؤات المفرطة في الثقة، مما يحد من تسرب معلومات الانتماء.
مجموعة البيانات الظل
مجموعة بيانات تركيبية أو حقيقية يستخدمها المهاجم لتدريب نماذج الظل، تحاكي توزيع بيانات تدريب النموذج المستهدف.