قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
طرق الأهمية المحلية (LIME)
تقنيات التفسير التي تحلل التنبؤات الفردية لفهم كيفية اتخاذ النموذج لقرار محدد.
طرق SHAP (شروح شابلي الإضافية)
نهج يعتمد على نظرية الألعاب لقياس تأثير كل ميزة على تنبؤات النموذج
تحليل الخصائص
دراسة منهجية لأهمية وملاءمة وأثر متغيرات الإدخال على تنبؤات النموذج.
تصور النماذج
مجموعة من التقنيات البيانية التي تتيح التمثيل البصري للسلوك الداخلي وقرارات نماذج الذكاء الاصطناعي
تحليل السيناريوهات الافتراضية
توليد سيناريوهات بديلة لفهم التعديلات الدنيا في المدخلات التي من شأنها تغيير تنبؤ النموذج.
قواعد التفسير
استخراج قواعد منطقية بسيطة ومفهومة من نماذج معقدة مثل الشبكات العصبية.
قابلية التفسير بعد الحدث
طرق تُطبق بعد التدريب لشرح قرارات نماذج غير قابلة للتفسير في البداية
القابلية للتفسير بالتصميم
نهج يتم فيها دمج الشفافية منذ تصميم النموذج، مما يخلق خوارزميات قابلة للتفسير بشكل طبيعي.
التفسيرات السببية
تحليل علاقات السبب والنتيجة في قرارات النموذج لتجاوز الارتباطات البسيطة
تحليل التحيزات الخوارزمية
الكشف والتكميم والتفسير للتحيزات المنهجية في تنبؤات نماذج الذكاء الاصطناعي
مقاييس وفاء التفسيرات
مجموعة من المقاييس لتقييم جودة ودقة التفسيرات المولدة بواسطة تقنيات القابلية للتفسير.
أشجار قرار قابلة للتفسير
هياكل شجرية مصممة خصيصاً لتقديم قرارات شفافة يسهل فهمها.
خرائط الصلة (خرائط السالينسي)
تقنيات التصور التي تبرز المناطق أو الميزات الأكثر تأثيراً في بيانات الإدخال.
التفسيرات متعددة الوسائط
مناهج تفسير متكيفة مع النماذج التي تعالج بشكل متزامن عدة أنواع من البيانات (نص، صورة، صوت).
تدقيق الشفافية
تقييم منهجي ومستقل لشفافية وعدالة وموثوقية نماذج الذكاء الاصطناعي.