🏠 الرئيسية
المقاييس
📊 جميع المقاييس 🦖 ديناصور v1 🦖 ديناصور v2 ✅ تطبيقات قائمة المهام 🎨 صفحات حرة إبداعية 🎯 FSACB - العرض النهائي 🌍 مقياس الترجمة
النماذج
🏆 أفضل 10 نماذج 🆓 نماذج مجانية 📋 جميع النماذج ⚙️ كيلو كود
الموارد
💬 مكتبة الأوامر 📖 قاموس الذكاء الاصطناعي 🔗 روابط مفيدة

قاموس الذكاء الاصطناعي

القاموس الكامل للذكاء الاصطناعي

227
الفئات
2,955
الفئات الفرعية
34,512
المصطلحات
📖
المصطلحات

نمذجة اللغة المقنعة (MLM)

هدف التدريب المسبق حيث يتم إخفاء 15% من التوكنات بشكل عشوائي ويجب على النموذج التنبؤ بها باستخدام السياق ثنائي الاتجاه. تتيح هذه التقنية لـ BERT تعلم تمثيلات سياقية عميقة عن طريق إجبار النموذج على فهم العلاقات الدلالية بين الكلمات.

📖
المصطلحات

التنبؤ بالجملة التالية (NSP)

مهمة تدريب مسبق ثنائية حيث يتنبأ النموذج ما إذا كانت الجملتان المقدمتان متتاليتين في النص الأصلي. على الرغم من أنها مثيرة للجدل، تساعد هذه الهدف BERT على فهم العلاقات بين الجمل لمهام مثل QA و NLI.

📖
المصطلحات

ترميز WordPiece

خوارزمية تقسيم تقسم الكلمات إلى وحدات فرعية مورفولوجية للتعامل مع المفردات غير المعروفة وتحسين التمثيل. تتيح هذه الطريقة لـ BERT معالجة الكلمات النادرة والمصطلحات الجديدة بشكل فعال عن طريق تحليلها إلى توكنات معروفة.

📖
المصطلحات

آلية الانتباه الذاتي

آلية أساسية حيث يقوم كل توكن بحساب أوزان الانتباه بالنسبة لجميع التوكنات الأخرى في التسلسل. تتيح هذه العملية لـ BERT التقاط التبعيات بعيدة المدى وإنشاء تمثيلات سياقية غنية.

📖
المصطلحات

تضمينات المقاطع

تضمينات متخصصة تميز بين المقاطع المختلفة في الإدخال، تُستخدم عادةً لفصل الجمل A و B في مهام أزواج الجمل. تتيح هذه التضمينات للنموذج التمييز بين سياق كل مقطع.

📖
المصطلحات

كتلة مشفر Transformer

الوحدة الحسابية الأساسية لـ BERT المكونة من انتباه متعدد الرؤوس يليه شبكة feed-forward مع اتصالات متبقية وتطبيع. تعالج كل كتلة التسلسل بأكمله بشكل متزامن، محافظةً على العلاقات العامة.

📖
المصطلحات

طبقة التجميع

الطبقة النهائية التي تجمع تمثيلات التوكنات في متجه واحد لمهام التصنيف. يستخدم BERT عادةً تمثيل توكن [CLS] أو يقوم بالتجميع المتوسط على جميع التوكنات.

📖
المصطلحات

الحالات المخفية

تمثيلات متجهية عالية الأبعاد يتم إنتاجها في كل طبقة من Transformer لكل توكن في التسلسل. تلتقط هذه الحالات المخفية تدريجيًا خصائص دلالية مجردة越来越多ً.

📖
المصطلحات

التدريب المسبق

مرحلة تدريب غير خاضعة للإشراف على مجموعات نصية ضخمة حيث يتعلم BERT تمثيلات لغوية عامة عبر MLM و NSP. هذه المرحلة تؤسس معرفة النموذج الأساسية قبل الضبط الدقيق الخاص بالمهام.

📖
المصطلحات

بنية المشفر فقط

هيكل BERT الذي يستخدم فقط كتل المشفر من Transformer، على عكس نماذج المشفر-المفكك. هذه البنية محسّنة لمهام فهم النصوص وتصنيفها.

📖
المصطلحات

رمز [CLS]

رمز خاص يضاف في بداية كل تسلسل إدخال تُستخدم تمثيلاته النهائية لمهام التصنيف. هذا الرمز يجمع المعلومات السياقية لكل التسلسل لاتخاذ قرارات على مستوى شامل.

🔍

لم يتم العثور على نتائج