قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
RNN (شبكة عصبية متكررة)
هندسة تعلم عميق مصممة لمعالجة البيانات المتسلسلة من خلال الحفاظ على ذاكرة داخلية عبر اتصالات دورية بين الخلايا العصبية.
خلية الذاكرة
مكون مركزي في شبكات LSTM يخزن الحالة طويلة المدى ويسمح للشبكة بتذكر المعلومات على مدى فترات زمنية طويلة.
بوابة النسيان (Forget Gate)
آلية في شبكات LSTM تحدد أي معلومات من الحالة السابقة يجب التخلص منها أو الاحتفاظ بها في خلية الذاكرة.
بوابة الإدخال (Input Gate)
هيكل يتحكم في أي معلومات جديدة من المدخل الحالي يجب إضافتها إلى حالة الخلية في شبكات LSTM.
بوابة الإخراج (Output Gate)
آلية تنظم أي جزء من حالة الخلية يجب استخدامه لإنتاج المخرج في الخطوة الزمنية الحالية في شبكات LSTM.
مشكلة تضاؤل التدرج
ظاهرة تصبح فيها التدرجات صغيرة للغاية أثناء الانتشار العكسي في شبكات RNN، مما يمنع تعلم الاعتماديات طويلة المدى.
مشكلة انفجار التدرج
حالة تصبح فيها التدرجات كبيرة للغاية أثناء تدريب شبكات RNN، مما يسبب عدم استقرار رقمي وتباعد في التعلم.
RNN ثنائي الاتجاه
هندسة تعالج المتسلسلات في الاتجاهين الزمانيين في آن واحد، وبذلك تلتقط السياق الماضي والمستقبلي لكل نقطة في المتسلسلة.
التعرف على الأنماط الزمنية
قدرة الشبكات العصبية المتكررة (RNN) على تحديد وتعلم الأنماط المتكررة في البيانات المتسلسلة لأغراض التنبؤ والتصنيف.
التنبؤ بالسلاسل الزمنية
تطبيق الشبكات العصبية المتكررة (RNN) للتنبؤ بالقيم المستقبلية لسلسلة زمنية بناءً على الملاحظات التاريخية والأنماط الزمنية المتعلمة.
معالجة البيانات المتسلسلة
عملية تحليل البيانات حيث يكون الترتيب والتبعيات الزمنية بين العناصر حاسمين، وهو مجال تفوق الشبكات المتكررة.
الاتصالات المتكررة
روابط دورية في الشبكات العصبية المتكررة (RNN) تربط الخلايا العصبية بنفسها أو بالطبقات السابقة، مما يسمح باستمرارية المعلومات عبر الزمن.
ديناميكية الطبقة المخفية
التطور الزمني للتنشيطات في الطبقات المخفية للشبكات العصبية المتكررة (RNN)، والذي يحدد كيفية تحويل المعلومات ونشرها عبر الزمن.
الاقتطاع الزمني
تقنية تحد من الانتشار العكسي لعدد ثابت من الخطوات الزمنية السابقة لتقليل التعقيد الحسابي وتخفيف مشاكل التدرج.