قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
عرض نطاق PCIe
أقصى معدل لنقل البيانات عبر ناقل PCIe، وهو أمر حاسم لسرعة الاتصال بين وحدة المعالجة المركزية ووحدة معالجة الرسومات في أحمال الذكاء الاصطناعي.
NVMe عبر الشبكات
بروتوكول يسمح بالوصول إلى تخزين NVMe عبر الشبكة، مما يقلل زمن الوصول لمجموعات البيانات الضخمة في الذكاء الاصطناعي.
التخزين المباشر لوحدة معالجة الرسومات
تقنية من NVIDIA تتيح نقل البيانات مباشرة من التخزين إلى ذاكرة وحدة معالجة الرسومات، متجاوزة وحدة المعالجة المركزية والذاكرة العشوائية.
تثبيت الذاكرة
عملية قفل صفحات الذاكرة في الذاكرة العشوائية لضمان وصول DMA (الوصول المباشر للذاكرة) مستمر وسريع من قبل وحدة معالجة الرسومات.
النقل بدون نسخ
تقنية تحسين حيث يتم نقل البيانات مباشرة بين الأجهزة دون نسخ وسيط في ذاكرة وحدة المعالجة المركزية.
إنتاجية نوى Tensor
قدرة الحساب لنوى Tensor في وحدة معالجة الرسومات، غالباً ما تكون محدودة بسرعة تدفق البيانات من الذاكرة.
توازي خط أنابيب البيانات
إستراتيجية حيث يتم تنفيذ تحميل البيانات، المعالجة المسبقة، ونقل البيانات بالتوازي مع حساب وحدة معالجة الرسومات لإخفاء زمن الوصول.
الجلب المسبق
تحميل البيانات مسبقاً في ذاكرة وحدة معالجة الرسومات قبل أن تكون مطلوبة للحساب، للحفاظ على انشغال وحدة معالجة الرسومات.
زمن الانتقال من المضيف إلى الجهاز
الوقت اللازم لبدء وإكمال نقل البيانات من وحدة المعالجة المركزية (المضيف) إلى وحدة معالجة الرسومات (الجهاز).
تيار CUDA
تسلسل العمليات المنفذة على وحدة معالجة الرسومات بترتيب محدد، مما يسمح بتنافس عمليات النقل والحسابات.
الوعي بـ NUMA
تحسين تخصيصات الذاكرة لاحترام طوبولوجيا NUMA في خوادم متعددة المعالجات، مما يقلل من زمن الوصول.
GPUDirect RDMA
تقنية تسمح بنقل البيانات مباشرة بين ذاكرة وحدة معالجة الرسومات في عقد مختلفة عبر RDMA، دون نسخ عبر وحدة المعالجة المركزية.
نقل البيانات غير المتزامن
نقل البيانات المنفذ بالتوازي مع حسابات وحدة معالجة الرسومات، باستخدام تيارات CUDA لإخفاء زمن الانتقال.
ذاكرة مقفلة الصفحات
ذاكرة نظام غير قابلة للترحيل، مطلوبة لنقل DMA غير المتزامن عالي الإنتاجية إلى وحدة معالجة الرسومات.