قاموس الذكاء الاصطناعي
القاموس الكامل للذكاء الاصطناعي
التعلم الآلي التلقائي المدمج
مجال فرعي للتعلم الآلي التلقائي متخصص في إنشاء نماذج محسّنة تلقائيًا للقيود المحددة للأجهزة المدمجة، بما في ذلك الذاكرة المحدودة، وقوة الحوسبة المنخفضة وقيود استهلاك الطاقة.
تكميم النموذج
تقنية تحسين تقلل من الدقة العددية للأوزان والتنشيطات في الشبكة العصبية (عادة من 32 بت إلى 8 بت أو أقل) لتقليل حجم النموذج وتسريع الاستدلال على الأجهزة المقيدة.
تقليم العصبي
عملية الإزالة الانتقائية للأوزان أو الخلايا العصبية الزائدة في الشبكة العصبية لتقليل تعقيدها الحسابي وحجمها مع الحفاظ على دقتها.
تقطير المعرفة
طريقة نقل التعلم حيث يقوم نموذج كبير معلم بتدريب نموذج طالب أكثر إحكامًا، مما يسمح بالاحتفاظ بأداء النموذج الكبير في بنية مناسبة لأجهزة Edge.
تحسين الاستدلال
مجموعة من التقنيات التي تهدف إلى تقليل الوقت والموارد اللازمة لتشغيل نموذج مدرب، بما في ذلك دمج العمليات وتخصيص الذاكرة الفعال واستغلال التوزيع المتوازي للعنصر.
NAS للـEdge
بحث بنية عصبية مقيدة يحسن هياكل الشبكات تلقائيًا مع مراعاة القيود المادية لأجهزة Edge مثل زمن الاستجابة المستهدف واستهلاك الطاقة.
مترجم النموذج
أداة تحول رسوم حساب الذكاء الاصطناعي إلى كود آلة محسن لبنيات محددة، مع دمج التحسينات مثل التكميم ودمج العمليات.
TensorRT
SDK تحسين وتشغيل من NVIDIA لنشر نماذج الذكاء الاصطناعي في الإنتاج، يستخدم التكميم ودمج الطبقات وتحسين النواة لزيادة الأداء على GPU NVIDIA.
رقيق التعلم الآلي
مجال التعلم الآلي المركز على تنفيذ نماذج الذكاء الاصطناعي على المتحكمات الدقيقة والأجهزة فائقة انخفاض استهلاك الطاقة، عادة بأقل من 1 ميجابايت من الذاكرة وتعمل بأقل من 1 ميلي واط.
معالج الحافة TPU
مسرع أجهزة من نوع ASIC طورته جوجل خصيصاً للاستدلال بالذكاء الاصطناعي على الحافة، محسّن لتشغيل نماذج TensorFlow Lite المكممة بكفاءة طاقة عالية.
تحسين الذاكرة
تقنيات تقليل بصمة ذاكرة النماذج بما في ذلك مشاركة الأوزان والضغط والتخصيص الديناميكي للتكيف مع قيود الأجهزة المدمجة.
زمن استجابة الاستدلال
الوقت المنقضي بين إدخال البيانات في النموذج والحصول على تنبؤاته، معلمة حاسمة في تطبيقات الحافة في الوقت الفعلي حيث القيم النموذجية المستهدفة تقل عن 10 مللي ثانية.
نموذج خفيف الوزن
بنية شبكة عصبية مصممة خصيصاً لتقليل المعلمات والعمليات الحسابية، مثل MobileNet أو EfficientNet، محسّنة للنشر على الهواتف المحمولة والحافة.
النشر الموزع
استراتيجية توزيع أعباء عمل الذكاء الاصطناعي بين أجهزة حافة متعددة لتحسين الموارد الإجمالية وتعزيز قابلية التوسع لتطبيقات الذكاء الاصطناعي الموزعة.
تحسين استهلاك الطاقة
عملية تقليل استهلاك الكهرباء لنماذج الذكاء الاصطناعي على أجهزة الحافة، أمر حاسم للتطبيقات التي تعمل بالبطارية والنشر على نطاق واسع.
الذكاء الاصطناعي على الحافة
نموذج معالجة الذكاء الاصطناعي مباشرة على أجهزة الحافة، مما يلغي الحاجة للتواصل مع السحابة لمهام الاستدلال الحرجة.
ميكروكونترولر بالذكاء الاصطناعي
نظام على شريصة استهلاك فائق المنخفض يدمج مسرعات مادية مخصصة للاستدلال بالذكاء الاصطناعي، مما يسمح بتشغيل نماذج TinyML باستهلاك بضع ميغاواط.
تحسين مدرك للعhardware
نهج AutoML الذي يدمج الخصائص المحددة للعardware المستهدف في عملية التصميم التلقائي للنماذج، مما يضمن التوافق والأداء الأمثل.
اندماج العمليات
تقنية تجميع تجمع بين طبقات أو عمليات متجاورة متعددة في عملية kernel واحدة، مما يقلل من الحمل الزائد للذاكرة ويحسن الكفاءة الحسابية على Edge.