Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
PCIe Bandwidth
Débit de données maximal transférable via le bus PCIe, crucial pour la vitesse de communication entre CPU et GPU dans les charges d'IA.
NVMe over Fabrics
Protocole permettant d'accéder à des stockages NVMe à travers un réseau, réduisant la latence pour les datasets massifs en IA.
GPUDirect Storage
Technologie NVIDIA permettant un transfert direct de données depuis le stockage vers la mémoire GPU, contournant le CPU et le RAM.
Memory Pinning
Processus de verrouillage de pages mémoire en RAM pour garantir un accès DMA (Direct Memory Access) continu et rapide par le GPU.
Zero-Copy
Technique d'optimisation où les données sont transférées directement entre périphériques sans copie intermédiaire en mémoire CPU.
Tensor Core Throughput
Capacité de calcul des Tensor Cores GPU, souvent limitée par la vitesse d'alimentation en données depuis la mémoire.
Data Pipeline Parallelism
Stratégie où le chargement, prétraitement et transfert de données s'exécutent en parallèle avec le calcul GPU pour masquer les latences.
Prefetching
Chargement anticipé des données en mémoire GPU avant qu'elles ne soient nécessaires par le calcul, pour maintenir le GPU occupé.
Host-to-Device Latency
Temps nécessaire pour initier et compléter un transfert de données depuis le CPU (hôte) vers le GPU (périphérique).
CUDA Stream
Séquence d'opérations exécutées sur le GPU dans un ordre spécifique, permettant de concurrencer transferts et calculs.
NUMA Awareness
Optimisation des allocations mémoire pour respecter la topologie NUMA des serveurs multi-CPU, réduisant les latences d'accès.
GPUDirect RDMA
Technologie permettant un transfert direct de données entre la mémoire GPU de différents nœuds via RDMA, sans copie CPU.
Asynchronous Data Transfer
Transfert de données exécuté en parallèle avec les calculs GPU, utilisant des streams CUDA pour masquer les latences.
Page-Locked Memory
Mémoire système non paginable, requise pour les transferts DMA asynchrones à haut débit vers le GPU.