Transformeurs pour détection
Query-to-Attention
Mécanisme où les requêtes d'objets guident l'attention du modèle vers les régions pertinentes de l'image, contrairement à l'attention globale, ce qui améliore l'efficacité et la spécialisation des prédictions.
← पीछे