🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Graph Transformer

Architecture neuronale combinant les mécanismes d'attention des Transformers avec la structure des graphes pour capturer les dépendances globales et locales dans les données relationnelles.

📖
termes

Attention sur les graphes

Mécanisme adapté de l'attention des Transformers qui calcule l'importance relative entre les nœuds d'un graphe en tenant compte de leur connectivité structurelle.

📖
termes

Positional encoding pour graphes

Technique d'encodage positionnel adaptée aux graphes qui intègre des informations structurelles comme les distances, les degrés ou les chemins pour représenter la position relative des nœuds.

📖
termes

Self-attention sur les nœuds

Opération où chaque nœud du graphe calcule une pondération d'attention sur tous les autres nœuds, y compris lui-même, pour capturer les dépendances à longue portée.

📖
termes

Graph Attention Network (GAT)

Architecture pionnière introduisant l'attention masquée dans les GNNs, où les poids d'attention sont calculés uniquement entre les nœuds voisins directs.

📖
termes

Propagation de messages

Processus fondamental des GNNs où les nœuds échangent et agrègent des informations avec leurs voisins pour mettre à jour leurs représentations latentes.

📖
termes

Mécanisme d'attention multi-tête

Extension de l'attention où plusieurs têtes d'attention calculent indépendamment les poids d'attention, permettant de capturer différents types de relations dans le graphe.

📖
termes

Edge embedding

Représentation vectorielle des arêtes du graphe capturant leurs caractéristiques intrinsèques et les relations entre les nœuds qu'elles connectent.

📖
termes

Transformer-XL pour graphes

Extension adaptée du Transformer-XL qui gère les dépendances à longue portée dans les graphes grâce à un mécanisme de cache segmenté.

📖
termes

GraphBERT

Architecture pré-entraînée spécifiquement conçue pour les graphes utilisant des Transformers masqués et des stratégies d'entraînement auto-supervisé.

📖
termes

Graphormer

Architecture Transformer pure pour les graphes utilisant des encodages positionnels basés sur la centralité et des mécanismes d'attention structurée.

📖
termes

Attention sur les arêtes

Variante de l'attention où les poids sont calculés sur les arêtes plutôt que sur les nœuds, permettant de modéliser directement l'importance des relations.

📖
termes

Heterogeneous Graph Transformer

Extension des Graph Transformers adaptée aux graphes hétérogènes avec différents types de nœuds et d'arêtes utilisant des mécanismes d'attention spécifiques par type.

📖
termes

Attention structurale

Mécanisme d'attention intégrant explicitement des informations structurelles comme les chemins, les cycles ou les motifs du graphe dans le calcul des poids d'attention.

📖
termes

Cross-attention entre nœuds

Opération d'attention où les requêtes, clés et valeurs proviennent de représentations différentes des nœuds, permettant des interactions plus complexes.

🔍

Aucun résultat trouvé