🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

Graph Transformer

Architecture neuronale combinant les mécanismes d'attention des Transformers avec la structure des graphes pour capturer les dépendances globales et locales dans les données relationnelles.

📖
術語

Attention sur les graphes

Mécanisme adapté de l'attention des Transformers qui calcule l'importance relative entre les nœuds d'un graphe en tenant compte de leur connectivité structurelle.

📖
術語

Positional encoding pour graphes

Technique d'encodage positionnel adaptée aux graphes qui intègre des informations structurelles comme les distances, les degrés ou les chemins pour représenter la position relative des nœuds.

📖
術語

Self-attention sur les nœuds

Opération où chaque nœud du graphe calcule une pondération d'attention sur tous les autres nœuds, y compris lui-même, pour capturer les dépendances à longue portée.

📖
術語

Graph Attention Network (GAT)

Architecture pionnière introduisant l'attention masquée dans les GNNs, où les poids d'attention sont calculés uniquement entre les nœuds voisins directs.

📖
術語

Propagation de messages

Processus fondamental des GNNs où les nœuds échangent et agrègent des informations avec leurs voisins pour mettre à jour leurs représentations latentes.

📖
術語

Mécanisme d'attention multi-tête

Extension de l'attention où plusieurs têtes d'attention calculent indépendamment les poids d'attention, permettant de capturer différents types de relations dans le graphe.

📖
術語

Edge embedding

Représentation vectorielle des arêtes du graphe capturant leurs caractéristiques intrinsèques et les relations entre les nœuds qu'elles connectent.

📖
術語

Transformer-XL pour graphes

Extension adaptée du Transformer-XL qui gère les dépendances à longue portée dans les graphes grâce à un mécanisme de cache segmenté.

📖
術語

GraphBERT

Architecture pré-entraînée spécifiquement conçue pour les graphes utilisant des Transformers masqués et des stratégies d'entraînement auto-supervisé.

📖
術語

Graphormer

Architecture Transformer pure pour les graphes utilisant des encodages positionnels basés sur la centralité et des mécanismes d'attention structurée.

📖
術語

Attention sur les arêtes

Variante de l'attention où les poids sont calculés sur les arêtes plutôt que sur les nœuds, permettant de modéliser directement l'importance des relations.

📖
術語

Heterogeneous Graph Transformer

Extension des Graph Transformers adaptée aux graphes hétérogènes avec différents types de nœuds et d'arêtes utilisant des mécanismes d'attention spécifiques par type.

📖
術語

Attention structurale

Mécanisme d'attention intégrant explicitement des informations structurelles comme les chemins, les cycles ou les motifs du graphe dans le calcul des poids d'attention.

📖
術語

Cross-attention entre nœuds

Opération d'attention où les requêtes, clés et valeurs proviennent de représentations différentes des nœuds, permettant des interactions plus complexes.

🔍

搵唔到結果