🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Graph Transformer

Architecture neuronale combinant les mécanismes d'attention des Transformers avec la structure des graphes pour capturer les dépendances globales et locales dans les données relationnelles.

📖
个术语

Attention sur les graphes

Mécanisme adapté de l'attention des Transformers qui calcule l'importance relative entre les nœuds d'un graphe en tenant compte de leur connectivité structurelle.

📖
个术语

Positional encoding pour graphes

Technique d'encodage positionnel adaptée aux graphes qui intègre des informations structurelles comme les distances, les degrés ou les chemins pour représenter la position relative des nœuds.

📖
个术语

Self-attention sur les nœuds

Opération où chaque nœud du graphe calcule une pondération d'attention sur tous les autres nœuds, y compris lui-même, pour capturer les dépendances à longue portée.

📖
个术语

Graph Attention Network (GAT)

Architecture pionnière introduisant l'attention masquée dans les GNNs, où les poids d'attention sont calculés uniquement entre les nœuds voisins directs.

📖
个术语

Propagation de messages

Processus fondamental des GNNs où les nœuds échangent et agrègent des informations avec leurs voisins pour mettre à jour leurs représentations latentes.

📖
个术语

Mécanisme d'attention multi-tête

Extension de l'attention où plusieurs têtes d'attention calculent indépendamment les poids d'attention, permettant de capturer différents types de relations dans le graphe.

📖
个术语

Edge embedding

Représentation vectorielle des arêtes du graphe capturant leurs caractéristiques intrinsèques et les relations entre les nœuds qu'elles connectent.

📖
个术语

Transformer-XL pour graphes

Extension adaptée du Transformer-XL qui gère les dépendances à longue portée dans les graphes grâce à un mécanisme de cache segmenté.

📖
个术语

GraphBERT

Architecture pré-entraînée spécifiquement conçue pour les graphes utilisant des Transformers masqués et des stratégies d'entraînement auto-supervisé.

📖
个术语

Graphormer

Architecture Transformer pure pour les graphes utilisant des encodages positionnels basés sur la centralité et des mécanismes d'attention structurée.

📖
个术语

Attention sur les arêtes

Variante de l'attention où les poids sont calculés sur les arêtes plutôt que sur les nœuds, permettant de modéliser directement l'importance des relations.

📖
个术语

Heterogeneous Graph Transformer

Extension des Graph Transformers adaptée aux graphes hétérogènes avec différents types de nœuds et d'arêtes utilisant des mécanismes d'attention spécifiques par type.

📖
个术语

Attention structurale

Mécanisme d'attention intégrant explicitement des informations structurelles comme les chemins, les cycles ou les motifs du graphe dans le calcul des poids d'attention.

📖
个术语

Cross-attention entre nœuds

Opération d'attention où les requêtes, clés et valeurs proviennent de représentations différentes des nœuds, permettant des interactions plus complexes.

🔍

未找到结果