Глоссарий ИИ
Полный словарь искусственного интеллекта
Graph Self-Supervised Learning
Paradigme d'apprentissage où les modèles de graphes apprennent des représentations sans étiquettes explicites en générant automatiquement des tâches de supervision à partir de la structure du graphe lui-même.
Contrastive Graph Learning
Approche d'apprentissage auto-supervisé qui apprend des représentations de graphes en maximisant l'accord entre différentes vues augmentées du même nœud ou graphe tout en minimisant l'accord entre les instances différentes.
Graph Masking
Tâche proxy consistant à masquer aléatoirement des nœuds, des arêtes ou des attributs dans un graphe et à entraîner le modèle à reconstruire les éléments manquants, forçant ainsi l'apprentissage de représentations robustes.
Graph Augmentation
Technique de création de vues alternatives d'un graphe par des transformations structurelles ou attributaires préservant la sémantique, utilisée pour générer des paires positives dans l'apprentissage contrastif.
Node Representation Learning
Processus d'apprentissage de vecteurs denses (embeddings) qui capturent les caractéristiques structurelles et sémantiques des nœuds dans un espace vectoriel de faible dimension.
Edge Representation Learning
Apprentissage d'embeddings pour les arêtes du graphe qui encodent les relations et interactions entre les nœuds, crucial pour la prédiction de liens et la classification d'arêtes.
Graph Pretext Tasks
Tâches artificiellement construites à partir de la structure du graphe elle-même, servant de signal d'entraînement pour l'apprentissage auto-supervisé avant le transfert vers des tâches en aval.
Graph Context Prediction
Tâche auto-supervisée consistant à prédire le contexte structurel d'un nœud (comme ses voisins à k-sauts) ou les propriétés globales du graphe à partir de représentations locales.
Кластеризация графов
Неконтролируемая прокси-задача, используемая для обучения представлениям, в которой узлы группируются в кластеры на основе их структурного или атрибутивного сходства в пространстве вложений.
Механизмы внимания на графах
Механизмы, которые динамически вычисляют веса внимания для соседей при агрегации информации, позволяя модели сосредоточиться на наиболее релевантных частях окрестности.
Автоэнкодеры графов
Модели кодирования-декодирования, которые изучают сжатые представления графов путем восстановления структуры или атрибутов исходного графа, часто используемые для самоконтролируемого обучения.
Передача сообщений на графах
Фундаментальная парадигма, в которой узлы обмениваются и агрегируют информацию со своими соседями на протяжении нескольких итераций, позволяя распространять информацию по структуре графа.