🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📖
terimler

SAINT

Architecture de réseau de neurones de type Transformer conçue spécifiquement pour les données tabulaires, intégrant des mécanismes d'attention intra-échantillon et inter-échantillon pour capturer les dépendances complexes.

📖
terimler

Attention Intra-Échantillon

Mécanisme d'attention qui calcule les relations entre les différentes caractéristiques (features) au sein d'un même échantillon de données tabulaires, permettant de modéliser les interactions intrinsèques des variables.

📖
terimler

Attention Inter-Échantillon

Mécanisme d'attention qui évalue les relations et les similarités entre différents échantillons (lignes) d'un jeu de données tabulaires, facilitant l'apprentissage de patterns globaux et la régularisation du modèle.

📖
terimler

Tabular Transformer

Adaptation de l'architecture Transformer pour le traitement de données tabulaires, remplaçant généralement les tokens de texte par les caractéristiques des colonnes et utilisant des encodages spécifiques aux types de données.

📖
terimler

Encodage Positionnel Tabulaire

Technique d'incorporation de l'information sur la position ou l'importance relative des caractéristiques dans un échantillon tabulaire, essentielle pour que les mécanismes d'attention différencient les colonnes.

📖
terimler

Régularisation par Attention

Utilisation des poids d'attention inter-échantillon comme une forme de régularisation, où le modèle apprend à lisser les prédictions en se basant sur les échantillons similaires du jeu d'entraînement.

📖
terimler

Projection de Requête, Clé, Valeur

Opérations de transformation linéaire appliquées aux embeddings de caractéristiques pour générer les tenseurs de Requête (Query), Clé (Key) et Valeur (Value) utilisés dans le calcul du score d'attention.

📖
terimler

Score d'Attention Tabulaire

Mesure de l'importance ou de la pertinence d'une caractéristique par rapport à une autre, calculée comme le produit scalaire entre les vecteurs Requête et Clé, suivi d'une fonction softmax.

📖
terimler

Agrégation par Attention

Processus de combinaison pondérée des informations de plusieurs caractéristiques ou échantillons, où les poids sont déterminés par les scores d'attention, pour produire une représentation contextuelle enrichie.

📖
terimler

Normalisation de Couche Transformer

Technique de normalisation appliquée à la sortie de chaque sous-couche (attention ou réseau feed-forward) dans un Transformer, stabilisant l'entraînement et améliorant la convergence du modèle.

📖
terimler

Réseau Feed-Forward Positionnel

Module entièrement connecté appliqué indépendamment à chaque représentation de caractéristique, permettant au modèle d'apprendre des transformations non linéaires complexes après le mécanisme d'attention.

📖
terimler

Encodage Catégoriel Appris

Méthode où les variables catégorielles sont converties en vecteurs d'embedding dont les valeurs sont optimisées durant l'entraînement, contrairement aux approches statiques comme le one-hot encoding.

📖
terimler

Interaction de Caractéristiques d'Ordre Supérieur

Capacité du modèle SAINT à capturer automatiquement des relations complexes et non linéaires entre plus de deux caractéristiques, sans nécessiter d'ingénierie de caractéristiques manuelle.

📖
terimler

Séparabilité Linéaire des Données Tabulaires

Hypothèse souvent invalide pour les données tabulaires complexes, justifiant l'utilisation de modèles non linéaires comme SAINT qui peuvent apprendre des frontières de décision plus flexibles.

📖
terimler

Bruit Structurel dans les Données Tabulaires

Présence de valeurs aberrantes ou d'incohérences inhérentes aux jeux de données tabulaires, que les mécanismes d'attention de SAINT peuvent atténuer en se concentrant sur les caractéristiques les plus pertinentes.

🔍

Sonuç bulunamadı