🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar

AI-ordlista

Den kompletta ordlistan över AI

162
kategorier
2 032
underkategorier
23 060
termer
📂
underkategorier

Auto-Attention Multi-Tête

Mécanisme fondamental permettant au modèle de se concentrer simultanément sur différentes positions de la séquence avec plusieurs représentations d'attention.

13 termer
📂
underkategorier

Encodage Positionnel

Technique permettant d'intégrer des informations sur la position des tokens dans les séquences, car les Transformers ne possèdent pas de récurrence intrinsèque.

19 termer
📂
underkategorier

Architecture Encoder-Decoder

Structure bidirectionnelle où l'encodeur traite la séquence d'entrée et le décodeur génère la séquence de sortie, utilisée dans les tâches de traduction.

5 termer
📂
underkategorier

BERT et Modèles Masked LM

Modèles pré-entraînés avec objectif de masquage de tokens, révolutionnant le NLP avec des représentations contextuelles bidirectionnelles.

3 termer
📂
underkategorier

GPT et Modèles Autorégressifs

Architecture basée sur le décodeur-only générant du texte token par token, prédictant le token suivant en fonction des précédents.

11 termer
📂
underkategorier

Vision Transformers (ViT)

Adaptation des Transformers pour les tâches de vision par ordinateur, traitant les images comme des séquences de patches.

5 termer
📂
underkategorier

Attention Linéaire et Efficace

Variants d'attention réduisant la complexité quadratique en complexité linéaire pour traiter des séquences plus longues efficacement.

3 termer
📂
underkategorier

Transformers Multimodaux

Architecture unifiée traitant simultanément plusieurs modalités (texte, image, audio) dans un même espace de représentation.

9 termer
📂
underkategorier

Fine-Tuning et Prompt Engineering

Techniques d'adaptation des modèles pré-entraînés à des tâches spécifiques avec peu de données d'entraînement.

7 termer
📂
underkategorier

Interprétabilité des Mécanismes d'Attention

Étude et visualisation des poids d'attention pour comprendre les décisions du modèle et identifier les dépendances apprises.

14 termer
📂
underkategorier

Transformers pour Audio

Application des architectures Transformer aux tâches de traitement audio, reconnaissance vocale et génération musicale.

18 termer
📂
underkategorier

Sparse Attention

Variantes d'attention ne considérant qu'un sous-ensemble des positions pour réduire la complexité computationnelle et mémorielle.

0 termer
🔍

Inga resultat hittades