🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki

Słownik AI

Kompletny słownik sztucznej inteligencji

162
kategorie
2 032
podkategorie
23 060
pojęcia
📂
podkategorie

Auto-Attention Multi-Tête

Mécanisme fondamental permettant au modèle de se concentrer simultanément sur différentes positions de la séquence avec plusieurs représentations d'attention.

13 pojęcia
📂
podkategorie

Encodage Positionnel

Technique permettant d'intégrer des informations sur la position des tokens dans les séquences, car les Transformers ne possèdent pas de récurrence intrinsèque.

19 pojęcia
📂
podkategorie

Architecture Encoder-Decoder

Structure bidirectionnelle où l'encodeur traite la séquence d'entrée et le décodeur génère la séquence de sortie, utilisée dans les tâches de traduction.

5 pojęcia
📂
podkategorie

BERT et Modèles Masked LM

Modèles pré-entraînés avec objectif de masquage de tokens, révolutionnant le NLP avec des représentations contextuelles bidirectionnelles.

3 pojęcia
📂
podkategorie

GPT et Modèles Autorégressifs

Architecture basée sur le décodeur-only générant du texte token par token, prédictant le token suivant en fonction des précédents.

11 pojęcia
📂
podkategorie

Vision Transformers (ViT)

Adaptation des Transformers pour les tâches de vision par ordinateur, traitant les images comme des séquences de patches.

5 pojęcia
📂
podkategorie

Attention Linéaire et Efficace

Variants d'attention réduisant la complexité quadratique en complexité linéaire pour traiter des séquences plus longues efficacement.

3 pojęcia
📂
podkategorie

Transformers Multimodaux

Architecture unifiée traitant simultanément plusieurs modalités (texte, image, audio) dans un même espace de représentation.

9 pojęcia
📂
podkategorie

Fine-Tuning et Prompt Engineering

Techniques d'adaptation des modèles pré-entraînés à des tâches spécifiques avec peu de données d'entraînement.

7 pojęcia
📂
podkategorie

Interprétabilité des Mécanismes d'Attention

Étude et visualisation des poids d'attention pour comprendre les décisions du modèle et identifier les dépendances apprises.

14 pojęcia
📂
podkategorie

Transformers pour Audio

Application des architectures Transformer aux tâches de traitement audio, reconnaissance vocale et génération musicale.

18 pojęcia
📂
podkategorie

Sparse Attention

Variantes d'attention ne considérant qu'un sous-ensemble des positions pour réduire la complexité computationnelle et mémorielle.

0 pojęcia
🔍

Nie znaleziono wyników