🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki

Słownik AI

Kompletny słownik sztucznej inteligencji

162
kategorie
2 032
podkategorie
23 060
pojęcia
📖
pojęcia

Encodage Positionnel Sinusoïdal

Méthode d'encodage positionnel original utilisant des fonctions sinusoïdales de différentes fréquences pour générer des vecteurs de position uniques et continus.

📖
pojęcia

Encodage Positionnel Appris

Approche où les vecteurs de position sont des paramètres entraînés du modèle, permettant au réseau d'apprendre les représentations positionnelles optimales pour la tâche.

📖
pojęcia

Encodage Positionnel Relatif

Variante d'encodage qui se concentre sur les distances relatives entre les tokens plutôt que leurs positions absolues dans la séquence.

📖
pojęcia

Biais Positionnel

Technique d'encodage positionnel où l'information de position est ajoutée sous forme de biais dans les scores d'attention plutôt que dans les embeddings d'entrée.

📖
pojęcia

Encodage Alibi (Attention with Linear Biases)

Méthode d'encodage positionnel qui pénalise l'attention en fonction de la distance entre les tokens, permettant une meilleure extrapolation à des séquences plus longues.

📖
pojęcia

Encodage Positionnel Rotationnel (RoPE)

Technique qui intègre l'information positionnelle en faisant tourner les vecteurs d'embedding dans l'espace, préservant les relations géométriques entre les tokens.

📖
pojęcia

Encodage Positionnel Convolutif

Approche utilisant des couches de convolution pour générer des représentations positionnelles, capturant des motifs locaux et globaux dans les séquences.

📖
pojęcia

Positionnement Absolu

Stratégie d'encodage où chaque token reçoit un identifiant de position unique basé sur son index absolu dans la séquence.

📖
pojęcia

Positionnement Relatif

Stratégie où l'attention entre les tokens dépend de leur distance relative plutôt que de leurs positions absolues dans la séquence.

📖
pojęcia

Encodage Positionnel Hiérarchique

Méthode qui encode la position à plusieurs niveaux de granularité, capturant à la fois les positions locales et globales dans la structure de la séquence.

📖
pojęcia

Embeddings de Position

Vecteurs denses représentant la position de chaque token dans une séquence, ajoutés aux embeddings de contenu pour former les entrées du Transformer.

📖
pojęcia

Matrice de Positionnement

Structure mathématique contenant les encodages positionnels pour toutes les positions possibles dans une séquence de longueur maximale.

📖
pojęcia

Encodage Positionnel Axial

Technique d'encodage positionnel pour données 2D (comme les images) qui encode séparément les positions sur les axes horizontal et vertical.

📖
pojęcia

Encodage Positionnel par Tenseur

Méthode avancée utilisant des produits tensoriels pour capturer des interactions complexes entre différentes dimensions positionnelles dans les séquences.

📖
pojęcia

Positionnement par Périodicité

Approche d'encodage qui utilise des motifs périodiques pour représenter les positions, particulièrement efficace pour les séquences avec des structures répétitives.

📖
pojęcia

Encodage Positionnel Adaptatif

Technique où les encodages positionnels s'adaptent dynamiquement en fonction du contenu et de la longueur de la séquence traitée.

📖
pojęcia

Positionnement par Interpolation

Méthode permettant d'étendre les encodages positionnels à des longueurs de séquence non vues lors de l'entraînement par interpolation des positions existantes.

📖
pojęcia

Encodage Positionnel Continu

Approche qui traite la position comme une variable continue plutôt que discrète, permettant une représentation plus fine des positions intermédiaires.

📖
pojęcia

Positionnement par Attention Relative

Variante où les scores d'attention sont directement modifiés par les distances relatives entre les tokens, intégrant le positionnement dans le mécanisme d'attention.

🔍

Nie znaleziono wyników