🏠 Startseite
Vergleiche
📊 Alle Benchmarks 🦖 Dinosaurier v1 🦖 Dinosaurier v2 ✅ To-Do-Listen-Apps 🎨 Kreative freie Seiten 🎯 FSACB - Ultimatives Showcase 🌍 Übersetzungs-Benchmark
Modelle
🏆 Top 10 Modelle 🆓 Kostenlose Modelle 📋 Alle Modelle ⚙️ Kilo Code
Ressourcen
💬 Prompt-Bibliothek 📖 KI-Glossar 🔗 Nützliche Links

KI-Glossar

Das vollständige Wörterbuch der Künstlichen Intelligenz

162
Kategorien
2.032
Unterkategorien
23.060
Begriffe
📖
Begriffe

Adapters

Petits modules neuronaux insérés entre les couches d'un Transformer pré-entraîné, dont seuls les paramètres sont entraînés lors du fine-tuning pour adapter le modèle à une nouvelle tâche.

📖
Begriffe

P-Tuning v2

Évolution du prefix-tuning où les paramètres entraînables (prompts continus) sont placés non seulement en entrée mais aussi dans chaque couche du Transformer pour une meilleure performance.

📖
Begriffe

Tree of Thoughts (ToT)

Framework avancé de prompt engineering qui modélise le raisnement comme une exploration d'arbre, permettant au modèle d'évaluer et de choisir entre différents chemins de pensée.

📖
Begriffe

Generated Knowledge Prompting

Technique en deux étapes où le modèle génère d'abord des connaissances factuelles sur un sujet, puis utilise ces connaissances pour répondre à une question, améliorant la précision.

📖
Begriffe

Automatic Prompt Engineer (APE)

Méthode qui utilise un grand modèle de langage pour générer et optimiser automatiquement des prompts pour une tâche donnée, en se basant sur un ensemble de données de validation.

📖
Begriffe

Contrastive Fine-Tuning

Approche d'adaptation qui utilise un objectif de perte contrastive pour rapprocher les embeddings de réponses correctes et éloigner ceux de réponses incorrectes.

📖
Begriffe

Multi-Task Prompt Tuning (MTPT)

Variante du prompt tuning qui apprend un ensemble de prompts partagés pour effectuer simultanément le fine-tuning sur plusieurs tâches, améliorant la généralisation.

🔍

Keine Ergebnisse gefunden