🏠 Home
Benchmark
📊 Tutti i benchmark 🦖 Dinosauro v1 🦖 Dinosauro v2 ✅ App To-Do List 🎨 Pagine libere creative 🎯 FSACB - Ultimate Showcase 🌍 Benchmark traduzione
Modelli
🏆 Top 10 modelli 🆓 Modelli gratuiti 📋 Tutti i modelli ⚙️ Kilo Code
Risorse
💬 Libreria di prompt 📖 Glossario IA 🔗 Link utili

Glossario IA

Il dizionario completo dell'Intelligenza Artificiale

162
categorie
2.032
sottocategorie
23.060
termini
📖
termini

Adapters

Petits modules neuronaux insérés entre les couches d'un Transformer pré-entraîné, dont seuls les paramètres sont entraînés lors du fine-tuning pour adapter le modèle à une nouvelle tâche.

📖
termini

P-Tuning v2

Évolution du prefix-tuning où les paramètres entraînables (prompts continus) sont placés non seulement en entrée mais aussi dans chaque couche du Transformer pour une meilleure performance.

📖
termini

Tree of Thoughts (ToT)

Framework avancé de prompt engineering qui modélise le raisnement comme une exploration d'arbre, permettant au modèle d'évaluer et de choisir entre différents chemins de pensée.

📖
termini

Generated Knowledge Prompting

Technique en deux étapes où le modèle génère d'abord des connaissances factuelles sur un sujet, puis utilise ces connaissances pour répondre à une question, améliorant la précision.

📖
termini

Automatic Prompt Engineer (APE)

Méthode qui utilise un grand modèle de langage pour générer et optimiser automatiquement des prompts pour une tâche donnée, en se basant sur un ensemble de données de validation.

📖
termini

Contrastive Fine-Tuning

Approche d'adaptation qui utilise un objectif de perte contrastive pour rapprocher les embeddings de réponses correctes et éloigner ceux de réponses incorrectes.

📖
termini

Multi-Task Prompt Tuning (MTPT)

Variante du prompt tuning qui apprend un ensemble de prompts partagés pour effectuer simultanément le fine-tuning sur plusieurs tâches, améliorant la généralisation.

🔍

Nessun risultato trovato