🏠 Hem
Benchmarkar
📊 Alla benchmarkar 🦖 Dinosaur v1 🦖 Dinosaur v2 ✅ To-Do List-applikationer 🎨 Kreativa fria sidor 🎯 FSACB - Ultimata uppvisningen 🌍 Översättningsbenchmark
Modeller
🏆 Topp 10 modeller 🆓 Gratis modeller 📋 Alla modeller ⚙️ Kilo Code
Resurser
💬 Promptbibliotek 📖 AI-ordlista 🔗 Användbara länkar
📖
Attention Multi-Tête

Connexions Résiduelles

Chemins de raccourci dans les Transformers qui ajoutent l'entrée directement à la sortie des sous-couches d'attention, facilitant l'entraînement de réseaux profonds en préservant le gradient.

← Tillbaka