🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки
📖
Разреженное внимание

Kernel-based Attention

Подход, использующий ядра для аппроксимации softmax-внимания, позволяющий выполнять вычисления с линейной сложностью с помощью таких техник, как FAVOR+ (Fast Attention Via Positive Orthogonal Random Features).

← Назад