🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки
📖
Régularisation de Paramètres

Learning without Forgetting (LwF)

Подход, использующий дистилляцию знаний для сохранения ответов модели на старых данных при изучении новой задачи. Исходная модель выступает в роли учителя, направляя обновленную модель, что предотвращает ухудшение производительности на предыдущих задачах.

← Назад