🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📖
термины

Teacher Model

Большая и сложная предварительно обученная нейронная модель, которая служит источником знаний для обучения более компактной модели через процесс дистилляции.

📖
термины

Student Model

Нейронная модель уменьшенного размера, которая учится имитировать поведение teacher model, используя его обобщения и будучи более вычислительно эффективной.

📖
термины

Soft Targets

Выходные вероятности teacher model до применения функции argmax, содержащие информацию о взаимосвязях между классами, которую не захватывают жесткие метки.

📖
термины

Temperature Scaling

Техника настройки логитов путем деления на параметр температуры для смягчения распределения вероятностей и выявления межклассовых связей при дистилляции.

📖
термины

Hard Targets

Традиционные метки истинности (в one-hot кодировке), используемые вместе с soft targets для поддержания точности прогнозов во время дистилляции.

📖
термины

Dark Knowledge

Тонкая информация, содержащаяся в выходных вероятностях teacher model, которая выявляет сходства между классами и отсутствует в жестких метках.

📖
термины

Distillation Loss

Комбинированная функция потерь, которая измеряет как расхождение между мягкими прогнозами student и teacher, так и точность по отношению к жестким меткам.

📖
термины

Feature Distillation

Вариант дистилляции, при котором student учится воспроизводить промежуточные представления (features) teacher, а не только конечные прогнозы.

📖
термины

Реляционная дистилляция знаний

Подход, при котором студент (student) учится сохранять структурные отношения между обучающими выборками, которые сохраняет учитель (teacher), выходя за рамки индивидуальных предсказаний.

📖
термины

Самодистилляция знаний

Техника, при которой модель самостоятельно дистиллирует знания, используя свои собственные знания на разных этапах обучения или в разных ветвях для повышения производительности.

📖
термины

Дистилляция знаний от нескольких учителей

Стратегия, использующая несколько моделей-учителей для передачи разнообразных знаний одному студенту, объединяя их соответствующие экспертизы.

📖
термины

Онлайн-дистилляция

Метод, при котором модели-учителя и студенты обучаются одновременно, что позволяет осуществлять динамический и адаптивный перенос знаний в процессе обучения.

📖
термины

Дистилляция знаний без примеров (Zero-Shot)

Подход, позволяющий дистиллировать знания от учителя без необходимости в обучающих данных, используя только веса предварительно обученной модели.

📖
термины

Дистилляция на основе внимания

Конкретная техника, при которой студент учится воспроизводить карты внимания учителя, тем самым перенося знания о важных частях входных данных.

📖
термины

Структурная дистилляция знаний

Метод, сохраняющий структуру и архитектуру учителя в студенте, поддерживая исходные отношения между слоями и потоки информации.

📖
термины

Постепенная дистилляция знаний

Многоэтапная стратегия, при которой промежуточная модель выступает в качестве учителя для финального студента, обеспечивая плавный переход знаний.

📖
термины

Очистка знаний

Процесс фильтрации зашумленных или некорректных знаний от учителя перед дистилляцией, обеспечивающий передачу знаний более высокого качества ученику.

📖
термины

Гетерогенная дистилляция знаний

Подход, при котором учитель и ученик имеют разные архитектуры (например, CNN к Transformer), требующий специальных методов адаптации для передачи знаний.

🔍

Результаты не найдены