🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📖
термины

Weight Decay

Регуляризация L2, добавляющая штраф, пропорциональный сумме квадратов весов, в функцию потерь. Ограничивает веса, стремя их к нулю, для уменьшения сложности модели и предотвращения переобучения.

📖
термины

Early Stopping

Преждевременная остановка обучения, когда производительность на валидационном наборе перестает улучшаться. Предотвращает переобучение путем отслеживания потерь на валидации и сохранения лучших весов.

📖
термины

L1 Regularization

Штраф, добавляемый к функции потерь, равный сумме абсолютных значений весов. Способствует разреженности, подталкивая некоторые веса точно к нулю, выполняя автоматический отбор признаков.

📖
термины

L2 Regularization

Квадратичный штраф на веса, который уменьшает их величину, не обнуляя их полностью. Стабилизирует обучение и улучшает обобщение, ограничивая сложность модели.

📖
термины

Gradient Clipping

Ограничение нормы градиента для предотвращения взрыва градиентов в глубоких сетях. Поддерживает числовую стабильность, ограничивая градиенты заранее заданным максимальным значением.

📖
термины

Learning Rate Scheduling

Динамическая настройка скорости обучения в процессе обучения согласно предопределенным стратегиям. Включает экспоненциальное затухание, уменьшение при плато и косинусоидное расписание для оптимизации сходимости.

📖
термины

Momentum Optimization

Ускоритель оптимизации, накапливающий вектор скорости для преодоления локальных минимумов и плато. Вводит инерцию в градиентный спуск для более стабильной и быстрой сходимости.

📖
термины

Adam Optimizer

Адаптивный алгоритм оптимизации, объединяющий импульс и RMSprop для индивидуальных скоростей обучения по параметрам. Автоматически настраивает скорости обучения на основе моментов первого и второго порядка.

📖
термины

Пространственный Dropout

Вариант Dropout, отключающий целые карты признаков вместо отдельных нейронов. Особенно эффективен для CNN, где коррелированные пространственные признаки должны быть регуляризованы вместе.

📖
термины

Стохастическая глубина

Техника случайного пропуска слоев во время обучения в очень глубоких сетях. Уменьшает переобучение и улучшает распространение градиента, варьируя эффективную глубину сети.

📖
термины

Сглаживание меток

Регуляризация целевых меток путём распределения небольшой вероятности на неправильные классы. Предотвращает избыточную уверенность модели и улучшает калибровку прогнозов, сглаживая целевое распределение.

📖
термины

Mixup

Техника регуляризации, создающая новые образцы путём линейной интерполяции изображений и их меток. Побуждает модель вести себя линейно между примерами, улучшая робастность и обобщение.

📖
термины

CutMix

Аугментация данных, вырезающая и вставляющая патчи между изображениями с пропорциональной интерполяцией меток. Эффективно комбинирует пространственные признаки, сохраняя локализацию объектов.

📖
термины

Регуляризация Elastic Net

Выпуклая комбинация регуляризаций L1 и L2 для извлечения преимуществ обоих подходов. Сохраняет разреженность L1, поддерживая числовую стабильность L2.

📖
термины

RMSprop

Адаптивный оптимизатор, делящий градиент на скользящее среднее его квадратной величины. Особенно эффективен для нестационарных сетей и сложных задач оптимизации.

🔍

Результаты не найдены