🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📂
подкатегории

Байесовская оптимизация

Вероятностный метод, использующий гауссовские процессы для моделирования целевой функции и эффективного поиска гиперпараметров.

12 термины
📂
подкатегории

Hyperband и Successive Halving

Подходы к динамическому распределению ресурсов, которые на ранних этапах исключают неудачные конфигурации для оптимизации использования вычислительного бюджета.

14 термины
📂
подкатегории

Многоцелевая оптимизация

Продвинутые методы для одновременной оптимизации нескольких конфликтующих метрик производительности (например: точность против времени вывода).

11 термины
📂
подкатегории

BOHB (Байесовская оптимизация HyperBand)

Гибридная комбинация байесовской оптимизации и Hyperband для эффективного поиска с адаптивным распределением ресурсов.

10 термины
📂
подкатегории

Поиск нейронной архитектуры (NAS)

Автоматическая оптимизация структуры нейронных сетей (глубина, ширина, соединения) в дополнение к классическим гиперпараметрам.

5 термины
📂
подкатегории

Мета-обучение для гиперпараметров

Подход, который учится на предыдущих оптимизациях для интеллектуальной инициализации поиска по новым задачам.

14 термины
📂
подкатегории

Оптимизация эволюционными алгоритмами

Методы, вдохновленные естественной эволюцией, использующие мутацию, скрещивание и отбор для исследования пространства гиперпараметров.

8 термины
📂
подкатегории

Обучение на основе популяции (PBT)

Конкурентная эволюционная техника, которая одновременно использует и исследует, адаптируя гиперпараметры во время обучения.

12 термины
📂
подкатегории

Оптимизация с ограничениями

Продвинутые методы, управляющие ограничениями на гиперparameters (границы, зависимости, ограничения ресурсов).

18 термины
📂
подкатегории

Параллельная и распределенная оптимизация

Стратегии параллелизации для ускорения оптимизации путем распределения вычислений на несколько вычислительных ресурсов.

17 термины
📂
подкатегории

Оптимизация градиентом гиперпараметров

Дифференцируемый подход, позволяющий оптимизировать некоторые гиперпараметры с помощью градиентного спуска, а не дискретного поиска.

12 термины
📂
подкатегории

Auto-Sklearn и фреймворки AutoML

Полные системы, автоматизирующие оптимизацию гиперпараметров, выбор моделей и предварительную обработку данных.

10 термины
🔍

Результаты не найдены