🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки

Глоссарий ИИ

Полный словарь искусственного интеллекта

235
категории
2 988
подкатегории
33 628
термины
📖
термины

N-pair Loss

Обобщение triplet loss, которое сравнивает один положительный пример с N отрицательными примерами одновременно, улучшая эффективность обучения и стабильность сходимости. Особенно эффективно для крупномасштабных наборов данных.

📖
термины

Angular Loss

Функция потерь, которая оптимизирует углы между векторами эмбеддингов вместо их евклидовых расстояний, обеспечивая лучшую инвариантность к масштабу и лучшее разделение классов. Особенно полезна для задач распознавания лиц.

📖
термины

Center Loss

Функция потерь, которая минимизирует внутриклассовое расстояние, заставляя эмбеддинги одного класса приближаться к их изученному центру класса. Часто комбинируется с другими дискриминативными потерями для улучшения компактности кластеров.

📖
термины

ArcFace Loss

Аддитивная угловая функция потерь, которая улучшает дискриминативность эмбеддингов путем добавления углового запаса в пространстве гиперсфер. Особенно эффективна для задач распознавания с большим количеством классов и малым количеством примеров.

📖
термины

SphereFace Loss

Мультипликативная угловая функция потерь, которая накладывает угловое ограничение на эмбеддинги для улучшения межклассовой разделимости. Предназначена для обучения дискриминантных эмбеддингов на единичной гиперсфере.

📖
термины

Proxy-NCA Loss

Вариант Neighborhood Components Analysis, который использует обучаемые прокси для представления каждого класса, снижая вычислительную сложность по сравнению с подходами на основе пар. Особенно эффективна для крупномасштабных наборов данных.

📖
термины

Deep Metric Learning

Применение глубоких нейронных сетей для изучения сложных функций расстояния или сходства из необработанных данных. Этот подход сочетает репрезентативную мощность глубоких сетей с принципами метрического обучения.

📖
термины

Similarity Learning

Парадигма обучения, в которой модель учится оценивать сходство между парами примеров, а не напрямую предсказывать метки. Этот подход фундаментален для few-shot learning и систем рекомендаций.

🔍

Результаты не найдены