🏠 Главная
Бенчмарки
📊 Все бенчмарки 🦖 Динозавр v1 🦖 Динозавр v2 ✅ Приложения To-Do List 🎨 Творческие свободные страницы 🎯 FSACB - Ультимативный показ 🌍 Бенчмарк перевода
Модели
🏆 Топ-10 моделей 🆓 Бесплатные модели 📋 Все модели ⚙️ Режимы Kilo Code
Ресурсы
💬 Библиотека промптов 📖 Глоссарий ИИ 🔗 Полезные ссылки
📖
GPT (Generative Pre-trained Transformer)

RLHF (Reinforcement Learning from Human Feedback)

Парадигма выравнивания, в которой модель донастраивается с помощью обучения с подкреплением, используя вознаграждения, полученные из человеческих предпочтений, для калибровки её поведения.

← Назад