🏠 Strona Główna
Benchmarki
📊 Wszystkie benchmarki 🦖 Dinozaur v1 🦖 Dinozaur v2 ✅ Aplikacje To-Do List 🎨 Kreatywne wolne strony 🎯 FSACB - Ostateczny pokaz 🌍 Benchmark tłumaczeń
Modele
🏆 Top 10 modeli 🆓 Darmowe modele 📋 Wszystkie modele ⚙️ Kilo Code
Zasoby
💬 Biblioteka promptów 📖 Słownik AI 🔗 Przydatne linki
Trudny

Problem Zgodności (Alignment Problem)

#bezpieczenstwo #alignment #etyka #wartosci #agentic ai

Teoretyczne wyzwania związane z dostosowaniem celów AI do ludzkich wartości.

Zdefiniuj Problem Zgodności w kontekście sztucznej superinteligencji (ASI). Omów teoretyczne trudności w określaniu funkcji nagrody w taki sposób, aby uniknąć nieintended consequences (niezamierzonych konsekwencji), takich jak trening z gradientem oszustwa (reward hacking). Jak matematycznie ująć ludzkie wartości w funkcji celu?