🏠 Ana Sayfa
Benchmarklar
📊 Tüm Benchmarklar 🦖 Dinozor v1 🦖 Dinozor v2 ✅ To-Do List Uygulamaları 🎨 Yaratıcı Serbest Sayfalar 🎯 FSACB - Nihai Gösteri 🌍 Çeviri Benchmarkı
Modeller
🏆 En İyi 10 Model 🆓 Ücretsiz Modeller 📋 Tüm Modeller ⚙️ Kilo Code
Kaynaklar
💬 Prompt Kütüphanesi 📖 YZ Sözlüğü 🔗 Faydalı Bağlantılar

YZ Sözlüğü

Yapay Zekanın tam sözlüğü

162
kategoriler
2.032
alt kategoriler
23.060
terimler
📖
terimler

Perte de Trace LASSO Multi-Tâches

Extension de la régularisation LASSO au contexte multi-tâches qui pénalise la norme L2,1 de la matrice de poids, favorisant ainsi la sélection de caractéristiques communes à toutes les tâches.

📖
terimler

Bloc Norme L2,1

Norme de régularisation qui calcule la norme L2 pour chaque ligne de la matrice de poids (caractéristique) puis la norme L1 sur l'ensemble des résultats, encourageant la sparsité au niveau des caractéristiques partagées.

📖
terimler

Régularisation par Noyau Multi-Tâches

Approche qui étend les méthodes à noyau au cadre multi-tâches en définissant des noyaux de covariance entre les tâches, permettant d'apprendre simultanément les paramètres du modèle et les relations inter-tâches.

📖
terimler

Facteur de Tâche

Paramètre de régularisation qui contrôle l'influence relative de chaque tâche dans l'objectif d'apprentissage multi-tâches, permettant d'équilibrer la contribution des différentes tâches à la fonction de perte globale.

📖
terimler

Orthogonalité Multi-Tâches

Contrainte de régularisation qui force les représentations spécifiques à chaque tâche à être orthogonales entre elles, minimisant ainsi les interférences négatives tout en préservant les connaissances partagées.

📖
terimler

Pénalité de Groupement Multi-Tâches

Technique de régularisation qui groupe les paramètres du modèle selon leur pertinence pour les tâches, appliquant des niveaux de pénalisation différents pour encourager le partage sélectif de représentations.

📖
terimler

Régularisation par Décomposition en Valeurs Singulières

Méthode qui applique une contrainte de rang faible sur la matrice de poids partagés entre les tâches via une décomposition SVD, réduisant la complexité du modèle tout en capturant les relations inter-tâches essentielles.

📖
terimler

Dropout Multi-Tâches

Variante du dropout adaptée au contexte multi-tâches où les neurones sont désactivés de manière coordonnée à travers les branches spécifiques aux tâches, préservant ainsi les connexions partagées importantes.

📖
terimler

Régularisation par Adversaire Multi-Tâches

Approche qui utilise un réseau adversaire pour régulariser les représentations partagées, s'assurant qu'elles contiennent suffisamment d'information pour toutes les tâches sans être biaisées vers une tâche particulière.

📖
terimler

Perte de Mangan

Fonction de perte multi-tâches qui combine les pertes individuelles de manière non linéaire en utilisant des poids appris dynamiquement, régularisant automatiquement l'importance de chaque tâche pendant l'entraînement.

📖
terimler

Régularisation par Contraste Multi-Tâches

Technique qui maximise la similarité entre représentations de la même tâche tout en minimisant la similarité entre représentations de tâches différentes, régularisant ainsi l'espace des caractéristiques partagées.

📖
terimler

Pénalité de Fusion de Tâches

Mécanisme de régularisation qui pénalise la divergence entre les paramètres des modèles spécifiques aux tâches, encourageant une fusion progressive des connaissances lorsque les tâches sont similaires.

📖
terimler

Régularisation par Gradient Multi-Tâches

Méthode qui régularise les gradients de perte entre les tâches pour minimiser les conflits, s'assurant que la mise à jour des paramètres partagés bénéficie simultanément à toutes les tâches considérées.

📖
terimler

Perte de Huber Multi-Tâches

Extension robuste de la perte de Huber au cadre multi-tâches qui combine les pertes quadratiques et absolues de manière adaptative pour chaque tâche, régularisant ainsi l'influence des valeurs aberrantes.

📖
terimler

Régularisation par Attention Multi-Tâches

Technique qui utilise des mécanismes d'attention pour régulariser le partage de représentations entre les tâches, apprenant dynamiquement quelles caractéristiques spécialiser ou partager selon le contexte.

📖
terimler

Pénalité de Cohérence Multi-Tâches

Contrainte de régularisation qui impose une cohérence dans les prédictions du modèle sur des entrées similaires mais étiquetées différemment selon les tâches, améliorant la généralisation inter-tâches.

📖
terimler

Régularisation par Distillation Multi-Tâches

Méthode qui régularise un modèle multi-tâches en le forçant à imiter les sorties d'un ensemble de modèles experts mono-tâches, préservant ainsi les connaissances spécialisées tout en bénéficiant du partage.

🔍

Sonuç bulunamadı