🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Local Attention Pattern

Pattern d'attention restreignant le calcul aux positions voisines dans une fenêtre glissante de taille fixe autour de chaque token.

📖
용어

Global Attention Pattern

Mécanisme où certains tokens prédéfinis ou appris peuvent attirer l'attention de tous les autres tokens de la séquence, préservant les dépendances longues.

📖
용어

Random Attention Pattern

Approche d'attention sparse établissant des connexions aléatoires entre tokens pour améliorer la propagation d'information et réduire le chemin entre tokens éloignés.

📖
용어

Variable Length Attention

Technique adaptative où la taille de la fenêtre d'attention varie selon les tokens ou les couches du réseau pour optimiser l'utilisation computationnelle.

📖
용어

Efficient Transformer

Classe de modèles transformer modifiés pour réduire la complexité quadratique de l'attention, incluant approches approximatives, hiérarchiques et sparse.

📖
용어

Kernelized Attention

Méthode approximant l'attention par des opérations de convolution utilisant des noyaux de feature maps, évitant le calcul explicite de la matrice d'attention.

📖
용어

Sparsemax

Fonction d'activation alternative à softmax produisant des distributions de probabilités sparses avec zéros explicites, idéale pour l'attention sélective.

📖
용어

Entmax

Généralisation paramétrique de sparsemax contrôlant le niveau de sparsité dans les distributions d'attention via un paramètre α régissant l'entropie.

🔍

결과를 찾을 수 없습니다