🏠 হোম
বেঞ্চমার্ক
📊 সমস্ত বেঞ্চমার্ক 🦖 ডাইনোসর v1 🦖 ডাইনোসর v2 ✅ টু-ডু লিস্ট অ্যাপস 🎨 সৃজনশীল ফ্রি পেজ 🎯 FSACB - চূড়ান্ত শোকেস 🌍 অনুবাদ বেঞ্চমার্ক
মডেল
🏆 সেরা ১০টি মডেল 🆓 ফ্রি মডেল 📋 সমস্ত মডেল ⚙️ কিলো কোড
রিসোর্স
💬 প্রম্পট লাইব্রেরি 📖 এআই গ্লসারি 🔗 দরকারী লিঙ্ক

এআই গ্লসারি

কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান

238
বিভাগ
3,112
উপ-বিভাগ
36,890
শব্দ
📖
শব্দ

পজিশন-ওয়াইজ ফিড-ফরওয়ার্ড নেটওয়ার্ক

ট্রান্সফরমার আর্কিটেকচারে সিকোয়েন্সের প্রতিটি অবস্থানে স্বাধীনভাবে প্রয়োগ করা নিউরাল নেটওয়ার্ক, অ্যাটেনশন মেকানিজমের পরে নন-লিনিয়ার ট্রান্সফরমেশন সম্পাদন করে।

📖
শব্দ

জিইএলইউ অ্যাক্টিভেশন

ট্রান্সফরমারগুলির এফএফএন-এ ব্যবহৃত গাউসিয়ান এরর লিনিয়ার ইউনিট অ্যাক্টিভেশন ফাংশন, স্টোকাস্টিক রেগুলারাইজেশনের জন্য ড্রপআউট এবং রিলিউর বৈশিষ্ট্যগুলি একত্রিত করে।

📖
শব্দ

দুই-স্তর এমএলপি

ট্রান্সফরমারগুলির এফএফএন-এর স্ট্যান্ডার্ড মাল্টিলেয়ার আর্কিটেকচার যা তাদের মধ্যে একটি নন-লিনিয়ার অ্যাক্টিভেশন ফাংশন সহ দুটি লিনিয়ার ট্রান্সফরমেশন নিয়ে গঠিত।

📖
শব্দ

হিডেন ডাইমেনশন এক্সপ্যানশন

দ্বিতীয় স্তরে হ্রাস করার আগে এফএফএন-এর প্রথম স্তরে মাত্রিকতার সম্প্রসারণ (সাধারণত মডেলের মাত্রার ৪x), আরও অভিব্যক্তিমূলক ক্ষমতা অনুমতি দেয়।

📖
শব্দ

ফিড-ফরওয়ার্ড ডাইমেনশন

ট্রান্সফরমারগুলির এফএফএন-এর ইন্টারমিডিয়েট ডাইমেনশন, সাধারণত উপস্থাপনা ক্ষমতা বাড়ানোর জন্য মডেলের মাত্রার চেয়ে চার গুণ বেশি।

📖
শব্দ

পজিশন-ইন্ডিপেন্ডেন্ট প্রসেসিং

এফএফএন-এর মৌলিক বৈশিষ্ট্য যা সমস্ত অবস্থানে একই ওজন প্রয়োগ করে, অ্যাটেনশন মেকানিজমের বিপরীতে যা অবস্থান-নির্ভরশীল।

📖
শব্দ

সুইশ অ্যাক্টিভেশন

এফএফএন-এ জিইএলইউ-এর বিকল্প অ্যাক্টিভেশন ফাংশন, x * sigmoid(βx) হিসাবে সংজ্ঞায়িত, আরও ভাল ডিফারেনশিয়াবিলিটি সহ তুলনীয় পারফরম্যান্স প্রদান করে।

📖
শব্দ

জিএলইউ ভেরিয়েন্টস

গেটেড লিনিয়ার ইউনিট এবং তাদের ভেরিয়েন্টস (জিইজিএলইউ, সুইজিএলইউ) স্ট্যান্ডার্ড এফএফএন-এর বিকল্প হিসাবে ব্যবহৃত, তথ্য প্রবাহের নির্বাচনী নিয়ন্ত্রণের জন্য গেটিং মেকানিজম প্রবর্তন করে।

📖
শব্দ

Feed-Forward Sublayer

Composant individuel du bloc Transformer contenant le FFN, incluant connections résiduelles et normalisation de couche pour stabiliser l'entraînement.

📖
শব্দ

Linear Transformation Matrices

Poids W1 et W2 du FFN transformant respectivement vers la dimension étendue et revenant à la dimension originale du modèle.

📖
শব্দ

FFN Dropout

Mécanisme de régularisation appliqué après l'activation dans les FFN des Transformers, désactivant aléatoirement des neurones pour prévenir le surapprentissage.

📖
শব্দ

Inner Layer Normalization

Application de la normalisation de couche avant ou après le FFN dans l'architecture Transformer, avec des variantes pre-norm et post-norm affectant la stabilité de l'entraînement.

📖
শব্দ

Mixture of Experts FFN

Extension des FFN standards utilisant plusieurs experts FFN sélectivement activés par un réseau de routage, permettant une augmentation de capacité sans augmentation computationnelle proportionnelle.

📖
শব্দ

ReLU-based FFN

Variante de FFN utilisant ReLU comme fonction d'activation, plus simple mais moins performante que GELU pour la plupart des applications de Transformers.

📖
শব্দ

Feed-Forward Projection

Opération de projection linéaire dans les FFN transformant les représentations entre espaces de dimensionnalités différentes pour capturer des relations complexes.

📖
শব্দ

Adaptive FFN

Architecture FFN avancée ajustant dynamiquement ses paramètres en fonction du contexte d'entrée, améliorant la flexibilité pour des tâches spécifiques.

🔍

কোন ফলাফল পাওয়া যায়নি