🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles
📖
BERT Architecture

Pre-training

在大型语料库上进行无监督训练的阶段,BERT通过MLM和NSP学习通用的语言表征。此步骤在针对特定任务的微调之前,为模型奠定了知识基础。

← 返回