Tokenisation
Unigram Language Model
Approche de tokenisation basée sur un modèle de langage unigramme qui sélectionne le meilleur découpage en maximisant la probabilité produit des tokens dans la séquence.
← رجوع