Bravo à vous pour avoir suivi le cours jusqu’ici ! Pour récapituler, dans ce chapitre vous avez :
appris les blocs de construction de base d’un transformer,
appris ce qui constitue un pipeline de tokenisation,
vu comment utiliser un transformer en pratique,
appris comment tirer parti d’un tokenizer pour convertir du texte en tenseurs compréhensibles par le modèle,
configurer ensemble un tokenizer et un modèle afin de passer du texte aux prédictions,
appris les limites des identifiants d’entrée et ce que sont que les masques d’attention,
joué avec des méthodes de tokenizer polyvalentes et configurables.
À partir de maintenant, vous devriez être en mesure de naviguer librement dans la documentation 🤗 Transformers. Le vocabulaire vous semblera familier et vous avez vu les méthodes que vous utiliserez la plupart du temps.