Ottimo lavoro per aver seguito il corso fino a questo punto! Per fare un riassunto, in questo capitolo abbiamo visto:
Imparare gli elementi di base di un modello Transformer.
Imparare a conoscere gli elementi che compongono una pipeline di tokenizzazione.
Hai visto come utilizzare un modello Transformer nella pratica.
Imparare a sfruttare un tokenizer per convertire il testo in tensori comprensibili dal modello.
Impostare un tokenizer e un modello insieme per passare dal testo alle previsioni.
Imparare i limiti degli ID di input e conoscere le maschere di attenzione.
Abbiamo giocato con metodi di tokenizzazione versatili e configurabili.
D’ora in poi, dovreste essere in grado di navigare liberamente nella documentazione di Transformers 🤗: il vocabolario vi suonerà familiare e avrete già visto i metodi che userete la maggior parte delle volte.