# Course

## Docs

- [Giriş](https://huggingface.co/learn/course/tr/chapter3/1.md)
- [Giriş](https://huggingface.co/learn/course/tr/chapter2/1.md)
- [Giriş](https://huggingface.co/learn/course/tr/chapter0/1.md)
- [Encoder modelleri](https://huggingface.co/learn/course/tr/chapter1/5.md)
- [Giriş](https://huggingface.co/learn/course/tr/chapter1/1.md)
- [Decoder modelleri](https://huggingface.co/learn/course/tr/chapter1/6.md)
- [Doğal Dil İşleme (NLP)](https://huggingface.co/learn/course/tr/chapter1/2.md)

### Giriş
https://huggingface.co/learn/course/tr/chapter3/1.md

# Giriş

<CourseFloatingBanner
    chapter={3}
    classNames="absolute z-10 right-0 top-0"
/>

[İkinci bölümde](/course/chapter2) tokenizer ve pretrained modelleri kullanarak nasıl tahmin yapabileceğimizi öğrendik. Fakat, kendi veri setiniz için, pretrained bir modeli nasıl kullanacaksınız ? İşte bu bölümde bunu öğreneceksiniz! Öğrenecekleriniz :

{#if fw === 'pt'}
* Hub'dan nasıl büyük bir veri seti hazırlanır
* Trainer API ile nasıl model fine-tune edilir
* Özelleştirilmiş training döngüsü nasıl yazılır
* Bu özel training döngüsünü herhangi bir dağıtılmış(distributed) kurulumda kolayca çalıştırmak için 🤗 Accelerate kütüphanesinden nasıl yararlanılır

{:else}
* Hub'dan nasıl büyük bir veri seti hazırlanır
* Keras ile nasıl model fine-tune edilir
* Keras ile tahminler nasıl elde edilir
* Özel metrikler nasıl kullanılır

{/if}

Hugging Face Hub'a eğittiğiniz model ağırlıklarını yüklemek için huggingface.co hesabına ihtiyacınız var.[hesap oluşturun](https://huggingface.co/join)

<EditOnGithub source="https://github.com/huggingface/course/blob/main/chapters/tr/chapter3/1.mdx" />

### Giriş
https://huggingface.co/learn/course/tr/chapter2/1.md

# Giriş

<CourseFloatingBanner
    chapter={2}
    classNames="absolute z-10 right-0 top-0"
/>

[Birinci bölümde](/course/chapter1) gördüğünüz gibi, Transformer modelleri genellikle oldukça büyüktür. Milyonlarca, hatta milyarlarca, parametreleri olan bu modellerin eğitimi ve üretime geçirilmesi oldukça karmaşık bir girişimdir. Bunun yanısıra, hemen hemen her gün, herbirinin kendine özgü uygulaması olan yeni modellerin yayınlaması, bu yeni modellerinin hepsini birden denemeyi daha da zor bir hale getirmektedir.

🤗 Transformers kütüphanesi bu sorunu çözmek için oluşturuldu. Bu kütüphanenin amacı, herhangi bir Transformer modelini tek bir API (uygulama programı arabirimi) aracılığı ile yükleme, eğitme, ve kaydetmeyi sağlamaktır. Kütüphanenin başlıca özellikleri şunlardır:

- **Kullanım kolaylığı**: En son geliştirilen NLP modellerini indirme, yükleme ve kullanma yalnızca iki satır kod ile yapılabilir.
- **Esneklik**: Bütün modeller temelinde sadece ya PyTorch `nn.Module` ya da TensorFlow `tf.keras.Model` sınıfıdır ve her bir model, ait olduğu kütüphanesindeki diğer herhangi bir model gibi işlenebilir.
- **Sadelik**: Kütüphane içerisinde neredeyse hiç bir soyutlama yapılmamaktadır. “Hersey tek bir dosya içerisinde” ifadesi, kütüphanenin ana kavramını oluşturuyor. Bir modelin “forward pass” aşaması, kodun anlaşılır olması ve kolayca modifiye edilebilmesini sağlamak amacı ile tamamiyle tek bir dosya içerisinde tanımlanır. 

Bu son özellik 🤗 Transformers kütüphanesini diğer makine öğrenmesi kütüphanelerinden oldukça farklı kılmaktadır. Modeller dosyalar arasında paylaşılan modüller üzerinde kurulmamıştır. Bunun yerine, her bir model kendine ait katmanlara sahiptir. Bu özellik, modelleri ulaşılabilir ve anlaşılır hale getirmenin yanısıra, diğer modelleri etkilemeden, tek bir model üzerinde kolayca deneyler yapabilmenize olanak sağlamaktadır.

Bu bölüm, bir model ve simgeleleştirici (tokenizer) kullanarak, birinci bölümde tanıtılan `pipeline()` fonksiyonunun bir kopyasını yapmak için baştan sona (end-to-end) uygulayacağımız bir örnekle başlamaktadır. 
Bunun ardından, kütüphanenin model API’ından bahsedeceğiz: Model ve konfigürasyon sınıflarına detaylıca bakıp, bir modeli nasıl yükleyebileceğinizi ve bir modelin sayısal giriş verilerini nasıl çıkış öngörüleri olarak işlediğini göreceğiz. 

Daha sonra, `pipeline()` fonksiyonunun diğer ana parçası olan simgeleştirici API’ına göz atacağız. Simgeleştiriciler, sinir ağının metni sayısal giriş verilerine ve gerektiğinde bu sayısal verileri tekrar metne dönüştüren ilk ve son işlem aşamalarından sorumludur. Son olarak, birden fazla cümleyi hazır bir grup halinde bir modele nasıl gönderebileceğinizi gösterip, `tokenizer()` fonksiyonuna yakından bakarak bu bölümü tamamlayacağız. 

<Tip>
⚠️ Model Hub ve 🤗 Transformers kütüphanesinde yeralan bütün özelliklerden yararlanabilmeniz icin, <a href="https://huggingface.co/join">bir hesap oluşturmanızı</a> tavsiye ediyoruz.
</Tip>


<EditOnGithub source="https://github.com/huggingface/course/blob/main/chapters/tr/chapter2/1.mdx" />

### Giriş
https://huggingface.co/learn/course/tr/chapter0/1.md

# Giriş

Hugging Face kursuna hoş geldiniz! Bu bölümde kursta kullanacağımız çalışma ortamını kuracağız. Eğer kursa yeni başlıyorsanız, öncelikle [1. bölüme](/course/chapter1) bakmanızı, sonra da geri gelip ortamınızı kurmanızı öneririz. Böylelikle kodları kendi başınıza deneyimleyebilirsiniz.

Bu kursta kullanacağımız bütün kütüphaneler Python package'ı olarak indirilebilir, bu yüzden burada Python ortamının kurulumunu ve lazım olacak kütüphaneleri indirmeyi göstereceğiz.

İki farklı yol göstereceğiz Colab defterleri ve Python sanal ortamı. Size en uygun olanı seçebilirsiniz. Yeni başlayanların Colab defteri kullanmasını tavsiye ederiz.

Kursta Windows sistemi kullanmıyoruz bu yüzden eğer Windows kullanıyorsanız Colab kullanmanız daha iyi olacaktır. Eğer herhangi bir Linux dağıtımı ya da macOS kullanıyorsanız iki yöntemi de tercih edebilirsiniz. 

Kurs genel olarak Hugging Face üzerinden gidiyor. Eğer hesabınız yoksa [buradan hesap açabilirsiniz](https://huggingface.co/join). 

## Google Colab defteri kullanmak

Colab defteri kullanmak açık ara en kolay kurulum. Tarayıcınızda bir defter açın ve hemen kodlamaya başlayın! 

Eğer Colab kullanmayı bilmiyorsanız bu [İngilizce tutorialı](https://colab.research.google.com/notebooks/intro.ipynb) takip edebilirsiniz. Colab TPU ya da GPU gibi bazı hızlandırıcı donanımları kullanmanıza izin verir. Üstelik küçük işlemler için bunlar ücretsiz!

Colab kullanımında kendinizi rahat hissettikten sonra yeni bir defter oluşturun ve kuruluma başlayın:

<div class="flex justify-center">
<img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter0/new_colab.png" alt="An empty colab notebook" width="80%"/>
</div>

Sonraki adım kurs boyunca kullanacağımız kütüphaneleri indirmek. Kurulum için `pip` kullanacağız, kendisi Pythonın package yöneticisi. Defterlerde satırın başına `!` koyarak sistem komutlarını çalıştırabilirsiniz. yani 🤗 Transformers kütüphanesini şöyle indiriyoruz:

```
!pip install transformers
```

İmport ederek package'ın doğru kurulduğundan emin olabilirsiniz:

```
import transformers
```

<div class="flex justify-center">
<img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter0/install.gif" alt="A gif showing the result of the two commands above: installation and import" width="80%"/>
</div>

Bu 🤗 Transformers'ın oldukça hafif bir versiyonunu yüklüyor. Yani hiç bir machine learning kütüphanesini barındırmıyor. (PyTorch ya da TensorFlow gibi) Kütüphanenin farklı farklı özelliklerini kullanacağımız için "development version"ı indirmenizi tavsiye ederiz çünkü akla gelebilecek bütün kullanımlar için gerekli bağımlılıkları (dependencies) barındırıyor:

```
!pip install transformers[sentencepiece]
```

Bu biraz zaman alabilir ama sonrasında kursun tamamı için hazır olacaksınız! Başarılar!

## Python Sanal Ortamı Kullanmak

Eğer Python sanal ortamı kullanmayı seçerseniz ilk adım olarak bilgisayarınıza Python kurmalısınız. [Bu rehberi](https://realpython.com/installing-python/) kullanmanızı öneririz.

Python'ı kurduktan sonra terminal üzerinden Python komutlarını çalıştırabiliyor olmanız gerekiyor. `python --version` komutunu çalıştırarak kurulumun doğru tamamlandığından emin olabilirsiniz. Bu komut sisteminizde kurulu olan Python sürümünü ekrana yazdıracak.

`python --version` gibi bir python komutunu terminalde çalıştırdığınızda bu komutu çalıştıran program bilgisayarınızdaki "ana" (main) python sürümüdür. Bu sürüme hiç bir python package'ı yüklemenizi önermiyoruz. Bunu her projeniz için ayrı bir ortam açmak için kullanabilirsiniz bu şekilde başka uygulamalar ile olabilecek uyumluluk hataları hakkında endielenmenize gerek kalmaz.

Python'da bu  [*virtual environments (sanal ortamlar)*](https://docs.python.org/3/tutorial/venv.html) kullanılarak yapılıyor, bunları ayrı ayrı kurulmuş Python sürümleri olarak düşünebilirsiniz. Bunun için yapılmış farklı toollar var fakat biz resmi package'ı kullanacağız, ismi de [`venv`](https://docs.python.org/3/library/venv.html#module-venv).

İlk olarak, uygulamanızın bulunmasını istediğiniz klasörü açın — mesela *transformers-course* diye bir klasör açmak isteyebilirsiniz:

```
mkdir ~/transformers-course
cd ~/transformers-course
```

Bu klasörün içinde Python `venv` modülünü kullanarak bir sanal ortam açalım:

```
python -m venv .env
```

Normalde boş olan klasörünüzün içinde *.env* adında yeni bir klasör açılmış olması lazım:

```
ls -a
```

```out
.      ..    .env
```

`activate` ve `deactivate` scriptlerini kullanarak sanal ortama gir çık yapabilirsiniz:

```
# Activate the virtual environment
source .env/bin/activate

# Deactivate the virtual environment
deactivate
```

`which python` komutunu kullanarak hangi Python kurulumunda olduğunuzu öğrenebilirsiniz: Eğer sanal ortamı gösteriyorsa sizi tebrik ederim başarıyla sanal ortam kurmuşsunuz demektir!

```
which python
```

```out
/home/<user>/transformers-course/.env/bin/python
```

### Bağımlılıkları indirmek

Google Colab bölümünde olduğu gibi şimdi gerekli packageları indirmeniz gerekiyor. Yine aynı şekilde `pip` kullanarak 🤗 Transformers'ın development versiyonunu indirebilirsiniz:

```
pip install "transformers[sentencepiece]"
```

Her şey hazır başlayabilirsiniz! Başarılar!


<EditOnGithub source="https://github.com/huggingface/course/blob/main/chapters/tr/chapter0/1.mdx" />

### Encoder modelleri
https://huggingface.co/learn/course/tr/chapter1/5.md

# Encoder modelleri

<CourseFloatingBanner
    chapter={1}
    classNames="absolute z-10 right-0 top-0"
/>

<Youtube id="MUqNwgPjJvQ" />

Encoder modelleri Transformer modellerinin sadece encoder kısmını kulanır.Her aşamada, attention katmanları ilk cümlenin bütün kelimelerine erişir. Bu modeller genellikle çift yönlü attention olarak nitelendirilir ve genellikle *auto-encoding models* olarak adlandırılır.

Bu modellerin öneğitimi genellikle verilen cümleyi bozmaya yöneliktir (örnek olarak, içindeki rastgele kelimeleri maskeleyerek) ve model ilk cümleyi bulma veya yeniden oluşturma ile görevlendirilir.

Encoder modelleri cümle sınıflandırma, varlık tanıma (daha spesifik olarak sözcük sınıflandırma) ve extractive soru yanıtlama gibi cümlenin tam anlaşılmasını gerektiren görevler için uygundur.


Bu model ailesinin temsilcileri şunlardır:

- [ALBERT](https://huggingface.co/transformers/model_doc/albert.html)
- [BERT](https://huggingface.co/transformers/model_doc/bert.html)
- [DistilBERT](https://huggingface.co/transformers/model_doc/distilbert.html)
- [ELECTRA](https://huggingface.co/transformers/model_doc/electra.html)
- [RoBERTa](https://huggingface.co/transformers/model_doc/roberta.html)


<EditOnGithub source="https://github.com/huggingface/course/blob/main/chapters/tr/chapter1/5.mdx" />

### Giriş
https://huggingface.co/learn/course/tr/chapter1/1.md

# Giriş

<CourseFloatingBanner
    chapter={1}
    classNames="absolute z-10 right-0 top-0"
/>

## 🤗 Kursuna Hoşgeldiniz!

<Youtube id="00GKzGyWFEs" />

Bu kurs size [Hugging Face](https://huggingface.co/) ekosistemindeki kütüphaneleri — [🤗 Transformers](https://github.com/huggingface/transformers), [🤗 Datasets](https://github.com/huggingface/datasets), [🤗 Tokenizers](https://github.com/huggingface/tokenizers), ve [🤗 Accelerate](https://github.com/huggingface/accelerate) — ayrıca tabiki de [Hugging Face Hub](https://huggingface.co/models) kullanarak Doğal Dil İşleme'yi (NLP) öğretecektir. Kurs tamamen ücretsiz ve reklam bulunmuyor.

## Beklentiniz ne olmalı?

Burada kursa genel bakış bulunmaktadır: 

<div class="flex justify-center">
<img class="block dark:hidden" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary.svg" alt="Brief overview of the chapters of the course.">
<img class="hidden dark:block" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary-dark.svg" alt="Brief overview of the chapters of the course.">
</div>

- 1'den 4'üncü bölüme kadar olan kısımda 🤗 Transformers kütüphanesinin ana konseptlerine giriş yapacağız. Kursun bu bölümünün sonunda, Transformer modellerinin nasıl çalıştığını öğrenecek, ve [Hugging Face Hub](https://huggingface.co/models) üzerinden bir modeli nasil kullanabileceğinizi, verisetine ince ayar (fine-tune) yapmayı, ve sonuçlarınızı Hub üzerinde nasıl paylaşacağınızı bileceksiniz!
- Bölüm 5 ila 8, klasik NLP görevlerine dalmadan önce 🤗 Datasets ve 🤗 Tokenizers'in temellerini öğretiyor. Bu bölümün sonunda, en yaygın NLP problemlerini kendiniz çözebileceksiniz.
- 9'dan 12'ye kadar olan bölümler NLP'nin ötesine geçer ve Transformer modellerinin konuşma işleme ve bilgisayarlı görü alanlarındaki problemleri nasıl çözeceğini ele alır. Süreç boyunca, model demolarınızı nasıl oluşturup paylaşacağınızı ve bunları üretim ortamlarında nasıl optimize edeceğinizi öğreneceksiniz. Bu bölümün sonunda, 🤗 Transformers'i (neredeyse) herhangi bir makine öğrenmesi problemine uygulamaya hazır olacaksınız!

Bu kurs:

* Python hakkında iyi düzeyde bilgi gerektirir.
* Giriş düzeyinde derin öğrenme derslerinden sonra alınırsa daha iyi olur. Örneğin: [fast.ai](https://www.fast.ai/) [Practical Deep Learning for Coders kursu](https://course.fast.ai/) veya [DeepLearning.AI](https://www.deeplearning.ai/) tarafından verilen herhangi program.
* [PyTorch](https://pytorch.org/) veya [TensorFlow](https://www.tensorflow.org/) ile herhangi bir ön bilgi beklenmiyor, buna rağmen bunlardan birisine aşinalik yardımcı olur.

Kursu bitirdikten sonra, DeepLearning.AI [Doğal Dil İşleme Uzmanlık](https://www.coursera.org/specializations/natural-language-processing?utm_source=deeplearning-ai&utm_medium=institutions&utm_campaign=20211011-nlp-2-hugging_face-page-nlp-refresh) naive Bayes ve LSTM gibi bilmeye değer geleneksel NLP modellerinin bulunduğu seriyi izlemenizi tavsiye ediyoruz. 


## Biz Kimiz?

Eğitmenler hakkında:

**Matthew Carrigan** Hugging Face'de Makine Öğrenmesi Mühendisi. Dublin, İrlanda'da yaşıyor ve daha önce Parse.ly'de ML Engineer olarak çalıştı ve onunda öncesinde Doktora sonrası Araştırmacı olarak Trinity College Dublin'de idi. Mevcut AI mimarilerini ölçeklendirerek AGI'a ulaşacağımıza inanmıyor, ancak ne olursa olsun robot ölümsüzlüğü için büyük umutları var. 

**Lysandre Debut** Hugging Face'de Makine Öğrenmesi Mühendisi  ve 🤗 Transformers kütüphanesi üzerine erken gelişim aşamasından beri çalışıyor. Hedefi çok basit bir API geliştirerek NLP'yi herkes için ulaşılabilir kılmak.

**Sylvain Guggeat** Hugging Face'de Araştırma Mühendisi ve 🤗 Transformers kütüphanesinin proje yürütücülerinden biri. Öncesinde Araştırma Bilimci olarak fast.ai'da çalıştı, ve _[Deep Learning for Coders with fastai and PyTorch](https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/)_ kitabını Jeremy Howard ile birlikte yazdı. Sylvain'in araştırmalarının ana odağı modellerin sınırlı kaynaklarda daha hızlı eğitilmesine izin veren teknikleri tasarlayıp geliştirerek derin öğrenmeyi herkes için ulaşılabilir kılmak.

**Merve Noyan** Hugging Face'de Developer Advocate, araçlar geliştirerek ve bu araçlar etrafında içerik üreterek makine öğrenmesini herkes için demokratikleştirme üzerine çalışıyor.

**Lucile Saulnier** Hugging Face'de Makine Öğrenmesi Mühendisi, açık kaynak araçlarının geliştirilmesi ve desteklenmesi üzerine uğraşıyor. Ayrıca Doğal Dil İşleme içinde Collaborative Training ve BigScience gibi birçok araştırma projesine dahil.

**Lewis Tunstall** Hugging Face'de Makine Öğrenmesi Mühendisi, açık kaynak araçları geliştirmeye ve bunlari daha geniş bir topluluk için ulaşılabilir hale getirmeye odaklanmış. Ayrıca yakında gelecek olan [Transformers üzerine O’Reilly kitabının](https://www.oreilly.com/library/view/natural-language-processing/9781098136789/) yazarlarından biri.

**Leandro von Werra**  Hugging Face'de Açık-Kaynak takımında Makine Öğrenmesi Mühendisi ve ayrica yakında gelecek olan [Transformers üzerine olan O’Reilly kitabinin](https://www.oreilly.com/library/view/natural-language-processing/9781098136789/) yazarlarından biri. Tüm Makine Öğrenmesi stack'inde çalişarak NLP projelerini üretime getiren birkaç yıllık endüstri deneyimine sahiptir.


Başlamaya hazır mısın? Bu bölümde, şunları öğreneceksin:
* Metin oluşturma ve sınıflandırma gibi NLP görevlerini çözmek için `pipeline ()` fonksiyonu nasıl kullanılacağı?
* Transformer mimarisi
* Encoder, Decoder, ve Encoder-Decoder mimarilerini nasil ayırt edileceği ve kullanım alanlari


<EditOnGithub source="https://github.com/huggingface/course/blob/main/chapters/tr/chapter1/1.mdx" />

### Decoder modelleri
https://huggingface.co/learn/course/tr/chapter1/6.md

# Decoder modelleri

<CourseFloatingBanner
    chapter={1}
    classNames="absolute z-10 right-0 top-0"
/>

<Youtube id="d_ixlCubqQw" />

Decoder modeller, yalnızca bir Transformer modelinin decoderini kullanır. Her aşamada, attention katmanları sadece cümlede kendisinden önce gelen kelimelere erişebilir. Bu modeller *auto-regressive models* olarak isimlendirilir.

Decoder modellerin ön eğitimi genellikle cümledeki bir sonraki kelimeyi tahmin etme şeklinde görevlendirilir.

Bu modeller, en çok metin oluşturmayı içeren görevler için uygundur.

Bu model ailelerinin temsilcileri şunları kapsar:

- [CTRL](https://huggingface.co/transformers/model_doc/ctrl.html)
- [GPT](https://huggingface.co/docs/transformers/model_doc/openai-gpt)
- [GPT-2](https://huggingface.co/transformers/model_doc/gpt2.html)
- [Transformer XL](https://huggingface.co/transformers/model_doc/transformerxl.html)


<EditOnGithub source="https://github.com/huggingface/course/blob/main/chapters/tr/chapter1/6.mdx" />

### Doğal Dil İşleme (NLP)
https://huggingface.co/learn/course/tr/chapter1/2.md

# Doğal Dil İşleme (NLP)

<CourseFloatingBanner
    chapter={1}
    classNames="absolute z-10 right-0 top-0"
/>

Transformer modellerine geçiş yapmadan önce, doğal dil işlemenin tanımına ve neden önemli olduğuna kısaca bir göz atalım. 


## NLP Nedir?

NLP, dil bilim ve makina öğrenmesi alanlarini kapsayan, dogal dil üzerine olan herşeyi anlamaya yönelik bir alandır. NLP her bir kelimeyi anlamanın yanısıra, kelimelerin bağlamını anlayabilmeyi amaçlar. Aşağıda NLP görevlerinin genel bir listesini, her bir göreve dair bir kaç örnekle birlikte görülebilir:

- **Cümle Sınıflandırması: Değerlendirmeler üzerine duygu analizi, spam e-posta saptaması, bir cümlenin dilbilgisel doğruluğunu, ya da iki cümlenin mantıksal olarak bağlı olup olmadığını anlama
- **Cümle içerisindeki her bir kelimenin sınıflandırması: Bir cümlenin dilbilgisel öğelerinin (isim, fiil, sıfat), ya da isim verilmiş varlıkların tanımlanması
- **Metin üretme: Verilen bir ipucunu kullanarak, otomatik olarak metni tamamlama, maskeli kelimeler ile metindeki boşlukları doldurma 
- **Metinden cevap çıkarımı: Verilen bir soru ve bağlamı kullanarak, bağlamda verilmi olan bilgiye dayanarak verilen soruyu cevaplama
- **Verilen metni kullanarak yeni bir cümle üretme: Metni başka bir dile çevirme, metin özetleme. 

Metin işlemenin yanısıra, NLP, konuşma tanıma ve bilgisayar görmesi alanlarında gorülen, bir ses örneğini yazıya dökme ya da bir fotoğrafı betimleme gibi komplike işlemleri çözümlemek için de kullanılabilir. 

## NLP Neden Zor? 

Bilgisayarlar, bilgiyi biz insanların yaptığı gibi işlemiyor. Örneğin, insan beyni “Acıktım” gibi basit bir cümlenin anlamını kolaylıkla anlayabilir. Benzer bir şekilde, “acıktım” ve “üzgünüm” cümlelerinin dilbilgisel açıdan benzerliğini kolayca görebiliyoruz. Ancak, makine öğrenmesi modelleri için bu gibi işlemler hiç de kolay değil. Bir modelin, verilen metnin anlamını öğrenebilmesi için metnin belirli bir yöntem ile işlenmesi gerekir. İnsan dilinin bileşikliği nedeniyle, bu işlemenin nasıl yapılacağı konsunu dikkatlice düşünmeliyiz. Bu güne kadar NLP alanında yazının nasıl temsil edileceğine dair bir çok çalışma yapıldı. Bir sonraki bölümde, bu çalışmalarda geliştirilen bazı yöntemlere göz atacağız.



<EditOnGithub source="https://github.com/huggingface/course/blob/main/chapters/tr/chapter1/2.mdx" />
