readme.md
#2
by
ilhami
- opened
README.md
CHANGED
|
@@ -1,46 +1,2 @@
|
|
| 1 |
-
|
| 2 |
-
|
| 3 |
-
- tr
|
| 4 |
-
- en
|
| 5 |
-
tags:
|
| 6 |
-
- translation
|
| 7 |
-
license: apache-2.0
|
| 8 |
-
datasets:
|
| 9 |
-
- Parallel Corpora for Turkish-English Academic Translations
|
| 10 |
-
metrics:
|
| 11 |
-
- bleu
|
| 12 |
-
- sacrebleu
|
| 13 |
-
---
|
| 14 |
-
|
| 15 |
-
|
| 16 |
-
## Model Details
|
| 17 |
-
|
| 18 |
-
- **Developed by:** İlhami SEL
|
| 19 |
-
- **Model type:** Turkish-English Machine Translation -- Transformer Based(6 Layer)
|
| 20 |
-
- **Language:** Turkish - English
|
| 21 |
-
- **Resources for more information:** Sel, İ. , Üzen, H. & Hanbay, D. (2021). Creating a Parallel Corpora for Turkish-English Academic Translations . Computer Science , 5th International Artificial Intelligence and Data Processing symposium , 335-340 . DOI: 10.53070/bbd.990959
|
| 22 |
-
|
| 23 |
-
|
| 24 |
-
|
| 25 |
-
|
| 26 |
-
|
| 27 |
-
```python
|
| 28 |
-
checkpoint = "ilhami/Tr_En_AcademicTranslation"
|
| 29 |
-
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
|
| 30 |
-
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
|
| 31 |
-
model = AutoModelForSeq2SeqLM.from_pretrained(checkpoint).to("cuda")
|
| 32 |
-
tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlanmıştır. ",
|
| 33 |
-
"İnsanları taklit eden ve daha iyi müşteri memnuniyeti sağlayan sohbet robotları en gelişkin doğal dil işleme tekniklerine ihtiyaç duymaktadır. ",
|
| 34 |
-
"Bu çalışma sohbet robotu konuşmalarının niyet tahminini geliştirmeye odaklanmıştır." ,
|
| 35 |
-
"Kelime gösterimi için TF-IDF, Doc2vec ve BERT gibi geleneksel ve gelişmiş doğal dil işleme yöntemleri, çoklu sınıf ve çoklu etiket tahmini için ise lojistik regresyon, rastgele orman ve yapay sinir ağları kullanılmıştır." ,
|
| 36 |
-
"Sohbet robotu konuşma veri kümeleri, sinema bileti rezervasyonu, restoran rezervasyonu ve taksi çağırma olmak üzere üç farklı alandan alınmıştır. ",
|
| 37 |
-
"Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
|
| 38 |
-
"BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
|
| 39 |
-
"TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
|
| 40 |
-
encoded_text = tokenizer(tr, return_tensors="pt", padding = True).to("cuda")
|
| 41 |
-
generated_tokens = model.generate(**encoded_text)
|
| 42 |
-
en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
| 43 |
-
```
|
| 44 |
-
|
| 45 |
-
|
| 46 |
-
|
|
|
|
| 1 |
+
Turkish to English Machine translation
|
| 2 |
+
Transformer Based(6 Layer)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|