--- base_model: meta-llama/Llama-2-8b-chat-hf library_name: peft pipeline_tag: text-generation language: - tr - en tags: - industrial - mold-protection - log-analysis - manufacturing - quality-control - lora - fine-tuned license: llama2 datasets: - synthetic-industrial-logs --- # 🏭 Llama-8B Kalıp Koruma Sistemi | Industrial Mold Protection System Bu model, endüstriyel kalıp koruma sistemlerinde log analizi ve çözüm önerisi sunmak için **Llama-3.2-3B-Instruct** temel modeli üzerinden **şirket içi suni veriler** ile fine-tune edilmiştir. ## 🎯 Model Özeti Kalıp koruma sistemlerinden gelen log kayıtlarını analiz ederek: - **Kritik hata tespiti** ve acil müdahale önerileri - **Sistem durumu değerlendirmesi** ve önleyici bakım tavsiyeleri - **ROI (Region of Interest) analizi** ve kalibrasyon rehberliği - **PLC bağlantı sorunları** ve çözüm yolları ## 📊 Model Detayları ### Temel Bilgiler - **Geliştirici**: Şirket İçi AI Ekibi - **Temel Model**: meta-llama/Llama-3.2-3B-Instruct - **Model Türü**: Text Generation (LoRA Fine-tuned) - **Diller**: Türkçe (TR), İngilizce (EN) - **Lisans**: Llama 2 Community License - **Fine-tuning Yöntemi**: LoRA (Low-Rank Adaptation) ### Teknik Özellikler - **Parametre Sayısı**: ~1B+3B (Base) + LoRA Adaptörü - **Maksimum Sequence Length**: 2048 tokens - **Quantization**: 4-bit (BitsAndBytes) - **Memory Footprint**: ~6GB VRAM (inference) ## 🚀 Hızlı Başlangıç ### Google Colabda Kurulum ```bash %%capture !pip install unsloth # Also get the latest nightly Unsloth! !pip uninstall unsloth -y && pip install --upgrade --no-cache-dir --no-deps git+https://github.com/unslothai/unsloth.git@nightly git+https://github.com/unslothai/unsloth-zoo.git ``` ### Model Yükleme ```python from unsloth import FastLanguageModel import torch max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally! dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+ load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False. model, tokenizer = FastLanguageModel.from_pretrained( model_name = "bbayrm0/lora_model", max_seq_length = max_seq_length, dtype = dtype, load_in_4bit = load_in_4bit ) ``` ### Tahmin Yürütme ```python FastLanguageModel.for_inference(model) # Enable native 2x faster inference messages = [ {"role": "user", "content": "2025-09-01 11:25:55 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 2, ROI 3, ROI 4 | Tetikleyici: manual"}, ] inputs = tokenizer.apply_chat_template( messages, tokenize = True, add_generation_prompt = True, # Must add for generation return_tensors = "pt", ).to("cuda") from transformers import TextStreamer text_streamer = TextStreamer(tokenizer, skip_prompt = True) _ = model.generate(input_ids = inputs, streamer = text_streamer, max_new_tokens = 250, use_cache = True, temperature = 1, min_p = 0.1) ``` ## 📈 Training Detayları ### Veri Seti - **Toplam Örnek**: 8,000 suni log kaydı - **Veri Türü**: Endüstriyel kalıp koruma sistem logları - **Seviye Dağılımı**: - CRITICAL: 609 örnek (%7.6) - ERROR: 1,630 örnek (%20.4) - WARNING: 1,234 örnek (%15.4) - INFO: 4,527 örnek (%56.6) ### Fine-tuning Konfigürasyonu ```json { "lora_config": { "r": 16, "lora_alpha": 32, "target_modules": ["q_proj", "k_proj", "v_proj", "o_proj"], "lora_dropout": 0.1, "bias": "none" }, "training_args": { "num_train_epochs": 3, "per_device_train_batch_size": 4, "gradient_accumulation_steps": 4, "learning_rate": 2e-4, "weight_decay": 0.01, "warmup_steps": 100, "fp16": true } } ``` ### Donanım Gereksinimleri - **Minimum GPU**: 8GB VRAM (RTX 3070/4060 Ti) - **Önerilen GPU**: 16GB+ VRAM (RTX 3080/4070/4080) - **Training Süresi**: ~2 saat (RTX 4080) - **Inference**: ~6GB VRAM (4-bit quantization) ## 🎯 Kullanım Alanları ### ✅ Uygun Kullanım - Endüstriyel kalıp koruma sistemlerinde log analizi - Gerçek zamanlı hata tespiti ve müdahale önerileri - Preventif bakım planlaması - Operatör eğitimi ve destek sistemleri - Kalite kontrol süreçlerinde otomatik değerlendirme ### ⚠️ Sınırlamalar - Sadece kalıp koruma sistemleri için optimize edilmiştir - Kritik güvenlik kararları için insan onayı gereklidir - Gerçek zamanlı sistemlerde latency testi yapılmalıdır - Farklı endüstriyel sistemler için ek fine-tuning gerekebilir ## 🔍 Model Performansı ### Örnek Çıktılar **Girdi:** ``` 2025-01-15 14:30:22 | MoldProtection | CRITICAL | KALIP KORUMA UYARISI - Hatalı ROI'ler: ROI 1, ROI 2 | Tetikleyici: plc ``` **Çıktı:** ``` 🚨 KALIP KORUMA ALARMI: ROI 1, ROI 2 bölgelerinde kritik seviye hata. Sistem güvenliği için derhal müdahale edin. 🛑 ACİL EYLEM PLANI: 1) Üretimi DERHAL durdurun 2) Kalıp durumunu görsel kontrol edin 3) ROI kalibrasyonu yapın 4) Sistem yeniden başlatın 5) Test çalışması gerçekleştirin ``` ## 🛡️ Güvenlik ve Etik - **Veri Gizliliği**: Tüm training verileri şirket içi suni verilerdir - **Bias Kontrolü**: Endüstriyel log formatlarına odaklanmıştır - **Güvenlik**: Kritik kararlar için insan onayı önerilir - **Sorumluluk**: Nihai kararlar operatör/mühendis sorumluluğundadır ## 📞 Destek ve İletişim - **Teknik Destek**: AI Ekibi - **Model Güncellemeleri**: Düzenli olarak yeni verilerle güncellenir - **Geri Bildirim**: Performans iyileştirmeleri için geri bildirimlerinizi bekliyoruz ## 📄 Lisans Bu model Llama 2 Community License altında lisanslanmıştır. Ticari kullanım için lisans koşullarını kontrol ediniz. ## 🔄 Versiyon Geçmişi - **v1.0**: İlk release - Temel kalıp koruma log analizi - **v1.1**: Geliştirilmiş ROI analizi ve PLC entegrasyonu - **v1.2**: Türkçe dil desteği iyileştirmeleri --- *Bu model, endüstriyel üretim süreçlerinde kalite ve güvenliği artırmak amacıyla geliştirilmiştir. Kullanım öncesi test edilmesi ve insan denetimi önerilir.*