AWAXIS-Hybrid-28B

AWAXIS-Think × Darwin Platform Hybrid 모델

AWAXIS-Think-28B를 기반으로 Darwin Platform 한국어 가중치를 Smart MRI Layer-wise 머지로 결합한 한국어 LLM입니다.

본 모델은 Anserwise에서 제작·공개한 한국어 LLM입니다.


🧬 모델 설명 — 부모 모델 교배·진화 (Darwin 방식)

본 모델은 두 부모 LLM의 가중치를 layer 단위로 교배·결합하는 Darwin Platform 진화적 머지 기법 (Smart MRI Layer-wise)으로 제작됐습니다. 일반 SFT/CPT 학습이 아닌 가중치 합성 진화 방식이라는 점이 핵심입니다.

구간 어머니 채택률 의도
Embed / LM-head 50% 출력 통로 균형
Norm 30% 안정성
Visual encoder 0% 아버지 100% 보존
Layers 0~15 (초기) 40% 한국어 표면 패턴 흡수
Layers 16~50 (중기) 0% 추론 능력 보존
Layers 51~63 (후기) 70% 도메인 지식 채택

각 부모의 강점이 어느 layer에 저장되는지 분석한 후 layer-wise로 부모 가중치 비율을 다르게 적용하여 두 모델의 강점만 선택적으로 결합하는 방식입니다.

📚 데이터셋 활용

본 모델은 가중치 머지(Weight Merge) 산물이므로 추가 SFT/CPT 학습은 수행하지 않았습니다. 대신 두 부모 모델이 사전에 학습한 광범위한 한국어 데이터셋의 강점을 layer 단위로 흡수합니다. 부모 모델들이 학습한 주요 한국어 데이터셋은 다음과 같습니다:

  • 일반 Instruction: kai-sft / kai-combined 시리즈 (한국어 다양 도메인 instruction-following)
  • KMMLU-Pro: 한국 도메인 지식 (역사·법률·의료·과학·공학 등)
  • CLIcK: 한국 문화·상식 (역사·전통·사회 규범)
  • HAERAE: 한국어 표면 패턴 (언어학·일반상식·역사)
  • KOBEST: 한국어 reasoning (HellaSwag·COPA·BoolQ)
  • Com2-main(ko): 한국어 commonsense (사회적 추론·의도 파악)
  • MuSR(Ko): 한국어 다단계 추론 (Murder Mystery·Object Placements 등)

가중치 머지 단계에서 각 부모의 학습 결과를 layer 비율로 보존·결합하여, 단일 SFT보다 catastrophic forgetting 위험이 낮고 부모 강점 손실이 적은 것이 특징입니다.


📊 평가 결과

1) K-AI 리더보드 기준 (5과목)

KMMLU-Pro / CLIcK / HLE(Ko) / MuSR(Ko) / Com2-main(ko)

  • 외부 모델: K-AI 리더보드(leaderboard.aihub.or.kr) 실측값
  • 본 시리즈: 자체 mirror eval(100문항) × Rogue-28B-MIX 기준 ratio 환산 추정값
Model KMMLU-Pro CLIcK HLE(Ko) MuSR(Ko) Com2-main(ko) Sum Macro
Hybrid (예상) 0.674 0.787 0.07 0.611 0.657 2.799 0.560
AWAXIS-Hybrid-28B ⭐ (이 모델, 예상) 0.674 0.787 0.07 0.611 0.657 2.799 0.560
Rogue-28B-MIX (실측) 0.666 0.797 0.07 0.611 0.650 2.794 0.559
Warecube-KO-27B-v3 (실측) 0.668 0.799 0.07 0.584 0.638 2.756 0.551
AWAXIS-Think-28B (실측) 0.603 0.770 0.06 0.591 0.632 2.651 0.530
KR-Pro (예상) 0.643 0.661 0.07 0.585 0.650 2.609 0.522
KR-Plus (예상) 0.643 0.703 0.07 0.532 0.657 2.605 0.521

HLE(Ko)는 28B급 공통 약점 (난이도 매우 높음).

2) 종합 한국어 능력 (10과목 mirror eval)

CLIcK + KMMLU(history/law/health) + HAERAE(gk/hist/ling) + KOBEST(hella/copa/boolq)

Model CLIcK KMMLU 평균 HAERAE 평균 KOBEST 평균 Sum (10과목) Macro
AWAXIS-Hybrid-28B ⭐ (이 모델) 0.83 0.530 0.813 0.967 7.760 0.7760
Rogue-28B-MIX 0.83 0.513 0.807 0.967 7.690 0.7690

사용 방법

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("Anserwise/AWAXIS-Hybrid-28B", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
    "Anserwise/AWAXIS-Hybrid-28B",
    torch_dtype="bfloat16",
    device_map="auto",
    trust_remote_code=True,
)

messages = [{"role": "user", "content": "한국 역사에서 임진왜란이 발생한 시기는?"}]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to(model.device)
outputs = model.generate(inputs, max_new_tokens=256, temperature=0.0)
print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True))

라이선스

Apache 2.0 (부모 모델 라이선스 계승)


2026-04-30

Downloads last month
281
Safetensors
Model size
28B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Anserwise/AWAXIS-Hybrid-28B