Model Description(Japanese explanation is below.)

This model is a Mixture of Experts (MoE) language model created using the MergeKit tool. This MoE model aims to achieve both Japanese language ability and SQL generation capability by combining Llama-3-Umievo-itr014-Shizuko-8b, released by umiyuki, with rdefog/llama-3-sqlcoder-8b, which has been fine-tuned on an SQL dataset.

Model Details

  • Model Name: Llama-3-Umievo-Shizuko-sqlcoder-2x8B
  • Model Architecture: Mixture of Experts (MoE)
  • Base Models: rdefog/llama-3-sqlcoder-8b, defog/llama-3-sqlcoder-8b
  • Merge Tool: MergeKit

Required Specifications

If using the Q4_K_M quantized model, it can be fully loaded on an RTX 3060 12GB. The author has created the model using WSL2 and Google Colaboratory Pro, and has tested it using Llama.cpp and LMstudio.

  • CPU: Ryzen 5 3600
  • GPU: GeForce RTX 3060 12GB
  • RAM: DDR4-3200 96GB
  • OS: Windows 10

モデルの説明

このモデルは、MergeKitツールを使用して作成されたMixture of Experts (MoE) 言語モデルです。

Llama-3-Umievo-itr014-Shizuko-8b に、SQLデータセットでファインチューニングされたrdefog/llama-3-sqlcoder-8bを合わせることで、日本語能力とSQL生成能力を両立させようとしたMoEモデルです。

モデルの詳細

  • モデル名: Llama-3-Umievo-Shizuko-sqlcoder-2x8B
  • モデルアーキテクチャ: Mixture of Experts (MoE)
  • ベースモデル: rdefog/llama-3-sqlcoder-8b, defog/llama-3-sqlcoder-8b
  • マージツール: MergeKit

要求スペック

Q4_K_M量子化モデルであれば、RTX3060 12GBでフルロード可能です。

WSL2やGoogle Colaboratotry Proでの作成後、Llama.cppとLMstudioにて動作確認を行なっています。

  • CPU: Ryzen 5 3600
  • GPU: GeForce RTX 3060 12GB
  • RAM: DDR4-3200 96GB
  • OS: Windows 11
Downloads last month
28
Safetensors
Model size
14B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support