caution!

このモデルのチャットテンプレートは2025年3月現在のllama.cppに登録されているどのテンプレートとも異なります。
よって、--jinjaオプションによるカスタムテンプレート読み込み機能の使用が必須となります。
なお、このモデルのカスタムテンプレートを適切に読み込むにはllama.cpp-b4739以降が必要となります。

What is this?

SB Intuitionsによる日本語特化の小型言語モデルsarashina2.2-3b-instruct-v0.1をGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。

Chat template

<|system|>ここにSystem Promptを書きます。</s><|user|>ここにMessageを書きます。</s><|assistant|>

Quants

各クオンツとそのベンチマークスコア(Gemini 2.0 Flash採点によるElyza_tasks 100)をまとめておきます。

クオンツ スコア コメント
BF16 3.76
Q8_0 3.81
Q6_K 3.75 推奨
Q5_K_M 3.61
Q4_K_M 3.62
IQ4_XS 3.79

Note

llama.cpp-b4739以降と合わせてご利用ください。
なお、このモデルは現状-fa オプションによるFlash Attentionの使用はできません(原因不明)。

Environment

Windows版llama.cpp-b4739およびllama.cpp-b5074同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

MIT License

Developer

SB Intuitions

Downloads last month
10
GGUF
Model size
3.36B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support