--- license: mit language: - ja --- # *caution!* このモデルのチャットテンプレートは2025年3月現在のllama.cppに登録されているどのテンプレートとも異なります。
よって、``--jinja``オプションによる**カスタムテンプレート読み込み機能の使用が必須**となります。
なお、このモデルのカスタムテンプレートを適切に読み込むには**llama.cpp-b4739以降が必要となります。** # What is this? SB Intuitionsによる日本語特化の小型言語モデル[sarashina2.2-3b-instruct-v0.1](https://huggingface.co/sbintuitions/sarashina2.2-3b-instruct-v0.1)をGGUFフォーマットに変換したものです。 # imatrix dataset 日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。 # Chat template ``` <|system|>ここにSystem Promptを書きます。<|user|>ここにMessageを書きます。<|assistant|> ``` # Quants 各クオンツとそのベンチマークスコア(Gemini 2.0 Flash採点によるElyza_tasks 100)をまとめておきます。 |クオンツ|スコア|コメント| |---|---|---| |BF16|3.76|| |Q8_0|3.81|| |Q6_K|3.75|推奨| |Q5_K_M|3.61|| |Q4_K_M|3.62|| |IQ4_XS|3.79|| # Note **llama.cpp-b4739以降と合わせてご利用ください。**
なお、このモデルは現状``-fa`` オプションによるFlash Attentionの使用はできません(原因不明)。 # Environment Windows版llama.cpp-b4739およびllama.cpp-b5074同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。 # License MIT License # Developer SB Intuitions