What is this?

Mistral AIのFill-in-the-middle (FIM)対応コーディング特化モデル、Codestral-22B-v0.1をGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、imatrixの算出においてはf32精度のモデルを使用しました。これは、本来の数値精度であるbf16でのimatrix計算に現行のCUDA版llama.cppが対応していないためです。

Chat template

[INST] ここにMessageを書きます [/INST]

Environment

Windows(CUDA12)版llama.cpp-b4178、およびllama.cppの4286回目のcommit時のconvert_hf_to_gguf.pyを使用して量子化作業を実施しました。

License

MNLP-0.1 license

Developer

Mistral AI

Downloads last month
113
GGUF
Model size
22.2B params
Architecture
llama

4-bit

5-bit

6-bit

8-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .