Nagaki-4B-FFT-v2 (CreateLLM_JP)

📝 Dataset Metadata

本モデルは TCreateLLM_JP プロジェクトの一環として作成した、以下の合計 4,261,033 レコード の高品質な日本語データセットの一部を用いてフルファインチューニングされました。 TCreateLLM_JPプロジェクトは、今後名称を変更する可能性がありますのでご確認ください。

Hugging Face Space >>> https://huggingface.co/spaces/kk0518/nagaki_4b

Support & Donation / 開発支援のお願い

nagakiシリーズをご活用いただきありがとうございます。 nagaki_4b_fft では、おかげさまで1,300ダウンロードを突破する反響をいただきました。

本プロジェクトは個人での研究・開発となっており、より高性能なモデルの開発には多大な計算リソースが必要となります。もし本モデルがお役に立ちましたら、継続的な開発支援をいただけますと幸いです。

  • OFUSE(投げ銭): https://ofuse.me/a753ea67
  • フィードバック: 使用感や改善点など、DiscussionやSNSで教えていただけると励みになります!

📊 Statistics

  • Wikipedia (Japanese): 2,073,483 records
  • Aozora Bunko: 1,008,756 records
  • Nemotron-Personas-Japan: 1,000,000 records
  • Tanaka Corpus: 147,876 records
  • Law QA (Digital Agency): 140 records デジタル庁"日本の法令に関する多肢選択式QAデータセット" ( https://github.com/digital-go-jp/lawqa_jp )を加工し作成
  • Other specialized data: Approx. 30,000 records (Weather, Honorifics, Trends, etc.)

Downloads last month
27
GGUF
Model size
4B params
Architecture
qwen35
Hardware compatibility
Log In to add your hardware

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for kk0518/Nagaki-4B-FFT

Finetuned
Qwen/Qwen3.5-4B
Quantized
(178)
this model

Datasets used to train kk0518/Nagaki-4B-FFT

Space using kk0518/Nagaki-4B-FFT 1