Jacob Micro banner

Hinweis: Dies ist die Prod-Version des Jacob-24b-Sprachmodells, also die Version, die von Servern sofort fรผr die Nutzung in der Cloud gepullt wird. Sie beinhaltet nur eine auf Q4 quantisierte GGUF-Datei. Das Haupt-Repository befindet sich hier.

Wir stellen vor: Jacob 24b, das Flagschiff-Sprachmodell im Stil von "Leichter Sprache"; neu, vielseitig und mehr als ausreichend fรผr alles, was unsere Zielgruppe benรถtigt.

Es basiert auf Mistral Small 3.2 und wurde mit Hilfe von LoRA-Fine-Tuning auf unserem synthetischen Datensatz von Gesprรคchen trainiert.

Das Modell...

  • hat 24 Milliarden Parameter (davon ~92 Mio. als LoRA)
  • ist in 16-Bit-Prรคzision verfรผgbar
  • kann sowohl Text als auch Bilder verarbeiten (Multimodal)
  • kann Tools aufrufen (Tool-Use), um externe Aufgaben zu erledigen
  • nutzt das Mistral-Chat-Template
  • ist optimiert fรผr die Erzeugung von leicht verstรคndlichem Text im Stil von "Leichter Sprache"

Trainingsdetails

Trainiert wurde das Modell fรผr ca. 40 Minuten auf einer einzelnen NVIDIA RTX PRO 6000-GPU mit 96 GB VRAM.

Der genutzte Datensatz ist eine interne, synthetische Sammlung an Konversationen mit nach Qualitรคt gefilterten und der Leichten Sprache stark angenรคherten Texten. Es umfasst รผber 1k+ sich der Leichten Sprache annรคhernde Gesprรคche.

Downloads last month
54
GGUF
Model size
24B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support

Model tree for jacob-ml/jacob-24b-prod

Evaluation results