BETA · Privacy-LLMs & Voice-Server betriebsbereit · GPU-Upgrade in Arbeit für schnellere Antworten · Pakete können sich noch ändern Status & Roadmap →
ZelixAI Tokenomics  ›  Modell-Profil

Mistral Small 3.2 — 24B

Snel, Europees, geschikt voor de meeste klantvragen.

über ZelixAI Privacy Cluster →

Was ist dieses Modell?

Mistral Small 3.2 ist das 24-Milliarden-Parameter-Sprachmodell von Mistral AI aus Paris. Open-Weight (Apache 2.0-Lizenz), instruction-tuned auf einem breiten Korpus mit starkem Schwerpunkt auf europäischen Sprachen, erreicht es auf moderner GPU-Hardware 60–100 Tokens pro Sekunde. Wir betreiben dieses Modell im ZelixAI Privacy Cluster — Ihre Anfrage verlässt die EU nicht.

Stärken

Stärken: hohe Inferenzgeschwindigkeit, solides Instruction-Following für Geschäftskonversationen, zuverlässige Leistung in Französisch, Deutsch, Niederländisch, Italienisch und Spanisch sowie null US-Cloud-Komponenten im Anfragepfad. Für die meisten Kundenfragen liefert dieses Modell in unseren Tests Ergebnisse, die den schwereren Cloud-Modellen nicht nachstehen — bei deutlich geringeren Kosten und mit EU-Residenz.

Geeignet für

  • Allgemeine Kundenfragen und Chatbot-Konversationen
  • FAQ-Bearbeitung und Knowledge-Base-Abfragen
  • Kurze Zusammenfassungen und Intent-Erkennung

Wie ZelixAI dieses Modell nutzt

Innerhalb von ZelixAI ist Mistral Small das Standardmodell für den Privacy Cluster — wenn Sie den Privacy-Modus aktivieren (oder wenn Ihr Paket dies standardmäßig tut), leiten wir an dieses Modell für Kundenfragen, FAQ-Bearbeitung, kurze Zusammenfassungen und allgemeine Chatbot-Konversationen weiter. Sie können jederzeit zu einem anderen Modell derselben Stufe wechseln oder zu Cloud Premium eskalieren.

Praxisbeispiele innerhalb von ZelixAI

Concrete praktijkvoorbeelden voor dit model worden binnenkort hier gepubliceerd. Stel intussen vragen via onze contactpagina — we delen graag relevante use-cases uit onze klantbasis.

Einschränkungen und zu beachtende Punkte

Einschränkungen: bei hochspezifischen Fragen ohne Grounding-Kontext kann das Modell halluzinieren. Nicht die erste Wahl für komplexe Code-Generierung oder mehrstufige Schlussfolgerungen — Llama 3.3 70B (Privacy) oder Claude Sonnet 4 (Cloud) sind dafür stärker. Wissensstand liegt vor dem Trainingsdatum; für aktuelle Informationen immer mit unserer RAG-Schicht (Ihrer eigenen Wissensdatenbank) kombinieren.

Technische Spezifikationen

Anbieter ZelixAI Privacy Cluster
Kontextfenster 128K tokens
Durchsatz 40–100 tokens/s (Schnell)
Kostenkategorie Sehr günstig
Tool / Function-Calling ja
Datenresidenz EU (Niederlande · Deutschland · Frankreich)

Weitere Modelle in dieser Kategorie