Mistral Small 3.2 — 24B
Snel, Europees, geschikt voor de meeste klantvragen.
über ZelixAI Privacy Cluster →Was ist dieses Modell?
Mistral Small 3.2 ist das 24-Milliarden-Parameter-Sprachmodell von Mistral AI aus Paris. Open-Weight (Apache 2.0-Lizenz), instruction-tuned auf einem breiten Korpus mit starkem Schwerpunkt auf europäischen Sprachen, erreicht es auf moderner GPU-Hardware 60–100 Tokens pro Sekunde. Wir betreiben dieses Modell im ZelixAI Privacy Cluster — Ihre Anfrage verlässt die EU nicht.
Stärken
Stärken: hohe Inferenzgeschwindigkeit, solides Instruction-Following für Geschäftskonversationen, zuverlässige Leistung in Französisch, Deutsch, Niederländisch, Italienisch und Spanisch sowie null US-Cloud-Komponenten im Anfragepfad. Für die meisten Kundenfragen liefert dieses Modell in unseren Tests Ergebnisse, die den schwereren Cloud-Modellen nicht nachstehen — bei deutlich geringeren Kosten und mit EU-Residenz.
Geeignet für
- Allgemeine Kundenfragen und Chatbot-Konversationen
- FAQ-Bearbeitung und Knowledge-Base-Abfragen
- Kurze Zusammenfassungen und Intent-Erkennung
Wie ZelixAI dieses Modell nutzt
Innerhalb von ZelixAI ist Mistral Small das Standardmodell für den Privacy Cluster — wenn Sie den Privacy-Modus aktivieren (oder wenn Ihr Paket dies standardmäßig tut), leiten wir an dieses Modell für Kundenfragen, FAQ-Bearbeitung, kurze Zusammenfassungen und allgemeine Chatbot-Konversationen weiter. Sie können jederzeit zu einem anderen Modell derselben Stufe wechseln oder zu Cloud Premium eskalieren.
Praxisbeispiele innerhalb von ZelixAI
Concrete praktijkvoorbeelden voor dit model worden binnenkort hier gepubliceerd. Stel intussen vragen via onze contactpagina — we delen graag relevante use-cases uit onze klantbasis.
Einschränkungen und zu beachtende Punkte
Einschränkungen: bei hochspezifischen Fragen ohne Grounding-Kontext kann das Modell halluzinieren. Nicht die erste Wahl für komplexe Code-Generierung oder mehrstufige Schlussfolgerungen — Llama 3.3 70B (Privacy) oder Claude Sonnet 4 (Cloud) sind dafür stärker. Wissensstand liegt vor dem Trainingsdatum; für aktuelle Informationen immer mit unserer RAG-Schicht (Ihrer eigenen Wissensdatenbank) kombinieren.
Technische Spezifikationen
| Anbieter | ZelixAI Privacy Cluster |
| Kontextfenster | 128K tokens |
| Durchsatz | 40–100 tokens/s (Schnell) |
| Kostenkategorie | Sehr günstig |
| Tool / Function-Calling | ja |
| Datenresidenz | EU (Niederlande · Deutschland · Frankreich) |