Mistral Small 3.2 — 24B
Snel, Europees, geschikt voor de meeste klantvragen.
vía ZelixAI Privacy Cluster →¿Qué es este modelo?
Mistral Small 3.2 es el modelo de lenguaje de 24 mil millones de parámetros de Mistral AI en París. Open-weight (licencia Apache 2.0), instruction-tuned sobre un amplio corpus con fuerte énfasis en lenguas europeas, alcanza 60–100 tokens por segundo en hardware GPU moderno. Ejecutamos este modelo dentro del ZelixAI Privacy Cluster — su solicitud nunca sale de la UE.
Puntos fuertes
Puntos fuertes: alta velocidad de inferencia, seguimiento de instrucciones sólido para conversaciones empresariales, rendimiento fiable en francés, alemán, neerlandés, italiano y español, y cero componentes de cloud estadounidense en la ruta de solicitud. Para la mayoría de preguntas de clientes, este modelo produce en nuestras pruebas resultados que no se quedan atrás de los modelos cloud más pesados — a un coste significativamente menor y con residencia UE.
Adecuado para
- Preguntas generales de clientes y conversaciones de chatbot
- Gestión de FAQ y consultas a base de conocimiento
- Resúmenes breves y detección de intención
Cómo usa ZelixAI este modelo
Dentro de ZelixAI, Mistral Small es el modelo predeterminado para el Privacy Cluster — cuando activa el modo privacy (o cuando su paquete lo hace por defecto), enrutamos a este modelo para preguntas de clientes, gestión de FAQ, resúmenes breves y conversaciones generales de chatbot. Puede cambiar a otro modelo del mismo nivel o escalar a Cloud Premium en cualquier momento.
Ejemplos prácticos dentro de ZelixAI
Concrete praktijkvoorbeelden voor dit model worden binnenkort hier gepubliceerd. Stel intussen vragen via onze contactpagina — we delen graag relevante use-cases uit onze klantbasis.
Limitaciones y advertencias
Limitaciones: en preguntas muy específicas sin contexto de grounding, el modelo puede alucinar. No es la primera opción para generación de código compleja o razonamiento multi-paso — Llama 3.3 70B (Privacy) o Claude Sonnet 4 (Cloud) son más fuertes ahí. La fecha de corte de conocimiento es anterior a la fecha de entrenamiento; combine siempre con nuestra capa RAG (su propia base de conocimiento) para información actualizada.
Especificaciones técnicas
| Proveedor | ZelixAI Privacy Cluster |
| Ventana de contexto | 128K tokens |
| Rendimiento | 40–100 tokens/s (Rápido) |
| Categoría de coste | Muy asequible |
| Tool / function-calling | sí |
| Residencia de datos | UE (Países Bajos · Alemania · Francia) |