BETA · LLM privacy & servidores de voz operativos · mejora de GPU en curso para respuestas más rápidas · los paquetes aún pueden cambiar Estado & Roadmap →
ZelixAI Tokenomics  ›  Perfil del modelo

Mistral Small 3.2 — 24B

Snel, Europees, geschikt voor de meeste klantvragen.

vía ZelixAI Privacy Cluster →

¿Qué es este modelo?

Mistral Small 3.2 es el modelo de lenguaje de 24 mil millones de parámetros de Mistral AI en París. Open-weight (licencia Apache 2.0), instruction-tuned sobre un amplio corpus con fuerte énfasis en lenguas europeas, alcanza 60–100 tokens por segundo en hardware GPU moderno. Ejecutamos este modelo dentro del ZelixAI Privacy Cluster — su solicitud nunca sale de la UE.

Puntos fuertes

Puntos fuertes: alta velocidad de inferencia, seguimiento de instrucciones sólido para conversaciones empresariales, rendimiento fiable en francés, alemán, neerlandés, italiano y español, y cero componentes de cloud estadounidense en la ruta de solicitud. Para la mayoría de preguntas de clientes, este modelo produce en nuestras pruebas resultados que no se quedan atrás de los modelos cloud más pesados — a un coste significativamente menor y con residencia UE.

Adecuado para

  • Preguntas generales de clientes y conversaciones de chatbot
  • Gestión de FAQ y consultas a base de conocimiento
  • Resúmenes breves y detección de intención

Cómo usa ZelixAI este modelo

Dentro de ZelixAI, Mistral Small es el modelo predeterminado para el Privacy Cluster — cuando activa el modo privacy (o cuando su paquete lo hace por defecto), enrutamos a este modelo para preguntas de clientes, gestión de FAQ, resúmenes breves y conversaciones generales de chatbot. Puede cambiar a otro modelo del mismo nivel o escalar a Cloud Premium en cualquier momento.

Ejemplos prácticos dentro de ZelixAI

Concrete praktijkvoorbeelden voor dit model worden binnenkort hier gepubliceerd. Stel intussen vragen via onze contactpagina — we delen graag relevante use-cases uit onze klantbasis.

Limitaciones y advertencias

Limitaciones: en preguntas muy específicas sin contexto de grounding, el modelo puede alucinar. No es la primera opción para generación de código compleja o razonamiento multi-paso — Llama 3.3 70B (Privacy) o Claude Sonnet 4 (Cloud) son más fuertes ahí. La fecha de corte de conocimiento es anterior a la fecha de entrenamiento; combine siempre con nuestra capa RAG (su propia base de conocimiento) para información actualizada.

Especificaciones técnicas

Proveedor ZelixAI Privacy Cluster
Ventana de contexto 128K tokens
Rendimiento 40–100 tokens/s (Rápido)
Categoría de coste Muy asequible
Tool / function-calling
Residencia de datos UE (Países Bajos · Alemania · Francia)

Otros modelos en esta categoría