BETA · gizlilik LLM'leri ve ses sunucuları çalışıyor · daha hızlı yanıtlar için GPU yükseltmesi yolda · paketler hâlâ değişebilir Durum & Yol Haritası →
ZelixAI Tokenomics  ›  Model profili

Mistral Small 3.2 — 24B

Snel, Europees, geschikt voor de meeste klantvragen.

aracılığıyla ZelixAI Privacy Cluster →

Bu model nedir?

Mistral Small 3.2, Paris merkezli Mistral AI'nin 24 milyar parametreli dil modelidir. Açık ağırlıklı (Apache 2.0 lisansı), Avrupa dillerine güçlü vurgu yapan geniş bir derlemede instruction-tuned olup modern GPU donanımında saniyede 60–100 token hızına ulaşır. Bu modeli ZelixAI Privacy Cluster içinde çalıştırıyoruz — talebiniz AB'den ayrılmaz.

Güçlü yönler

Güçlü yönler: yüksek çıkarım hızı, iş konuşmaları için sağlam instruction-following, Fransızca, Almanca, Hollandaca, İtalyanca ve İspanyolca'da güvenilir performans ve istek yolunda sıfır ABD bulut bileşeni. Müşteri sorularının büyük çoğunluğu için bu model testlerimizde ağır bulut modellerinin gerisinde kalmayan sonuçlar üretir — önemli ölçüde daha düşük maliyet ve AB yerleşimi ile.

Şunlar için uygun

  • Genel müşteri soruları ve sohbet botu konuşmaları
  • SSS işleme ve bilgi tabanı sorguları
  • Kısa özetler ve niyet tespiti

ZelixAI bu modeli nasıl kullanır

ZelixAI içinde Mistral Small, Privacy Cluster için varsayılan modeldir — gizlilik modunu etkinleştirdiğinizde (veya paketiniz bunu varsayılan olarak yaparsa), müşteri soruları, SSS işleme, kısa özetler ve genel sohbet botu konuşmaları için bu modele yönlendiririz. İstediğiniz zaman aynı kategorideki başka bir modele geçebilir veya Cloud Premium'a yükseltebilirsiniz.

ZelixAI içinde gerçek dünya örnekleri

Concrete praktijkvoorbeelden voor dit model worden binnenkort hier gepubliceerd. Stel intussen vragen via onze contactpagina — we delen graag relevante use-cases uit onze klantbasis.

Sınırlamalar ve dikkat edilmesi gerekenler

Sınırlamalar: temel bağlam olmadan çok spesifik sorularda model halüsinasyon görebilir. Karmaşık kod üretimi veya çok adımlı akıl yürütme için ilk tercih değil — Llama 3.3 70B (Privacy) veya Claude Sonnet 4 (Cloud) bunda daha güçlü. Bilgi kesim tarihi eğitim tarihinden öncedir; güncel bilgi için her zaman RAG katmanımızla (kendi bilgi tabanınız) birleştirin.

Teknik özellikler

Sağlayıcı ZelixAI Privacy Cluster
Bağlam penceresi 128K tokens
Verim 40–100 tokens/s (Hızlı)
Maliyet kategorisi Çok ekonomik
Araç / fonksiyon çağrısı evet
Veri yerleşimi AB (Hollanda · Almanya · Fransa)

Bu kategorideki diğer modeller