BETA · privacy LLM's & voice servers operationeel · GPU-upgrade onderweg voor snellere responses · pakketten kunnen nog wijzigen Status & Roadmap →
ZelixAI Tokenomics  ›  Model-profiel

GPT-OSS — 120B

Groot open-source model, sterk in juridische en medische analyses.

via ZelixAI Privacy Cluster →

Wat is dit model?

GPT-OSS 120B is een 120-miljard-parameter open-source taalmodel met een GPT-architectuur. Getraind op een breed corpus dat zwaar leunt op technische teksten, juridische documenten en wetenschappelijke literatuur, biedt het een diepere kennisbasis voor analyse-zware taken dan kleinere modellen. Door het beschikbaar te maken in de ZelixAI Privacy Cluster bieden we de redeneer-kracht van een vlaggenschip-model zonder dat de data de Europese Unie hoeft te verlaten.

Sterke punten

Sterke punten: het model excelleert in juridische analyse (contract-review, jurisprudentie-vergelijking), medische tekst-analyse (geen diagnose, wel literatuur en richtlijnen) en lange-document samenvatting (beleidsnota's, jaarverslagen). De grotere parameter-telling levert nauwkeurigere antwoorden op complexe vragen — vooral als context goed is opgezet via onze RAG-laag.

Geschikt voor

  • Juridische analyse en contract-review
  • Medische tekst-analyse (geen diagnose)
  • Lange documenten en samenvattingen

Hoe ZelixAI dit model gebruikt

Wij positioneren GPT-OSS 120B binnen de Privacy Cluster als de zwaardere optie voor analyse-werk: contract-review-bots, beleids-assistenten en lange-document samenvattingen. Voor real-time klantenservice is Mistral Small de aanbevolen keuze (sneller). U schakelt in het ZelixAI-portaal per bot per gesprek tussen modellen — geen herstart, geen integratie-aanpassing.

Praktijkvoorbeelden binnen ZelixAI

Concrete praktijkvoorbeelden voor dit model worden binnenkort hier gepubliceerd. Stel intussen vragen via onze contactpagina — we delen graag relevante use-cases uit onze klantbasis.

Beperkingen en aandachtspunten

Beperkingen: GPT-OSS 120B is significant trager dan Mistral Small (15–25 tokens/sec versus 60–100). Niet geschikt voor real-time chat met directe-respons-verwachting. De kennis-cutoff ligt begin 2024 — gebruik altijd onze RAG-laag voor actuele bedrijfsdata. Voor zaken die juridische geldigheid raken: behandel het antwoord als startpunt, niet als advies, en laat altijd door een mens-expert verifiëren.

Technische specificaties

Leverancier ZelixAI Privacy Cluster
Contextvenster 131K tokens
Doorvoersnelheid 15–40 tokens/s (Gemiddeld)
Kostencategorie Zeer voordelig
Tool / function-calling ja
Data-residentie EU (Nederland · Duitsland · Frankrijk)

Andere modellen in deze categorie