BETA · Privacy-LLMs & Voice-Server betriebsbereit · GPU-Upgrade in Arbeit für schnellere Antworten · Pakete können sich noch ändern Status & Roadmap →
ZelixAI Tokenomics  ›  Modell-Profil

GPT-OSS — 120B

Großes Open-Source-Modell, stark bei juristischen und medizinischen Analysen.

über ZelixAI Privacy Cluster →

Was ist dieses Modell?

GPT-OSS 120B ist ein Open-Source-Sprachmodell mit 120 Milliarden Parametern und GPT-Architektur. Trainiert auf einem breiten Korpus, der stark auf technische Texte, juristische Dokumente und wissenschaftliche Literatur setzt, bietet es eine tiefere Wissensbasis für analyseintensive Aufgaben als kleinere Modelle. Durch die Bereitstellung im ZelixAI Privacy Cluster liefern wir Flaggschiff-Reasoning, ohne dass Ihre Daten die EU verlassen müssen.

Stärken

Stärken: Das Modell zeichnet sich in der Rechtsanalyse (Vertragsprüfung, Rechtsprechungsvergleich), der Analyse medizinischer Texte (keine Diagnose, aber Literatur und Leitlinien) und der Zusammenfassung langer Dokumente (Policy-Notizen, Jahresberichte) aus. Die höhere Parameterzahl liefert genauere Antworten auf komplexe Fragen — besonders wenn der Kontext über unsere RAG-Schicht gut aufbereitet ist.

Geeignet für

  • Juristische Analyse und Vertragsprüfung
  • Medizinische Textanalyse (keine Diagnose)
  • Lange Dokumente und Zusammenfassungen

Wie ZelixAI dieses Modell nutzt

Wir positionieren GPT-OSS 120B im Privacy Cluster als die schwerere Option für Analyseaufgaben: Vertragsprüfungs-Bots, Policy-Assistenten und Zusammenfassungen langer Dokumente. Für Echtzeit-Kundenservice ist Mistral Small die empfohlene Wahl (schneller). Sie wechseln im ZelixAI-Portal pro Bot pro Konversation zwischen Modellen — kein Neustart, keine Integrationsanpassung.

Praxisbeispiele innerhalb von ZelixAI

Concrete praktijkvoorbeelden voor dit model worden binnenkort hier gepubliceerd. Stel intussen vragen via onze contactpagina — we delen graag relevante use-cases uit onze klantbasis.

Einschränkungen und zu beachtende Punkte

Einschränkungen: GPT-OSS 120B ist deutlich langsamer als Mistral Small (15–25 Tokens/Sek. vs. 60–100). Nicht geeignet für Echtzeit-Chat mit Sofort-Antwort-Erwartung. Wissensstand ist Anfang 2024 — verwenden Sie immer unsere RAG-Schicht für aktuelle Unternehmensdaten. Bei Themen mit rechtlicher Gültigkeit: behandeln Sie die Antwort als Ausgangspunkt, nicht als Rat, und lassen Sie immer von einem menschlichen Experten verifizieren.

Technische Spezifikationen

Anbieter ZelixAI Privacy Cluster
Kontextfenster 131K tokens
Durchsatz 15–40 tokens/s (Mittel)
Kostenkategorie Sehr günstig
Tool / Function-Calling ja
Datenresidenz EU (Niederlande · Deutschland · Frankreich)

Weitere Modelle in dieser Kategorie