Unser Large Language Model as a Service (LLMaaS)-Angebot ermöglicht Ihnen den Zugriff auf hochmoderne Sprachmodelle, deren Inferenz mit einer qualifizierten SecNumCloud-Infrastruktur durchgeführt wird, die für das Hosting von Gesundheitsdaten HDS-zertifiziert und damit souverän ist und in Frankreich berechnet wird. Profitieren Sie von einer hohen Leistung und optimaler Sicherheit für Ihre KI-Anwendungen. Ihre Daten bleiben streng vertraulich und werden nach der Verarbeitung weder ausgewertet noch gespeichert.
Große Modelle
Unsere großen Modelle bieten Spitzenleistungen für die anspruchsvollsten Aufgaben. Sie eignen sich besonders für Anwendungen, die ein tiefes Sprachverständnis, komplexes Denken oder die Verarbeitung langer Dokumente erfordern.
gpt-oss:120b
llama3.3:70b
gemma3:27b
qwen3-coder:30b
qwen3-2507:30b-a3b
qwen3-next:80b
qwen3-vl:30b
qwen3-vl:32b
Olmo 3:7b
Olmo 3:32b
qwen3-2507:235b
Spezialisierte Vorlagen
Unsere spezialisierten Modelle sind für bestimmte Aufgaben wie Code-Generierung, Bildanalyse oder die Verarbeitung strukturierter Daten optimiert. Sie bieten ein hervorragendes Verhältnis von Leistung und Kosten für gezielte Anwendungsfälle.
embeddinggemma:300m
gpt-oss:20b
qwen3-2507-think:4b
qwen3-2507:4b
rnj-1:8b
qwen3-vl:2b
qwen3-vl:4b
devstral:24b
devstral-small-2:24b
granite4-small-h:32b
granite4-tiny-h:7b
deepseek-ocr
medgemma:27b
mistral-small3.2:24b
granite3.2-vision:2b
magistral:24b
cogito:32b
granite-embedding:278m
qwen3-Einbettung: 0.6b
qwen3-Einbettung:4b
qwen3-Einbettung:8b
granite3-guardian:2b
granite3-guardian:8b
functiongemma:270m
ministral-3:3b
Ministral-3:8b
ministral-3:14b
Vergleich der Modelle
Diese Vergleichstabelle hilft Ihnen bei der Auswahl des für Sie am besten geeigneten Modells anhand verschiedener Kriterien wie Kontextgröße, Leistung und spezifische Anwendungsfälle.
| Modell | Herausgeber | Einstellungen | Kontext (k tokens) | Vision | Agent | Argumentation | Sicherheit | Schnell * | Energieeffizienz * |
|---|---|---|---|---|---|---|---|---|---|
| Große Modelle | |||||||||
| gpt-oss:120b | OpenAI | 120B | 120000 | ||||||
| llama3.3:70b | Meta | 70B | 132000 | ||||||
| gemma3:27b | 27B | 120000 | |||||||
| qwen3-coder:30b | Qwen Team | 30B | 250000 | ||||||
| qwen3-2507:30b-a3b | Qwen Team | 30B | 250000 | ||||||
| qwen3-next:80b | Qwen Team | 80B | 262144 | ||||||
| qwen3-vl:30b | Qwen Team | 30B | 250000 | ||||||
| qwen3-vl:32b | Qwen Team | 32B | 250000 | ||||||
| Olmo 3:7b | AllenAI | 7B | 65536 | ||||||
| Olmo 3:32b | AllenAI | 32B | 65536 | ||||||
| qwen3-2507:235b | Qwen Team | 235B (22B aktiv) | 130000 | ||||||
| Spezialisierte Vorlagen | |||||||||
| embeddinggemma:300m | 300M | 2048 | N.C. | ||||||
| gpt-oss:20b | OpenAI | 20B | 120000 | ||||||
| qwen3-2507-think:4b | Qwen Team | 4B | 250000 | ||||||
| qwen3-2507:4b | Qwen Team | 4B | 250000 | ||||||
| rnj-1:8b | Essential AI | 8B | 32000 | N.C. | |||||
| qwen3-vl:2b | Qwen Team | 2B | 250000 | ||||||
| qwen3-vl:4b | Qwen Team | 4B | 250000 | ||||||
| devstral:24b | Mistral AI & All Hands AI | 24B | 120000 | ||||||
| devstral-small-2:24b | Mistral AI & All Hands AI | 24B | 380000 | N.C. | |||||
| granite4-small-h:32b | IBM | 32B (9B aktiv) | 128000 | ||||||
| granite4-tiny-h:7b | IBM | 7B (1B aktiv) | 128000 | ||||||
| deepseek-ocr | DeepSeek AI | 3B | 8192 | ||||||
| medgemma:27b | 27B | 128000 | |||||||
| mistral-small3.2:24b | Mistral AI | 24B | 128000 | ||||||
| granite3.2-vision:2b | IBM | 2B | 16384 | ||||||
| magistral:24b | Mistral AI | 24B | 40000 | ||||||
| cogito:32b | Deep Cogito | 32B | 32000 | ||||||
| granite-embedding:278m | IBM | 278M | 512 | N.C. | |||||
| qwen3-Einbettung: 0.6b | Qwen Team | 0.6B | 8192 | N.C. | |||||
| qwen3-Einbettung:4b | Qwen Team | 4B | 8192 | N.C. | |||||
| qwen3-Einbettung:8b | Qwen Team | 8B | 8192 | N.C. | |||||
| granite3-guardian:2b | IBM | 2B | 8192 | N.C. | |||||
| granite3-guardian:8b | IBM | 8B | 32000 | N.C. | |||||
| functiongemma:270m | 270 Mio. | 32768 | N.C. | ||||||
| ministral-3:3b | Mistral AI | 3B | 250000 | N.C. | |||||
| Ministral-3:8b | Mistral AI | 8B | 250000 | N.C. | |||||
| ministral-3:14b | Mistral AI | 14B | 250000 | N.C. | |||||
Empfohlene Anwendungsfälle
Im Folgenden finden Sie einige häufige Anwendungsfälle und die dafür jeweils am besten geeigneten Modelle. Diese Empfehlungen basieren auf der spezifischen Leistung und den Fähigkeiten der einzelnen Modelle.
Mehrsprachiger Dialog
- Llama 3.3
- Mistral Small 3.2
- Qwen 3
- Openai OSS
- Granit 4
Analyse langer Dokumente
- Gemma 3
- Qwen next
- Qwen 3
- Granit 4
Programmierung und Entwicklung
- DeepCoder
- Qwen3 kodieren
- Granit 4
- Devstral
Visuelle Analyse
- deepseek-OCR
- Mistral Small 3.2
- Gemma 3
- Qwen 3 VL
Sicherheit und Compliance
- Granite Guardian
- Granit 4
- Devstral
- Mistral Small 3.2
- Magistral small
Leichte und eingebettete Einsätze
- Gemma 3n
- Granit 4 tiny
- Qwen 3 VL (2B)