Unser Large Language Model as a Service (LLMaaS)-Angebot ermöglicht Ihnen den Zugriff auf hochmoderne Sprachmodelle, deren Inferenz mit einer qualifizierten SecNumCloud-Infrastruktur durchgeführt wird, die für das Hosting von Gesundheitsdaten HDS-zertifiziert und damit souverän ist und in Frankreich berechnet wird. Profitieren Sie von einer hohen Leistung und optimaler Sicherheit für Ihre KI-Anwendungen. Ihre Daten bleiben streng vertraulich und werden nach der Verarbeitung weder ausgewertet noch gespeichert.
Große Modelle
Unsere großen Modelle bieten Spitzenleistungen für die anspruchsvollsten Aufgaben. Sie eignen sich besonders für Anwendungen, die ein tiefes Sprachverständnis, komplexes Denken oder die Verarbeitung langer Dokumente erfordern.
gpt-oss:120b
llama3.3:70b
qwen3:235b
deepseek-r1:671b
gemma3:27b
qwen3-coder:30b
qwen3-2507-think:30b-a3b
qwen3-2507:30b-a3b
qwen3:30b-a3b
deepseek-r1:70b
qwen2.5vl:32b
qwen2.5vl:72b
Spezialisierte Vorlagen
Unsere spezialisierten Modelle sind für bestimmte Aufgaben wie Code-Generierung, Bildanalyse oder die Verarbeitung strukturierter Daten optimiert. Sie bieten ein hervorragendes Verhältnis von Leistung und Kosten für gezielte Anwendungsfälle.
embeddinggemma:300m
gpt-oss:20b
qwen3:14b
gemma3:12b
gemma3:4b
gemma3:1b
lucie-instruct:7b
mistral-small3.1:24b
mistral-small3.2:24b
deepcoder:14b
granite3.2-vision:2b
granit3.3:8b
Granit3.3:2b
magistral:24b
Granit3.1-moe:3b
cogito:14b
cogito:32b
qwen3:32b
qwq:32b
deepseek-r1:14b
deepseek-r1:32b
cogito:3b
granite-embedding:278m
granite3-guardian:2b
granite3-guardian:8b
qwen2.5:0.5b
qwen2.5:1.5b
qwen2.5:14b
qwen2.5:32b
qwen2.5:3b
qwen3:0.6b
qwen3:1.7b
qwen3:4b
qwen3-2507-think:4b
qwen3-2507:4b
qwen3:8b
qwen2.5vl:3b
qwen2.5vl:7b
hf.co/roadus/Foundation-Sec-8B-Q4_K_M-GGUF:Q4_K_M
devstral:24b
cogito:8b
llama3.1:8b
phi4-reasoning:14b
Vergleich der Modelle
Diese Vergleichstabelle hilft Ihnen bei der Auswahl des für Sie am besten geeigneten Modells anhand verschiedener Kriterien wie Kontextgröße, Leistung und spezifische Anwendungsfälle.
Modell | Herausgeber | Einstellungen | Kontext (k tokens) | Vision | Agent | Argumentation | Sicherheit | Schnell * | Energieeffizienz * |
---|---|---|---|---|---|---|---|---|---|
Große Modelle | |||||||||
gpt-oss:120b | OpenAI | 120B | 120000 | ||||||
llama3.3:70b | Meta | 70B | 120000 | ||||||
qwen3:235b | Qwen Team | 235B | 60000 | ||||||
deepseek-r1:671b | DeepSeek AI | 671B | 16000 | ||||||
gemma3:27b | 27B | 120000 | |||||||
qwen3-coder:30b | Qwen Team | 30B | 250000 | ||||||
qwen3-2507-think:30b-a3b | Qwen Team | 30B | 120000 | ||||||
qwen3-2507:30b-a3b | Qwen Team | 30B | 250000 | ||||||
qwen3:30b-a3b | Qwen Team | 30B | 32000 | ||||||
deepseek-r1:70b | DeepSeek AI | 70B | 32000 | ||||||
qwen2.5vl:32b | Qwen Team | 32B | 120000 | ||||||
qwen2.5vl:72b | Qwen Team | 72B | 128000 | ||||||
Spezialisierte Vorlagen | |||||||||
embeddinggemma:300m | 300M | 2048 | N.C. | ||||||
gpt-oss:20b | OpenAI | 20B | 120000 | ||||||
qwen3:14b | Qwen Team | 14B | 32000 | ||||||
gemma3:12b | 12B | 120000 | |||||||
gemma3:4b | 4B | 120000 | |||||||
gemma3:1b | 1B | 32000 | |||||||
lucie-instruct:7b | OpenLLM-Frankreich | 7B | 32000 | ||||||
mistral-small3.1:24b | Mistral AI | 24B | 120000 | ||||||
mistral-small3.2:24b | Mistral AI | 24B | 120000 | ||||||
deepcoder:14b | Agentica x Together AI | 14B | 32000 | ||||||
granite3.2-vision:2b | IBM | 2B | 16384 | ||||||
granit3.3:8b | IBM | 8B | 60000 | ||||||
Granit3.3:2b | IBM | 2B | 120000 | ||||||
magistral:24b | Mistral AI | 24B | 40000 | ||||||
Granit3.1-moe:3b | IBM | 3B | 32000 | ||||||
cogito:14b | Deep Cogito | 14B | 32000 | ||||||
cogito:32b | Deep Cogito | 32B | 32000 | ||||||
qwen3:32b | Qwen Team | 32B | 40000 | ||||||
qwq:32b | Qwen Team | 32B | 32000 | ||||||
deepseek-r1:14b | DeepSeek AI | 14B | 32000 | ||||||
deepseek-r1:32b | DeepSeek AI | 32B | 32000 | ||||||
cogito:3b | Deep Cogito | 3B | 32000 | ||||||
granite-embedding:278m | IBM | 278M | 512 | N.C. | |||||
granite3-guardian:2b | IBM | 2B | 8192 | N.C. | |||||
granite3-guardian:8b | IBM | 8B | 32000 | N.C. | |||||
qwen2.5:0.5b | Qwen Team | 0.5B | 32000 | ||||||
qwen2.5:1.5b | Qwen Team | 1.5B | 32000 | ||||||
qwen2.5:14b | Qwen Team | 14B | 32000 | ||||||
qwen2.5:32b | Qwen Team | 32B | 32000 | ||||||
qwen2.5:3b | Qwen Team | 3B | 32000 | ||||||
qwen3:0.6b | Qwen Team | 0.6B | 32000 | ||||||
qwen3:1.7b | Qwen Team | 1.7B | 32000 | ||||||
qwen3:4b | Qwen Team | 4B | 32000 | ||||||
qwen3-2507-think:4b | Qwen Team | 4B | 250000 | ||||||
qwen3-2507:4b | Qwen Team | 4B | 250000 | ||||||
qwen3:8b | Qwen Team | 8B | 32000 | ||||||
qwen2.5vl:3b | Qwen Team | 3.8B | 128000 | ||||||
qwen2.5vl:7b | Qwen Team | 7B (8.3B) | 128000 | ||||||
hf.co/roadus/Foundation-Sec-8B-Q4_K_M-GGUF:Q4_K_M | Foundation AI - Cisco | 8B | 16384 | ||||||
devstral:24b | Mistral AI & All Hands AI | 24B | 120000 | ||||||
cogito:8b | Deep Cogito | 8B | 32000 | ||||||
llama3.1:8b | Meta | 8B | 32000 | ||||||
phi4-reasoning:14b | Microsoft | 14B | 32000 |
Empfohlene Anwendungsfälle
Im Folgenden finden Sie einige häufige Anwendungsfälle und die dafür jeweils am besten geeigneten Modelle. Diese Empfehlungen basieren auf der spezifischen Leistung und den Fähigkeiten der einzelnen Modelle.
Mehrsprachiger Dialog
- Llama 3.3
- Mistral Small 3.2
- Qwen 3
- Granit 3.3
Analyse langer Dokumente
- Gemma 3
- Qwen3
- Granit 3.3
Programmierung und Entwicklung
- DeepCoder
- QwQ
- Qwen3 kodieren
- Granit 3.3
- Devstral
Visuelle Analyse
- Granit 3.2 Vision
- Mistral Small 3.2
- Gemma 3
- Qwen2.5-VL
Sicherheit und Compliance
- Granite Guardian
- Granit 3.3
- Devstral
- Mistral Small 3.1
- Magistral 24b
- Foundation-Sec-8B
Leichte und eingebettete Einsätze
- Gemma 3
- Granit 3.1 MoE
- Granite Guardian
- Granit 3.3