Notre offre Large Language Model as a Service (LLMaaS) vous permet d’accéder à des modèles de langage de pointe, dont l’inférence est réalisée avec une infrastructure qualifiée SecNumCloud, certifiée HDS pour l’hébergement des données de santé, et donc souveraine, calculée en France. Bénéficiez de performances élevées et d’une sécurité optimale pour vos applications d’IA. Vos données demeurent strictement confidentielles et ne sont ni exploitées, ni stockées après traitement.
Modèles de grande taille
Nos modèles de grande taille offrent des performances de pointe pour les tâches les plus exigeantes. Ils sont particulièrement adaptés pour les applications nécessitant une compréhension profonde du langage, un raisonnement complexe ou le traitement de documents longs.
gpt-oss:120b
llama3.3:70b
gemma3:27b
qwen3-coder:30b
qwen3-2507:30b-a3b
qwen3-next:80b
qwen3-vl:30b
qwen3-vl:32b
olmo-3:7b
olmo-3:32b
qwen3-2507:235b
Modèles spécialisés
Nos modèles spécialisés sont optimisés pour des tâches spécifiques comme la génération de code, l’analyse d’images ou le traitement de données structurées. Ils offrent un excellent rapport performance/coût pour des cas d’usage ciblés.
embeddinggemma:300m
gpt-oss:20b
qwen3-2507-think:4b
qwen3-2507:4b
rnj-1:8b
qwen3-vl:2b
qwen3-vl:4b
devstral:24b
devstral-small-2:24b
granite4-small-h:32b
granite4-tiny-h:7b
deepseek-ocr
medgemma:27b
mistral-small3.2:24b
granite3.2-vision:2b
magistral:24b
cogito:32b
granite-embedding:278m
qwen3-embedding:0.6b
qwen3-embedding:4b
qwen3-embedding:8b
granite3-guardian:2b
granite3-guardian:8b
functiongemma:270m
ministral-3:3b
ministral-3:8b
ministral-3:14b
Comparaison des modèles
Ce tableau comparatif vous aide à choisir le modèle le plus adapté à vos besoins en fonction de différents critères comme la taille du contexte, les performances et les cas d’usage spécifiques.
| Modèle | Editeur | Paramètres | Contexte (k tokens) | Vision | Agent | Raisonnement | Sécurité | Rapide * | Efficience énergétique * |
|---|---|---|---|---|---|---|---|---|---|
| Modèles de grande taille | |||||||||
| gpt-oss:120b | OpenAI | 120B | 120000 | ||||||
| llama3.3:70b | Meta | 70B | 132000 | ||||||
| gemma3:27b | 27B | 120000 | |||||||
| qwen3-coder:30b | Qwen Team | 30B | 250000 | ||||||
| qwen3-2507:30b-a3b | Qwen Team | 30B | 250000 | ||||||
| qwen3-next:80b | Qwen Team | 80B | 262144 | ||||||
| qwen3-vl:30b | Qwen Team | 30B | 250000 | ||||||
| qwen3-vl:32b | Qwen Team | 32B | 250000 | ||||||
| olmo-3:7b | AllenAI | 7B | 65536 | ||||||
| olmo-3:32b | AllenAI | 32B | 65536 | ||||||
| qwen3-2507:235b | Qwen Team | 235B (22B actifs) | 130000 | ||||||
| Modèles spécialisés | |||||||||
| embeddinggemma:300m | 300M | 2048 | N.C. | ||||||
| gpt-oss:20b | OpenAI | 20B | 120000 | ||||||
| qwen3-2507-think:4b | Qwen Team | 4B | 250000 | ||||||
| qwen3-2507:4b | Qwen Team | 4B | 250000 | ||||||
| rnj-1:8b | Essential AI | 8B | 32000 | N.C. | |||||
| qwen3-vl:2b | Qwen Team | 2B | 250000 | ||||||
| qwen3-vl:4b | Qwen Team | 4B | 250000 | ||||||
| devstral:24b | Mistral AI & All Hands AI | 24B | 120000 | ||||||
| devstral-small-2:24b | Mistral AI & All Hands AI | 24B | 380000 | N.C. | |||||
| granite4-small-h:32b | IBM | 32B (9B actifs) | 128000 | ||||||
| granite4-tiny-h:7b | IBM | 7B (1B actif) | 128000 | ||||||
| deepseek-ocr | DeepSeek AI | 3B | 8192 | ||||||
| medgemma:27b | 27B | 128000 | |||||||
| mistral-small3.2:24b | Mistral AI | 24B | 128000 | ||||||
| granite3.2-vision:2b | IBM | 2B | 16384 | ||||||
| magistral:24b | Mistral AI | 24B | 40000 | ||||||
| cogito:32b | Deep Cogito | 32B | 32000 | ||||||
| granite-embedding:278m | IBM | 278M | 512 | N.C. | |||||
| qwen3-embedding:0.6b | Qwen Team | 0.6B | 8192 | N.C. | |||||
| qwen3-embedding:4b | Qwen Team | 4B | 8192 | N.C. | |||||
| qwen3-embedding:8b | Qwen Team | 8B | 8192 | N.C. | |||||
| granite3-guardian:2b | IBM | 2B | 8192 | N.C. | |||||
| granite3-guardian:8b | IBM | 8B | 32000 | N.C. | |||||
| functiongemma:270m | 270M | 32768 | N.C. | ||||||
| ministral-3:3b | Mistral AI | 3B | 250000 | N.C. | |||||
| ministral-3:8b | Mistral AI | 8B | 250000 | N.C. | |||||
| ministral-3:14b | Mistral AI | 14B | 250000 | N.C. | |||||
Cas d'usage recommandés
Voici quelques cas d’usage courants et les modèles les plus adaptés pour chacun d’entre eux. Ces recommandations sont basées sur les performances et les capacités spécifiques de chaque modèle.
Dialogue multilingue
- Llama 3.3
- Mistral Small 3.2
- Qwen 3
- Openai OSS
- Granite 4
Analyse de documents longs
- Gemma 3
- Qwen next
- Qwen 3
- Granite 4
Programmation et développement
- DeepCoder
- Qwen3 coder
- Granite 4
- Devstral
Analyse visuelle
- deepseek-OCR
- Mistral Small 3.2
- Gemma 3
- Qwen 3 VL
Sécurité et conformité
- Granite Guardian
- Granite 4
- Devstral
- Mistral Small 3.2
- Magistral small
Déploiements légers et embarqués
- Gemma 3n
- Granite 4 tiny
- Qwen 3 VL (2B)