La nostra offerta Large Language Model as a Service (LLMaaS) vi dà accesso a modelli linguistici all'avanguardia, la cui inferenza viene eseguita con un'infrastruttura qualificata SecNumCloud, certificata HDS per l'hosting di dati sanitari, e quindi sovrana, calcolata in Francia. Beneficiate di prestazioni elevate e di una sicurezza ottimale per le vostre applicazioni AI. I vostri dati rimangono strettamente confidenziali e non vengono né sfruttati né conservati dopo l'elaborazione.
Modelli grandi
I nostri modelli di grandi dimensioni offrono prestazioni all'avanguardia per i compiti più impegnativi. Sono particolarmente adatti alle applicazioni che richiedono una comprensione profonda del linguaggio, ragionamenti complessi o l'elaborazione di documenti lunghi.
gpt-oss:120b
lama3.3:70b
gemma3:27b
qwen3-coder:30b
qwen3-2507:30b-a3b
qwen3-next:80b
qwen3-vl:30b
qwen3-vl:32b
olmo-3:7b
olmo-3:32b
qwen3-2507:235b
Modelli specializzati
I nostri modelli specializzati sono ottimizzati per compiti specifici come la generazione di codice, l'analisi di immagini o l'elaborazione di dati strutturati. Offrono un eccellente rapporto prestazioni/costo per casi d'uso mirati.
embeddinggemma:300m
gpt-oss:20b
qwen3-2507-pensiero:4b
qwen3-2507:4b
rnj-1:8b
qwen3-vl:2b
qwen3-vl:4b
devstrale:24b
devstral-small-2:24b
granito4-piccolo-h:32b
granito4-tiny-h:7b
deepseek-ocr
medgemma:27b
mistral-small3.2:24b
granito3.2-visione:2b
magistrale:24b
cogito:32b
granito-embedding:278m
qwen3-embedding:0.6b
qwen3-embedding:4b
qwen3-embedding:8b
granito3-guardiano:2b
granito3-guardia:8b
funzione gemma: 270 m
ministeriale-3:3b
ministeriale-3:8b
ministeriale-3:14b
Modello a confronto
Questa tabella di confronto vi aiuterà a scegliere il modello più adatto alle vostre esigenze, in base a vari criteri come le dimensioni del contesto, le prestazioni e i casi d'uso specifici.
| Modello | Editore | Parametri | Contesto (k token) | Visione | Agente | Ragionamento | Sicurezza | Rapido * | Efficienza energetica * |
|---|---|---|---|---|---|---|---|---|---|
| Modelli grandi | |||||||||
| gpt-oss:120b | OpenAI | 120B | 120000 | ||||||
| lama3.3:70b | Meta | 70B | 132000 | ||||||
| gemma3:27b | 27B | 120000 | |||||||
| qwen3-coder:30b | Squadra Qwen | 30B | 250000 | ||||||
| qwen3-2507:30b-a3b | Squadra Qwen | 30B | 250000 | ||||||
| qwen3-next:80b | Squadra Qwen | 80B | 262144 | ||||||
| qwen3-vl:30b | Squadra Qwen | 30B | 250000 | ||||||
| qwen3-vl:32b | Squadra Qwen | 32B | 250000 | ||||||
| olmo-3:7b | AllenAI | 7B | 65536 | ||||||
| olmo-3:32b | AllenAI | 32B | 65536 | ||||||
| qwen3-2507:235b | Squadra Qwen | 235B (22B attivi) | 130000 | ||||||
| Modelli specializzati | |||||||||
| embeddinggemma:300m | 300M | 2048 | N.C. | ||||||
| gpt-oss:20b | OpenAI | 20B | 120000 | ||||||
| qwen3-2507-pensiero:4b | Squadra Qwen | 4B | 250000 | ||||||
| qwen3-2507:4b | Squadra Qwen | 4B | 250000 | ||||||
| rnj-1:8b | Essential AI | 8B | 32000 | N.C. | |||||
| qwen3-vl:2b | Squadra Qwen | 2B | 250000 | ||||||
| qwen3-vl:4b | Squadra Qwen | 4B | 250000 | ||||||
| devstrale:24b | Mistral AI e All Hands AI | 24B | 120000 | ||||||
| devstral-small-2:24b | Mistral AI e All Hands AI | 24B | 380000 | N.C. | |||||
| granito4-piccolo-h:32b | IBM | 32B (9B attivo) | 128000 | ||||||
| granito4-tiny-h:7b | IBM | 7B (1B attivo) | 128000 | ||||||
| deepseek-ocr | DeepSeek AI | 3B | 8192 | ||||||
| medgemma:27b | 27B | 128000 | |||||||
| mistral-small3.2:24b | Mistral AI | 24B | 128000 | ||||||
| granito3.2-visione:2b | IBM | 2B | 16384 | ||||||
| magistrale:24b | Mistral AI | 24B | 40000 | ||||||
| cogito:32b | Cogito profondo | 32B | 32000 | ||||||
| granito-embedding:278m | IBM | 278M | 512 | N.C. | |||||
| qwen3-embedding:0.6b | Squadra Qwen | 0.6B | 8192 | N.C. | |||||
| qwen3-embedding:4b | Squadra Qwen | 4B | 8192 | N.C. | |||||
| qwen3-embedding:8b | Squadra Qwen | 8B | 8192 | N.C. | |||||
| granito3-guardiano:2b | IBM | 2B | 8192 | N.C. | |||||
| granito3-guardia:8b | IBM | 8B | 32000 | N.C. | |||||
| funzione gemma: 270 m | 270M | 32768 | N.C. | ||||||
| ministeriale-3:3b | Mistral AI | 3B | 250000 | N.C. | |||||
| ministeriale-3:8b | Mistral AI | 8B | 250000 | N.C. | |||||
| ministeriale-3:14b | Mistral AI | 14B | 250000 | N.C. | |||||
Casi d'uso consigliati
Ecco alcuni casi d'uso comuni e i modelli più adatti per ciascuno di essi. Queste raccomandazioni si basano sulle prestazioni e sulle capacità specifiche di ciascun modello.
Dialogo multilingue
- Llama 3.3
- Mistral Piccolo 3.2
- Qwen 3
- Openai OSS
- Granito 4
Analisi di documenti lunghi
- Gemma 3
- Il prossimo Qwen
- Qwen 3
- Granito 4
Programmazione e sviluppo
- DeepCoder
- Codifica Qwen3
- Granito 4
- Devstral
Analisi visiva
- deepseek-OCR
- Mistral Piccolo 3.2
- Gemma 3
- Qwen 3 VL
Sicurezza e conformità
- Guardiano del granito
- Granito 4
- Devstral
- Mistral Piccolo 3.2
- Magistrale piccolo
Impieghi leggeri e a bordo
- Gemma 3n
- Granito 4 minuscolo
- Qwen 3 VL (2B)