La nostra offerta Large Language Model as a Service (LLMaaS) vi dà accesso a modelli linguistici all'avanguardia, la cui inferenza viene eseguita con un'infrastruttura qualificata SecNumCloud, certificata HDS per l'hosting di dati sanitari, e quindi sovrana, calcolata in Francia. Beneficiate di prestazioni elevate e di una sicurezza ottimale per le vostre applicazioni AI. I vostri dati rimangono strettamente confidenziali e non vengono né sfruttati né conservati dopo l'elaborazione.
Modelli grandi
I nostri modelli di grandi dimensioni offrono prestazioni all'avanguardia per i compiti più impegnativi. Sono particolarmente adatti alle applicazioni che richiedono una comprensione profonda del linguaggio, ragionamenti complessi o l'elaborazione di documenti lunghi.
gpt-oss:120b
lama3.3:70b
qwen3:235b
deepseek-r1:671b
gemma3:27b
qwen3-coder:30b
qwen3-2507-think:30b-a3b
qwen3-2507:30b-a3b
qwen3:30b-a3b
deepseek-r1:70b
qwen2.5vl:32b
qwen2.5vl:72b
Modelli specializzati
I nostri modelli specializzati sono ottimizzati per compiti specifici come la generazione di codice, l'analisi di immagini o l'elaborazione di dati strutturati. Offrono un eccellente rapporto prestazioni/costo per casi d'uso mirati.
embeddinggemma:300m
gpt-oss:20b
qwen3:14b
gemma3:12b
gemma3:4b
gemma3:1b
lucie-istruzione:7b
mistral-small3.1:24b
mistral-small3.2:24b
deepcoder:14b
granito3.2-visione:2b
granito3.3:8b
granito3.3:2b
magistrale:24b
granito3.1-moe:3b
cogito:14b
cogito:32b
qwen3:32b
qwq:32b
deepseek-r1:14b
deepseek-r1:32b
cogito:3b
granito-embedding:278m
granito3-guardiano:2b
granito3-guardia:8b
qwen2.5:0.5b
qwen2.5:1.5b
qwen2.5:14b
qwen2.5:32b
qwen2.5:3b
qwen3:0.6b
qwen3:1.7b
qwen3:4b
qwen3-2507-pensiero:4b
qwen3-2507:4b
qwen3:8b
qwen2.5vl:3b
qwen2.5vl:7b
hf.co/roadus/Fondazione-Sec-8B-Q4_K_M-GGUF:Q4_K_M
devstrale:24b
cogito:8b
lama3.1:8b
phi4-ragionamento:14b
Modello a confronto
Questa tabella di confronto vi aiuterà a scegliere il modello più adatto alle vostre esigenze, in base a vari criteri come le dimensioni del contesto, le prestazioni e i casi d'uso specifici.
Modello | Editore | Parametri | Contesto (k token) | Visione | Agente | Ragionamento | Sicurezza | Rapido * | Efficienza energetica * |
---|---|---|---|---|---|---|---|---|---|
Modelli grandi | |||||||||
gpt-oss:120b | OpenAI | 120B | 120000 | ||||||
lama3.3:70b | Meta | 70B | 120000 | ||||||
qwen3:235b | Squadra Qwen | 235B | 60000 | ||||||
deepseek-r1:671b | DeepSeek AI | 671B | 16000 | ||||||
gemma3:27b | 27B | 120000 | |||||||
qwen3-coder:30b | Squadra Qwen | 30B | 250000 | ||||||
qwen3-2507-think:30b-a3b | Squadra Qwen | 30B | 120000 | ||||||
qwen3-2507:30b-a3b | Squadra Qwen | 30B | 250000 | ||||||
qwen3:30b-a3b | Squadra Qwen | 30B | 32000 | ||||||
deepseek-r1:70b | DeepSeek AI | 70B | 32000 | ||||||
qwen2.5vl:32b | Squadra Qwen | 32B | 120000 | ||||||
qwen2.5vl:72b | Squadra Qwen | 72B | 128000 | ||||||
Modelli specializzati | |||||||||
embeddinggemma:300m | 300M | 2048 | N.C. | ||||||
gpt-oss:20b | OpenAI | 20B | 120000 | ||||||
qwen3:14b | Squadra Qwen | 14B | 32000 | ||||||
gemma3:12b | 12B | 120000 | |||||||
gemma3:4b | 4B | 120000 | |||||||
gemma3:1b | 1B | 32000 | |||||||
lucie-istruzione:7b | OpenLLM-Francia | 7B | 32000 | ||||||
mistral-small3.1:24b | Mistral AI | 24B | 120000 | ||||||
mistral-small3.2:24b | Mistral AI | 24B | 120000 | ||||||
deepcoder:14b | Agentica x Together AI | 14B | 32000 | ||||||
granito3.2-visione:2b | IBM | 2B | 16384 | ||||||
granito3.3:8b | IBM | 8B | 60000 | ||||||
granito3.3:2b | IBM | 2B | 120000 | ||||||
magistrale:24b | Mistral AI | 24B | 40000 | ||||||
granito3.1-moe:3b | IBM | 3B | 32000 | ||||||
cogito:14b | Cogito profondo | 14B | 32000 | ||||||
cogito:32b | Cogito profondo | 32B | 32000 | ||||||
qwen3:32b | Squadra Qwen | 32B | 40000 | ||||||
qwq:32b | Squadra Qwen | 32B | 32000 | ||||||
deepseek-r1:14b | DeepSeek AI | 14B | 32000 | ||||||
deepseek-r1:32b | DeepSeek AI | 32B | 32000 | ||||||
cogito:3b | Cogito profondo | 3B | 32000 | ||||||
granito-embedding:278m | IBM | 278M | 512 | N.C. | |||||
granito3-guardiano:2b | IBM | 2B | 8192 | N.C. | |||||
granito3-guardia:8b | IBM | 8B | 32000 | N.C. | |||||
qwen2.5:0.5b | Squadra Qwen | 0.5B | 32000 | ||||||
qwen2.5:1.5b | Squadra Qwen | 1.5B | 32000 | ||||||
qwen2.5:14b | Squadra Qwen | 14B | 32000 | ||||||
qwen2.5:32b | Squadra Qwen | 32B | 32000 | ||||||
qwen2.5:3b | Squadra Qwen | 3B | 32000 | ||||||
qwen3:0.6b | Squadra Qwen | 0.6B | 32000 | ||||||
qwen3:1.7b | Squadra Qwen | 1.7B | 32000 | ||||||
qwen3:4b | Squadra Qwen | 4B | 32000 | ||||||
qwen3-2507-pensiero:4b | Squadra Qwen | 4B | 250000 | ||||||
qwen3-2507:4b | Squadra Qwen | 4B | 250000 | ||||||
qwen3:8b | Squadra Qwen | 8B | 32000 | ||||||
qwen2.5vl:3b | Squadra Qwen | 3.8B | 128000 | ||||||
qwen2.5vl:7b | Squadra Qwen | 7B (8,3B) | 128000 | ||||||
hf.co/roadus/Fondazione-Sec-8B-Q4_K_M-GGUF:Q4_K_M | Fondazione AI - Cisco | 8B | 16384 | ||||||
devstrale:24b | Mistral AI e All Hands AI | 24B | 120000 | ||||||
cogito:8b | Cogito profondo | 8B | 32000 | ||||||
lama3.1:8b | Meta | 8B | 32000 | ||||||
phi4-ragionamento:14b | Microsoft | 14B | 32000 |
Casi d'uso consigliati
Ecco alcuni casi d'uso comuni e i modelli più adatti per ciascuno di essi. Queste raccomandazioni si basano sulle prestazioni e sulle capacità specifiche di ciascun modello.
Dialogo multilingue
- Llama 3.3
- Mistral Piccolo 3.2
- Qwen 3
- Granito 3.3
Analisi di documenti lunghi
- Gemma 3
- Qwen3
- Granito 3.3
Programmazione e sviluppo
- DeepCoder
- QwQ
- Codifica Qwen3
- Granito 3.3
- Devstral
Analisi visiva
- Granito 3.2 Visione
- Mistral Piccolo 3.2
- Gemma 3
- Qwen2.5-VL
Sicurezza e conformità
- Guardiano del granito
- Granito 3.3
- Devstral
- Mistral Piccolo 3.1
- Magistrale 24b
- Fondazione-Sec-8B
Impieghi leggeri e a bordo
- Gemma 3
- Granito 3.1 MoE
- Guardiano del granito
- Granito 3.3