La nostra offerta Lingua grande Modello come servizio (LLMaaS) vi dà accesso a modelli linguistici all'avanguardia, desunti da un'infrastruttura qualificata SecNumCloudcertificato HDS per l'hosting di dati sanitari, e quindi sovrani, calcolati in Francia. Beneficiate di prestazioni elevate e di una sicurezza ottimale per le vostre applicazioni AI. I vostri dati rimangono strettamente confidenziali e non vengono utilizzati o conservati dopo l'elaborazione.
Modelli grandi
I nostri modelli di grandi dimensioni offrono prestazioni all'avanguardia per i compiti più impegnativi. Sono particolarmente adatti alle applicazioni che richiedono una comprensione profonda del linguaggio, ragionamenti complessi o l'elaborazione di documenti lunghi.
Lama 3.3 70B
Qwen3 235B
DeepSeek-R1 671B
Gemma 3 27B
Qwen3 30B-A3B FP8
DeepSeek-R1 70B
Qwen2.5-VL 32B
Qwen2.5-VL 72B
Modelli specializzati
I nostri modelli specializzati sono ottimizzati per compiti specifici come la generazione di codice, l'analisi di immagini o l'elaborazione di dati strutturati. Offrono un eccellente rapporto prestazioni/costo per casi d'uso mirati.
Qwen3 14B
Gemma 3 12B
Gemma 3 4B
Gemma 3 1B
Lucie-7B-Istruzione
Mistral Piccolo 3.1
Mistral Piccolo 3.2
Mistral Piccolo 3.2
DeepCoder
Granito 3.2 Visione
Granito 3.3 8B
Granito 3.3 2B
Magistrale 24B
Granito 3.1 MoE
cogito:14b
Cogito 32B
Qwen3 32B
QwQ-32B
DeepSeek-R1 14B
DeepSeek-R1 32B
Cogito 3B
Incasso di granito
Granito 3 Guardiano 2B
Granito 3 Guardiano 8B
Qwen 2,5 0,5B
Qwen 2,5 1,5B
Qwen 2.5 14B
Qwen 2.5 32B
Qwen 2,5 3B
Qwen3 0.6b
Qwen3 1.7b
Qwen3 4b
Qwen3 8b
Qwen2.5-VL 3B
Qwen2.5-VL 7B
Fondazione-Sec-8B
devstral 24B
Cogito 8B
Lama 3.1 8B
Ragionamento Phi-4 14B
Modello a confronto
Questa tabella di confronto vi aiuterà a scegliere il modello più adatto alle vostre esigenze, in base a vari criteri come le dimensioni del contesto, le prestazioni e i casi d'uso specifici.
Modello | Editore | Parametri | Contesto (k token) | Visione | Agente | Ragionamento | Sicurezza | Rapido * | Efficienza energetica * |
---|---|---|---|---|---|---|---|---|---|
Modelli grandi | |||||||||
Lama 3.3 70B | Meta | 70B | 60000 | ||||||
Qwen3 235B | Squadra Qwen | 235B | 60000 | ||||||
DeepSeek-R1 671B | DeepSeek AI | 671B | 16000 | ||||||
Gemma 3 27B | 27B | 120000 | |||||||
Qwen3 30B-A3B FP8 | Squadra Qwen | 30B-A3B | 32000 | ||||||
DeepSeek-R1 70B | DeepSeek AI | 70B | 32000 | ||||||
Qwen2.5-VL 32B | Squadra Qwen | 32B | 120000 | ||||||
Qwen2.5-VL 72B | Squadra Qwen | 72B | 128000 | ||||||
Modelli specializzati | |||||||||
Qwen3 14B | Squadra Qwen | 14B | 32000 | ||||||
Gemma 3 12B | 12B | 120000 | |||||||
Gemma 3 4B | 4B | 120000 | |||||||
Gemma 3 1B | 1B | 32000 | |||||||
Lucie-7B-Istruzione | OpenLLM-Francia | 7B | 32000 | ||||||
Mistral Piccolo 3.1 | Mistral AI | 24B | 120000 | ||||||
Mistral Piccolo 3.2 | Mistral AI | 24B | 120000 | ||||||
Mistral Piccolo 3.2 | Mistral AI | 24B | 120000 | ||||||
DeepCoder | Agentica x Together AI | 14B | 32000 | ||||||
Granito 3.2 Visione | IBM | 2B | 16384 | ||||||
Granito 3.3 8B | IBM | 8B | 60000 | ||||||
Granito 3.3 2B | IBM | 2B | 120000 | ||||||
Magistrale 24B | Mistral AI | 24B | 40000 | ||||||
Granito 3.1 MoE | IBM | 3B | 32000 | ||||||
cogito:14b | Cogito profondo | 14B | 32000 | ||||||
Cogito 32B | Cogito profondo | 32B | 32000 | ||||||
Qwen3 32B | Squadra Qwen | 32B | 40000 | ||||||
QwQ-32B | Squadra Qwen | 32B | 32000 | ||||||
DeepSeek-R1 14B | DeepSeek AI | 14B | 32000 | ||||||
DeepSeek-R1 32B | DeepSeek AI | 32B | 32000 | ||||||
Cogito 3B | Cogito profondo | 3B | 32000 | ||||||
Incasso di granito | IBM | 278M | 512 | N.C. | |||||
Granito 3 Guardiano 2B | IBM | 2B | 8192 | N.C. | |||||
Granito 3 Guardiano 8B | IBM | 8B | 32000 | N.C. | |||||
Qwen 2,5 0,5B | Squadra Qwen | 0.5B | 32000 | ||||||
Qwen 2,5 1,5B | Squadra Qwen | 1.5B | 32000 | ||||||
Qwen 2.5 14B | Squadra Qwen | 14B | 32000 | ||||||
Qwen 2.5 32B | Squadra Qwen | 32B | 32000 | ||||||
Qwen 2,5 3B | Squadra Qwen | 3B | 32000 | ||||||
Qwen3 0.6b | Squadra Qwen | 0.6B | 32000 | ||||||
Qwen3 1.7b | Squadra Qwen | 1.7B | 32000 | ||||||
Qwen3 4b | Squadra Qwen | 4B | 32000 | ||||||
Qwen3 8b | Squadra Qwen | 8B | 32000 | ||||||
Qwen2.5-VL 3B | Squadra Qwen | 3.8B | 128000 | ||||||
Qwen2.5-VL 7B | Squadra Qwen | 7B (8,3B) | 128000 | ||||||
Fondazione-Sec-8B | Fondazione AI - Cisco | 8B | 16384 | ||||||
devstral 24B | Mistral AI e All Hands AI | 24B | 120000 | ||||||
Cogito 8B | Cogito profondo | 8B | 32000 | ||||||
Lama 3.1 8B | Meta | 8B | 32000 | ||||||
Ragionamento Phi-4 14B | Microsoft | 14B | 32000 |
Casi d'uso consigliati
Ecco alcuni casi d'uso comuni e i modelli più adatti per ciascuno di essi. Queste raccomandazioni si basano sulle prestazioni e sulle capacità specifiche di ciascun modello.
Dialogo multilingue
- Llama 3.3
- Mistral Piccolo 3.1
- Qwen 2.5
- Granito 3.3
Analisi di documenti lunghi
- Gemma 3
- DeepSeek-R1
- Granito 3.3
Programmazione e sviluppo
- DeepCoder
- QwQ
- DeepSeek-R1
- Granito 3.3
- Devstral
Analisi visiva
- Granito 3.2 Visione
- Mistral Piccolo 3.1
- Gemma 3
- Qwen2.5-VL
Sicurezza e conformità
- Guardiano del granito
- Granito 3.3
- Devstral
- Mistral Piccolo 3.1
- Magistrale 24b
- Fondazione-Sec-8B
Impieghi leggeri e a bordo
- Gemma 3
- Granito 3.1 MoE
- Guardiano del granito
- Granito 3.3