La nostra offerta Large Language Model as a Service (LLMaaS) vi dà accesso a modelli linguistici all'avanguardia, la cui inferenza viene eseguita con un'infrastruttura qualificata SecNumCloud, certificata HDS per l'hosting di dati sanitari, e quindi sovrana, calcolata in Francia. Beneficiate di prestazioni elevate e di una sicurezza ottimale per le vostre applicazioni AI. I vostri dati rimangono strettamente confidenziali e non vengono né sfruttati né conservati dopo l'elaborazione.

Prezzi semplici e trasparenti
0.9 €
per milione di token in ingresso
4 €
per milione di token emessi
21 €
per milione di gettoni di ragionamento
0,01 €
per minuto di audio trascritto *
Calcolato su un'infrastruttura basata in Francia, qualificata SecNumcloud e certificata HDS.
Nota sul premio "Ragionamento" : Questo prezzo si applica specificamente ai modelli classificati come "ragionatori" o "ibridi" (modelli con la capacità "Ragionamento" attivata) quando il ragionamento è attivo e solo sui gettoni legati a questa attività.
* Ogni minuto iniziato viene contato

Modelli grandi

I nostri modelli di grandi dimensioni offrono prestazioni all'avanguardia per i compiti più impegnativi. Sono particolarmente adatti alle applicazioni che richiedono una comprensione profonda del linguaggio, ragionamenti complessi o l'elaborazione di documenti lunghi.

140 token/secondo

gpt-oss:120b

Il modello di linguaggio open-weight all'avanguardia di OpenAI, che offre solide prestazioni con una licenza Apache 2.0 flessibile.
Un modello Mixture-of-Experts (MoE) con 120 miliardi di parametri e circa 5,1 miliardi di parametri attivi. Offre uno sforzo di ragionamento configurabile e un accesso completo alla catena di pensiero.
31 gettoni/secondo

lama3.3:70b

Modello multilingue all'avanguardia sviluppato da Meta, progettato per eccellere nel dialogo naturale, nel ragionamento complesso e nella comprensione sfumata delle istruzioni.
Combinando una notevole efficienza con risorse computazionali ridotte, questo modello offre ampie capacità multilingue che coprono 8 lingue principali (inglese, francese, tedesco, spagnolo, italiano, portoghese, hindi e tailandese). La sua finestra contestuale di 132.000 token consente un'analisi approfondita di documenti complessi e lunghe conversazioni, mantenendo un'eccezionale coerenza complessiva. Ottimizzato per ridurre al minimo i pregiudizi e le risposte problematiche.
24 gettoni/secondo

gemma3:27b

Il rivoluzionario modello di Google offre un equilibrio ottimale tra potenza ed efficienza, con un eccezionale rapporto prestazioni/costo per le applicazioni professionali più esigenti.
Con un'efficienza hardware senza pari, questo modello incorpora funzionalità multimodali native ed eccelle nelle prestazioni multilingue in oltre 140 lingue. L'impressionante finestra contestuale di 120.000 token lo rende la scelta ideale per l'analisi di documenti di grandi dimensioni, la ricerca documentale e qualsiasi applicazione che richieda la comprensione di contesti estesi. La sua architettura ottimizzata consente una distribuzione flessibile senza compromettere la qualità dei risultati.
84 token/secondo

qwen3-coder:30b

Modello MoE ottimizzato per compiti di ingegneria del software con un contesto molto lungo.
Capacità agenziali avanzate per compiti di ingegneria del software, supporto nativo per un contesto di 250K token, pre-addestrato su 7,5T token con un elevato rapporto di codice e ottimizzato con l'apprendimento per rinforzo per migliorare i tassi di esecuzione del codice.
118 token/secondo

qwen3-2507:30b-a3b

Versione migliorata della modalità non pensante di Qwen3-30B, con capacità generali migliorate, copertura delle conoscenze e allineamento degli utenti.
Miglioramenti significativi nel seguire le istruzioni, nel ragionamento, nella comprensione della lettura, nella matematica, nel coding e nell'uso degli strumenti. Contesto nativo di 250k gettoni.
59 token/secondo

qwen3-next:80b

Il modello Next 80B FP8 di Qwen, ottimizzato per contesti e ragionamenti di grandi dimensioni, servito tramite vLLM (A100).
Variante A3B-Instruct in FP8, configurata con un contesto fino a 262k token, supporto per chiamate di funzione, decodifica guidata (xgrammar) e speculativa (qwen3_next_mtp). Implementato su 2×A100 con vLLM.

qwen3-vl:30b

Modello multimodale all'avanguardia (Qwen3-VL) che offre una comprensione visiva eccezionale e un ragionamento temporale accurato.
Questo modello Vision-Language integra importanti innovazioni (DeepStack, MRoPE) per un'analisi dettagliata di immagini e video. Eccelle nell'OCR complesso, nel rilevamento di oggetti, nell'analisi grafica e nel ragionamento spazio-temporale. La sua architettura consente una comprensione nativa dei contenuti video e un'estrazione strutturata (JSON) accurata.

qwen3-vl:32b

Variante ad alte prestazioni di Qwen3-VL, ottimizzata per le attività di visione più impegnative.
Offre le stesse funzionalità avanzate del modello 30B (DeepStack, MRoPE) con una maggiore capacità di modellazione. Particolarmente efficace per attività che richiedono un'analisi visiva molto accurata e una comprensione contestuale approfondita. Supporta l'allineamento testo-timestamp per i video.

olmo-3:7b

Modello "Fully Open" di riferimento, che offre totale trasparenza (dati, codice, peso) e un'efficienza straordinaria.
OLMo 3-7B è un modello denso ottimizzato per l'efficienza (richiede 2,5 volte meno risorse rispetto a Llama 3.1 8B a parità di prestazioni). Eccelle in particolare nella matematica e nella programmazione. Con la sua finestra di 65k token, è ideale per attività che richiedono una completa verificabilità.

olmo-3:32b

Il primo modello di ragionamento completamente aperto su questa scala, in grado di competere con i migliori modelli proprietari.
OLMo 3-32B utilizza un'architettura avanzata (GQA) per offrire capacità di ragionamento eccezionali. Si distingue nei benchmark complessi (MATH, HumanEvalPlus) ed è in grado di esporre il proprio processo di pensiero (variante Think). È la scelta ideale per compiti critici che richiedono prestazioni elevate e trasparenza totale.
26 gettoni/secondo

qwen3-2507:235b

Modello MoE massivo da 235 miliardi di parametri, con solo 22 miliardi attivi, che offre prestazioni all'avanguardia.
Architettura Mixture-of-Experts ultra-sparsa con 512 esperti. Combina la potenza di un modello molto ampio con l'efficienza di un modello più piccolo. Eccelle in matematica, codifica e ragionamento logico.

Modelli specializzati

I nostri modelli specializzati sono ottimizzati per compiti specifici come la generazione di codice, l'analisi di immagini o l'elaborazione di dati strutturati. Offrono un eccellente rapporto prestazioni/costo per casi d'uso mirati.

embeddinggemma:300m

Il modello di incorporazione all'avanguardia di Google, ottimizzato per le sue dimensioni, ideale per compiti di ricerca e di recupero semantico.
Basato su Gemma 3, questo modello produce rappresentazioni vettoriali del testo per la classificazione, il raggruppamento e la ricerca di somiglianze. Addestrato su oltre 100 lingue, le sue dimensioni ridotte lo rendono perfetto per ambienti con risorse limitate.
85 gettoni/secondo

gpt-oss:20b

Il modello linguistico open-weight di OpenAI, ottimizzato per l'efficienza e la distribuzione su hardware consumer.
Un modello Mixture-of-Experts (MoE) con 21 miliardi di parametri e 3,6 miliardi di parametri attivi. Offre uno sforzo di ragionamento e capacità di agente configurabili.
77 token/secondo

qwen3-2507-pensiero:4b

Modello Qwen3-4B ottimizzato per il ragionamento, con prestazioni migliorate nei compiti di logica, matematica, scienze e codice, e contesto esteso a 250K token.
Questa versione "Thinking" ha una lunghezza di pensiero maggiore, che la rende ideale per compiti di ragionamento molto complessi. Offre inoltre miglioramenti generali nel seguire le istruzioni, nell'utilizzare gli strumenti e nel generare testi.
69 token/secondo

qwen3-2507:4b

Versione aggiornata della modalità non pensante di Qwen3-4B, con miglioramenti significativi delle capacità generali, un'estesa copertura delle conoscenze e un migliore allineamento con le preferenze dell'utente.
Miglioramenti significativi nel seguire le istruzioni, nel ragionamento logico, nella comprensione della lettura, nella matematica, nel coding e nell'uso degli strumenti. Contesto nativo di 250k gettoni.

rnj-1:8b

Modello 8B "Open Weight" specializzato in codice, matematica e scienze (STEM).
RNJ-1 è un modello denso con 8,3 miliardi di parametri addestrato su 8,4 trilioni di token. Utilizza l'attenzione globale e YaRN per offrire un contesto di 32.000 token. Eccelle nella generazione di codice (83,51 TP3T HumanEval+) e nel ragionamento matematico, spesso superando modelli molto più grandi.

qwen3-vl:2b

Modello multimodale ultracompatto Qwen3-VL, che offre funzionalità di visione avanzate sui dispositivi edge.
Nonostante le dimensioni ridotte, questo modello integra le tecnologie Qwen3-VL (MRoPE, DeepStack) per offrire un'analisi delle immagini e dei video sorprendente. Ideale per applicazioni mobili o integrate che richiedono OCR, rilevamento di oggetti o comprensione visiva rapida.

qwen3-vl:4b

Modello multimodale Qwen3-VL bilanciato, che offre solide prestazioni di visione con un ingombro ridotto.
Ottimo compromesso tra prestazioni e risorse. In grado di analizzare documenti complessi, grafici e video con elevata precisione. Supporta l'estrazione strutturata e il ragionamento visivo.
50 gettoni/secondo

devstrale:24b

Devstral (24B FP8) è un LLM agenziale specializzato nell'ingegneria del software, sviluppato da Mistral AI e All Hands AI.
Distribuito in FP8 su 2xL40S (ia03, ia04). Devstral eccelle nell'utilizzo di strumenti per l'esplorazione di basi di codice, la modifica di più file e la guida di agenti di ingegneria. Basato su Mistral Small 3, offre funzionalità avanzate di ragionamento e codifica. Configurato con ottimizzatori specifici per Mistral (tokenizer, parser).

devstral-small-2:24b

Seconda iterazione di Devstral (Small 2), modello agentico all'avanguardia per l'ingegneria del software, implementato su Mac Studio con un contesto massivo.
Ottimizzato per l'esplorazione di codebase, l'editing multi-file e l'utilizzo di strumenti. Offre prestazioni simili ai modelli >100B per il codice (SWE-bench Verified 68%). Supporta nativamente la visione. Distribuito con un contesto esteso di 380k token per elaborare interi progetti.
28 gettoni/secondo

granito4-piccolo-h:32b

Il modello MoE (Mixture-of-Experts) di IBM, progettato come "cavallo di battaglia" per le attività aziendali quotidiane, con un'efficienza eccellente per i contesti più lunghi.
Questo modello ibrido (Transformer + Mamba-2) con 32 miliardi di parametri (9B attivi) è ottimizzato per i flussi di lavoro aziendali come gli agenti multi-tool e l'automazione dell'assistenza clienti. La sua architettura innovativa riduce l'utilizzo della RAM di oltre 70% per contesti lunghi e lotti multipli.
77 token/secondo

granito4-tiny-h:7b

Il modello MoE ibrido ultra-efficiente di IBM, progettato per applicazioni a bassa latenza, edge e locali e come elemento costitutivo di flussi di lavoro agenziali.
Questo modello a 7 miliardi di parametri (1B attivo) combina gli strati Transformer e Mamba-2 per la massima efficienza. Riduce l'utilizzo della RAM di oltre 70% per i contesti lunghi, rendendolo ideale per i dispositivi con risorse limitate e per le attività veloci come la chiamata di funzioni.
120 token/secondo

deepseek-ocr

Il modello OCR specializzato di DeepSeek, progettato per l'estrazione del testo ad alta precisione con conservazione della formattazione.
Sistema OCR a due stadi (codificatore visivo + decodificatore MoE 3B) ottimizzato per la conversione di documenti in Markdown strutturato (tabelle, formule). Richiede una pre-elaborazione specifica (Logits Processor) per ottenere prestazioni ottimali.
24 gettoni/secondo

medgemma:27b

MedGemma è uno dei modelli aperti più potenti di Google per la comprensione di testi e immagini di tipo medico, basato su Gemma 3.
MedGemma è adatto a compiti quali la generazione di referti di imaging medico o la risposta a domande in linguaggio naturale su immagini mediche. MedGemma può essere adattato a casi d'uso che richiedono conoscenze mediche, come il colloquio con il paziente, il triage, il supporto alle decisioni cliniche e la sintesi. Sebbene le sue prestazioni di base siano solide, MedGemma non è ancora di livello clinico e probabilmente richiederà un ulteriore perfezionamento. Basato sull'architettura di Gemma 3 (multimodale nativo), questo modello a 27B incorpora un codificatore di immagini SigLIP pre-addestrato sui dati medici. Supporta un contesto di 128k token ed è in FP16 per la massima precisione.
56 token/secondo

mistral-small3.2:24b

Aggiornamento minore di Mistral Small 3.1, che migliora il tracciamento delle istruzioni, la robustezza delle chiamate di funzione e riduce gli errori di ripetizione.
Questa versione 3.2 mantiene i punti di forza del suo predecessore, pur apportando miglioramenti mirati. È in grado di seguire meglio istruzioni precise, produce meno generazioni infinite o risposte ripetitive e il suo modello di chiamata di funzione è più robusto. Per il resto, le sue prestazioni sono equivalenti o leggermente migliori rispetto alla versione 3.1.
88 token/secondo

granito3.2-visione:2b

Il rivoluzionario modello compatto di computer vision di IBM, in grado di analizzare e comprendere direttamente i documenti visivi senza bisogno di tecnologie OCR intermedie.
Questo modello compatto è in grado di eguagliare le prestazioni di modelli molto più grandi in un'ampia gamma di compiti di comprensione visiva. La sua capacità di interpretare direttamente il contenuto visivo dei documenti - testo, tabelle, grafici e diagrammi - senza passare attraverso la tradizionale fase OCR rappresenta un significativo progresso in termini di efficienza e accuratezza. Questo approccio integrato riduce significativamente gli errori di riconoscimento e fornisce una comprensione più contestuale e sfumata del contenuto visivo.
29 token/secondo

magistrale:24b

Il primo modello di ragionamento di Mistral AI, eccellente nel ragionamento specifico del dominio, trasparente e multilingue.
Ideale per un uso generale che richiede un'elaborazione del pensiero più lunga e una maggiore precisione. Utile per ricerche legali, previsioni finanziarie, sviluppo di software e narrazione creativa. Risolve le sfide in più fasi in cui trasparenza e accuratezza sono essenziali.
37 token/secondo

cogito:32b

Una versione avanzata del modello Cogito che offre capacità di ragionamento e analisi notevolmente migliorate, progettata per le applicazioni più esigenti in termini di intelligenza artificiale analitica.
Questa versione estesa del modello Cogito porta le capacità di ragionamento e comprensione ancora più in là, offrendo una profondità di analisi senza pari per le applicazioni più complesse. La sua sofisticata architettura gli consente di affrontare ragionamenti in più fasi con rigore e precisione, mantenendo una notevole coerenza complessiva. Ideale per le applicazioni mission-critical che richiedono un'intelligenza artificiale capace di ragionamenti ricchi di sfumature e di una comprensione contestuale profonda, paragonabile alle analisi di esperti umani in campi specialistici.

granito-embedding:278m

Il modello di incorporazione ultraleggero di IBM per la ricerca e la classificazione semantica.
Progettato per generare rappresentazioni vettoriali dense del testo, questo modello è ottimizzato per garantire efficienza e prestazioni nei compiti di similarità semantica, clustering e classificazione. Le sue dimensioni ridotte lo rendono ideale per le implementazioni su larga scala.

qwen3-embedding:0.6b

Modello di embedding compatto della famiglia Qwen3, ottimizzato per l'efficienza.
Il modello più piccolo e denso della famiglia Qwen3, ideale per ricerche semantiche veloci.

qwen3-embedding:4b

Modello di embedding ad alte prestazioni della famiglia Qwen3.
Offre una maggiore precisione semantica grazie alle sue dimensioni maggiori.

qwen3-embedding:8b

Modello di embedding ad altissime prestazioni della famiglia Qwen3.
Il modello di embedding più grande della gamma, per attività critiche.

granito3-guardiano:2b

Il modello compatto di IBM è specializzato in sicurezza e conformità, rilevando rischi e contenuti inappropriati.
Versione leggera della famiglia Guardian, addestrata per identificare e filtrare contenuti dannosi, pregiudizi e rischi per la sicurezza nelle interazioni testuali. Offre una protezione robusta con un'impronta computazionale ridotta. Contesto limitato a 8k token.

granito3-guardia:8b

Modello IBM specializzato in sicurezza e conformità, che offre funzionalità avanzate di rilevamento dei rischi.
Modello di medie dimensioni della famiglia Guardian, che offre un'analisi di sicurezza più approfondita rispetto alla versione 2B. Ideale per le applicazioni che richiedono un monitoraggio rigoroso dei contenuti e una rigorosa conformità.

funzione gemma: 270 m

Micro-modello specializzato da 270 milioni di parametri, ottimizzato per trasformare il linguaggio naturale in chiamate di funzioni strutturate sull'Edge.
Basato sull'architettura Gemma 3, questo modello è un esperto di "Function Calling". È progettato per essere ottimizzato su domini specifici, dove può raggiungere una precisione notevole (85%) con un ingombro di memoria minimo. Ideale come router intelligente o controller di azioni locali.

ministeriale-3:3b

Modello compatto all'avanguardia di Mistral AI, progettato per garantire efficienza nelle implementazioni locali e periferiche.
Ministral 3B è un modello denso ottimizzato per l'inferenza locale a bassa latenza. Offre eccellenti capacità di ragionamento e comprensione rispetto alle sue dimensioni, pur essendo estremamente efficiente in termini di memoria e calcolo.

ministeriale-3:8b

Modello di medie dimensioni della famiglia Ministral, che offre un equilibrio ottimale tra prestazioni e risorse.
Ministral 8B offre capacità di ragionamento e comprensione superiori rispetto alla versione 3B, pur rimanendo adatto a implementazioni locali ad alte prestazioni. È nativamente multimodale.

ministeriale-3:14b

Il più potente della famiglia Ministral, progettato per compiti complessi su infrastrutture locali.
Ministral 14B offre prestazioni simili a quelle dei modelli di classe superiore in un formato compatto. Eccelle nel ragionamento, nella codifica e nelle attività multilingue complesse, pur essendo implementabile a livello locale.

Modello a confronto

Questa tabella di confronto vi aiuterà a scegliere il modello più adatto alle vostre esigenze, in base a vari criteri come le dimensioni del contesto, le prestazioni e i casi d'uso specifici.

Tabella comparativa delle caratteristiche e delle prestazioni dei vari modelli di IA disponibili, raggruppati per categoria (modelli su larga scala e modelli specializzati).
Modello Editore Parametri Contesto (k token) Visione Agente Ragionamento Sicurezza Rapido * Efficienza energetica *
Modelli grandi
gpt-oss:120b OpenAI 120B 120000
lama3.3:70b Meta 70B 132000
gemma3:27b Google 27B 120000
qwen3-coder:30b Squadra Qwen 30B 250000
qwen3-2507:30b-a3b Squadra Qwen 30B 250000
qwen3-next:80b Squadra Qwen 80B 262144
qwen3-vl:30b Squadra Qwen 30B 250000
qwen3-vl:32b Squadra Qwen 32B 250000
olmo-3:7b AllenAI 7B 65536
olmo-3:32b AllenAI 32B 65536
qwen3-2507:235b Squadra Qwen 235B (22B attivi) 130000
Modelli specializzati
embeddinggemma:300m Google 300M 2048 N.C.
gpt-oss:20b OpenAI 20B 120000
qwen3-2507-pensiero:4b Squadra Qwen 4B 250000
qwen3-2507:4b Squadra Qwen 4B 250000
rnj-1:8b Essential AI 8B 32000 N.C.
qwen3-vl:2b Squadra Qwen 2B 250000
qwen3-vl:4b Squadra Qwen 4B 250000
devstrale:24b Mistral AI e All Hands AI 24B 120000
devstral-small-2:24b Mistral AI e All Hands AI 24B 380000 N.C.
granito4-piccolo-h:32b IBM 32B (9B attivo) 128000
granito4-tiny-h:7b IBM 7B (1B attivo) 128000
deepseek-ocr DeepSeek AI 3B 8192
medgemma:27b Google 27B 128000
mistral-small3.2:24b Mistral AI 24B 128000
granito3.2-visione:2b IBM 2B 16384
magistrale:24b Mistral AI 24B 40000
cogito:32b Cogito profondo 32B 32000
granito-embedding:278m IBM 278M 512 N.C.
qwen3-embedding:0.6b Squadra Qwen 0.6B 8192 N.C.
qwen3-embedding:4b Squadra Qwen 4B 8192 N.C.
qwen3-embedding:8b Squadra Qwen 8B 8192 N.C.
granito3-guardiano:2b IBM 2B 8192 N.C.
granito3-guardia:8b IBM 8B 32000 N.C.
funzione gemma: 270 m Google 270M 32768 N.C.
ministeriale-3:3b Mistral AI 3B 250000 N.C.
ministeriale-3:8b Mistral AI 8B 250000 N.C.
ministeriale-3:14b Mistral AI 14B 250000 N.C.
Legenda e spiegazione
Funzionalità o capacità supportata dal modello
Funzionalità o capacità non supportate dal modello
* Efficienza energetica Indica un consumo energetico particolarmente basso (< 2,0 kWh/Mtoken)
* Veloce Modello in grado di generare più di 50 gettoni al secondo
Nota sulle misure di performance
I valori di velocità (token/s) rappresentano gli obiettivi di prestazione in condizioni reali. Il consumo energetico (kWh/Mtoken) è calcolato dividendo la potenza stimata del server di inferenza (in Watt) per la velocità misurata del modello (in token/secondo), quindi convertito in kilowattora per milione di token (divisione per 3,6). Questo metodo offre un confronto pratico dell'efficienza energetica di diversi modelli, da utilizzare come indicatore relativo piuttosto che come misura assoluta del consumo energetico.

Casi d'uso consigliati

Ecco alcuni casi d'uso comuni e i modelli più adatti per ciascuno di essi. Queste raccomandazioni si basano sulle prestazioni e sulle capacità specifiche di ciascun modello.

Dialogo multilingue

Chatbot e assistenti in grado di comunicare in diverse lingue, con rilevamento automatico, mantenimento del contesto durante la conversazione e comprensione delle specificità linguistiche.
Modelli consigliati
  • Llama 3.3
  • Mistral Piccolo 3.2
  • Qwen 3
  • Openai OSS
  • Granito 4

Analisi di documenti lunghi

Elaborazione di documenti di grandi dimensioni (>100 pagine), mantenendo il contesto in tutto il testo, estraendo le informazioni chiave, generando sintesi pertinenti e rispondendo a domande specifiche sui contenuti
Modelli consigliati
  • Gemma 3
  • Il prossimo Qwen
  • Qwen 3
  • Granito 4

Programmazione e sviluppo

Generazione e ottimizzazione di codice in più linguaggi, debugging, refactoring, sviluppo di funzionalità complete, comprensione di implementazioni algoritmiche complesse e creazione di test unitari.
Modelli consigliati
  • DeepCoder
  • Codifica Qwen3
  • Granito 4
  • Devstral

Analisi visiva

Elaborazione diretta di immagini e documenti visivi senza pre-elaborazione OCR, interpretazione di diagrammi tecnici, grafici, tabelle, disegni e foto con generazione di spiegazioni testuali dettagliate del contenuto visivo
Modelli consigliati
  • deepseek-OCR
  • Mistral Piccolo 3.2
  • Gemma 3
  • Qwen 3 VL

Sicurezza e conformità

Applicazioni che richiedono specifiche funzionalità di sicurezza; filtraggio di contenuti sensibili, tracciabilità dei ragionamenti, verifica RGPD/HDS, minimizzazione dei rischi, analisi delle vulnerabilità e conformità alle normative settoriali.
Modelli consigliati
  • Guardiano del granito
  • Granito 4
  • Devstral
  • Mistral Piccolo 3.2
  • Magistrale piccolo

Impieghi leggeri e a bordo

Applicazioni che richiedono un ingombro minimo di risorse, implementazione su dispositivi a capacità limitata, inferenza in tempo reale su CPU standard e integrazione in sistemi embedded o IoT.
Modelli consigliati
  • Gemma 3n
  • Granito 4 minuscolo
  • Qwen 3 VL (2B)
Contattate le nostre squadre!
Politica sui cookie

Utilizziamo i cookie per offrirvi la migliore esperienza possibile sul nostro sito, ma non raccogliamo alcun dato personale.

I servizi di misurazione dell'audience, necessari per il funzionamento e il miglioramento del nostro sito, non consentono di identificarvi personalmente. Tuttavia, avete la possibilità di opporvi al loro utilizzo.

Per ulteriori informazioni, consultare il nostro Informativa sulla privacy.