La nostra offerta Lingua grande Modello come servizio (LLMaaS) vi dà accesso a modelli linguistici all'avanguardia, desunti da un'infrastruttura qualificata SecNumCloudcertificato HDS per l'hosting di dati sanitari, e quindi sovrani, calcolati in Francia. Beneficiate di prestazioni elevate e di una sicurezza ottimale per le vostre applicazioni AI. I vostri dati rimangono strettamente confidenziali e non vengono utilizzati o conservati dopo l'elaborazione.

Tarificazione semplice e trasparente
0.9 €
per milione di gettoni in entrata
4 €
per milione di gettoni in uscita
21 €
per milione di gettoni di pagamento
Calcolato su un'infrastruttura basata in Francia, qualificata SecNumcloud e certificata HDS.
Nota sul premio "Raisonnement" : Ce premio si applica in modo specifico ai modelli classificati come "raisonneurs" o "hybrides" (modelli con la capacità "Raisonnement" attivata) quando il raisonnement è actif et unico sui gettoni legati a questa attività.

Modelli di taglia grande

I nostri modelli di grandi dimensioni offrono prestazioni all'avanguardia per i compiti più impegnativi. Sono particolarmente adatti alle applicazioni che richiedono una comprensione profonda del linguaggio, ragionamenti complessi o l'elaborazione di documenti lunghi.

28 gettoni/secondo

Lama 3.3 70B

Modello multilingue all'avanguardia sviluppato da Meta, progettato per eccellere nel dialogo naturale, nel ragionamento complesso e nella comprensione sfumata delle istruzioni.
Combinando una notevole efficienza con risorse computazionali ridotte, questo modello offre ampie capacità multilingue che coprono 8 lingue principali (inglese, francese, tedesco, spagnolo, italiano, portoghese, hindi e tailandese). La sua finestra contestuale di 60.000 token consente un'analisi approfondita di documenti complessi e lunghe conversazioni, mantenendo un'eccezionale coerenza complessiva. Ottimizzato per ridurre al minimo i pregiudizi e le risposte problematiche.
67 token/secondo

Gemma 3 27B

Il rivoluzionario modello di Google offre un equilibrio ottimale tra potenza ed efficienza, con un eccezionale rapporto prestazioni/costo per le applicazioni professionali più esigenti.
Con un'efficienza hardware senza pari, questo modello incorpora funzionalità multimodali native ed eccelle nelle prestazioni multilingue in oltre 140 lingue. L'impressionante finestra contestuale di 120.000 token lo rende la scelta ideale per l'analisi di documenti di grandi dimensioni, la ricerca documentale e qualsiasi applicazione che richieda la comprensione di contesti estesi. La sua architettura ottimizzata consente una distribuzione flessibile senza compromettere la qualità dei risultati.
15 gettoni/secondo

DeepSeek-R1 70B

Il modello specializzato di DeepSeek AI è stato progettato per eccellere in compiti che richiedono un ragionamento rigoroso, la risoluzione di problemi algoritmici e la generazione di codice di alta qualità.
Questo modello si distingue per le sue prestazioni di ragionamento superiori, che gli consentono di affrontare sfide intellettuali complesse con metodo e precisione. La sua maggiore efficienza operativa ottimizza le risorse di calcolo mantenendo risultati eccezionali. Grazie alla sua versatilità, può essere applicato a una varietà di campi pratici, dalla scienza all'economia all'ingegneria. Particolarmente degne di nota sono le sue avanzate capacità matematiche, ideali per le applicazioni scientifiche e ingegneristiche che richiedono una rigorosa elaborazione quantitativa.
81,12 token/secondo

Qwen3 30B-A3B FP8

Modello MoE FP8 di nuova generazione (attivato 3B), con modalità di pensiero ibride e capacità agenziali avanzate.
Versione FP8 del modello MoE Qwen3 30B-A3B. Include una modalità "Thinking" per ragionamenti complessi e una modalità veloce "Non-Thinking". Capacità migliorate di ragionamento, codice, matematica e agente (strumenti/MCP). Supporta oltre 100 lingue. Ideale per un equilibrio ottimale tra prestazioni e costi.

Modelli specializzati

I nostri modelli specializzati sono ottimizzati per compiti specifici come la generazione di codice, l'analisi di immagini o l'elaborazione di dati strutturati. Offrono un eccellente rapporto prestazioni/costo per casi d'uso mirati.

74 token/secondo

Qwen3 14B

Modello denso Qwen3 (14B) di nuova generazione, che offre prestazioni equivalenti a Qwen2.5 32B con un'efficienza migliorata.
Parte della serie Qwen3, addestrato su ~36T token. Capacità di ragionamento, codifica, matematica e agente (strumenti/MCP) migliorate. Supporta oltre 100 linguaggi e modi di pensare ibridi.
76 token/secondo

Gemma 3 12B

Una versione intermedia del modello Gemma 3 che offre un eccellente equilibrio tra prestazioni ed efficienza.
Questo modello di medie dimensioni combina prestazioni di alta qualità con l'efficienza operativa, offrendo molte delle funzionalità del fratello più grande con parametro 27B in un formato più leggero. Ideale per le installazioni che richiedono qualità e velocità senza le risorse di calcolo dei modelli più grandi.
58 token/secondo

Gemma 3 4B

Modello compatto di Google che offre prestazioni eccellenti in un formato leggero ed economico.
Questa versione compatta di Gemma 3 è ottimizzata per le distribuzioni con risorse limitate, pur mantenendo prestazioni eccezionali per le sue dimensioni. La sua efficiente architettura consente una rapida inferenza su hardware standard, ideale per le applicazioni che richiedono reattività e distribuzione su larga scala. Nonostante le dimensioni ridotte, mantiene le funzionalità multimodali per l'elaborazione di testi e immagini.
43 token/secondo

Gemma 3 1B

Micro-modello ultraleggero progettato per l'impiego su dispositivi a bassissime risorse.
Questo modello ultracompatto rappresenta l'epitome dell'efficienza, consentendo l'implementazione in ambienti con risorse estremamente limitate. Nonostante le sue dimensioni minime, offre funzionalità di base sorprendenti per compiti testuali semplici o moderati, con un'eccezionale velocità di inferenza. Supporta inoltre l'integrazione con strumenti esterni tramite chiamate di funzione.
41 token/secondo

Lucie-7B-Istruzione

Modello causale multilingue open-source (7B), perfezionato da Lucie-7B. Ottimizzato per il francese.
Messa a punto su istruzioni sintetiche (ChatGPT, Gemma) e prompt personalizzati. Non ottimizzato per il codice e la matematica. Addestrato in un contesto 4k, ma mantiene la capacità del modello di base per 32k. Modello in fase di sviluppo.
22 gettoni/secondo

Mistral Piccolo 3.1

Il modello compatto e reattivo di Mistral AI, appositamente progettato per fornire un'assistenza conversazionale fluida e pertinente con una velocità di risposta ottimale.
Nonostante le sue dimensioni moderate, questo modello offre prestazioni notevoli, in grado di competere con quelle di modelli proprietari molto più grandi. La sua architettura ingegnosamente ottimizzata lo rende facile da implementare localmente su una varietà di infrastrutture. Grazie alle funzionalità multimodali native, è in grado di elaborare sia testi che immagini senza dover ricorrere a sistemi esterni. La licenza Apache 2.0 offre la massima flessibilità per le implementazioni e le personalizzazioni commerciali, rendendolo la scelta ideale per le aziende che desiderano bilanciare prestazioni e vincoli legali.
69 token/secondo

DeepCoder

Modello di AI open source (14B) di Together AI & Agentica, un'alternativa credibile ai modelli proprietari per la generazione di codice.
Prestazioni eccezionali nella generazione di codice e nel ragionamento algoritmico (60,6% LiveCodeBench Pass@1, 1936 Codeforces, 92,6% HumanEval+). Addestrato tramite RL (GRPO+) con estensione progressiva del contesto (32k -> 64k). Progetto trasparente (codice aperto, dataset, log). Consente l'integrazione di funzionalità avanzate di generazione del codice senza affidarsi a soluzioni proprietarie.
56 token/secondo

Granito 3.2 Visione

Il rivoluzionario modello compatto di computer vision di IBM, in grado di analizzare e comprendere direttamente i documenti visivi senza bisogno di tecnologie OCR intermedie.
Questo modello compatto è in grado di eguagliare le prestazioni di modelli molto più grandi in un'ampia gamma di compiti di comprensione visiva. La sua capacità di interpretare direttamente il contenuto visivo dei documenti - testo, tabelle, grafici e diagrammi - senza passare attraverso la tradizionale fase OCR rappresenta un significativo progresso in termini di efficienza e accuratezza. Questo approccio integrato riduce significativamente gli errori di riconoscimento e fornisce una comprensione più contestuale e sfumata del contenuto visivo.
28 gettoni/secondo

Granito 3.3 8B

Modello Granite 8B messo a punto da IBM per migliorare il ragionamento e il tracciamento delle istruzioni, con un contesto di 128k token.
Questa versione 8B del modello Granite 3.3 offre miglioramenti significativi su benchmark generici (AlpacaEval-2.0, Arena-Hard) e miglioramenti in matematica, codifica e tracciamento delle istruzioni. Supporta 12 linguaggi, Fill-in-the-Middle (FIM) per il codice, la modalità Thinking per la riflessione strutturata e la chiamata di funzione. Licenza Apache 2.0. Ideale per compiti generali e per l'integrazione in assistenti AI.
57 token/secondo

Granito 3.3 2B

Modello Granite 2B messo a punto da IBM, ottimizzato per il ragionamento e il tracciamento delle istruzioni, con un contesto di 128k token.
Versione compatta di Granite 3.3 (parametri 2B) che offre gli stessi miglioramenti della versione 8B per quanto riguarda il ragionamento, il seguire le istruzioni, la matematica e la codifica. Supporta 12 lingue, Fill-in-the-Middle (FIM), modalità di ragionamento e chiamata di funzione. Licenza Apache 2.0. Scelta eccellente per implementazioni leggere che richiedono ampie capacità contestuali e di ragionamento.
71 token/secondo

Granito 3.1 MoE

Innovativo modello IBM che utilizza l'architettura Mixture-of-Experts (MoE) per fornire prestazioni eccezionali ottimizzando drasticamente l'uso delle risorse computazionali.
L'architettura MoE (Mixture-of-Experts) di questo modello rappresenta un progresso significativo nell'ottimizzazione dei modelli linguistici, consentendo di ottenere prestazioni paragonabili a quelle di modelli molto più grandi, pur mantenendo un ingombro di memoria notevolmente ridotto. Questo approccio innovativo attiva dinamicamente solo le parti rilevanti della rete per ogni compito specifico, garantendo una notevole efficienza energetica e computazionale senza compromettere la qualità dei risultati.
67 token/secondo

Cogito 14B

Il modello Deep Cogito è stato progettato specificamente per eccellere nei compiti di ragionamento profondo e di comprensione contestuale sfumata, ideale per applicazioni analitiche sofisticate.
Grazie alle eccellenti capacità di ragionamento logico e alla profonda comprensione semantica, questo modello si distingue per la sua capacità di cogliere le sottigliezze e le implicazioni di testi complessi. Il suo design enfatizza il ragionamento coerente e la precisione analitica, rendendolo particolarmente adatto alle applicazioni che richiedono un'analisi attenta e contestuale delle informazioni. Le sue dimensioni moderate consentono un'implementazione flessibile, pur mantenendo prestazioni di alta qualità in un'ampia gamma di compiti analitici impegnativi.
36 gettoni/secondo

Cogito 32B

Una versione avanzata del modello Cogito che offre capacità di ragionamento e analisi notevolmente migliorate, progettata per le applicazioni più esigenti in termini di intelligenza artificiale analitica.
Questa versione estesa del modello Cogito porta le capacità di ragionamento e comprensione ancora più in là, offrendo una profondità di analisi senza pari per le applicazioni più complesse. La sua sofisticata architettura gli consente di affrontare ragionamenti in più fasi con rigore e precisione, mantenendo una notevole coerenza complessiva. Ideale per le applicazioni mission-critical che richiedono un'intelligenza artificiale capace di ragionamenti ricchi di sfumature e di una comprensione contestuale profonda, paragonabile alle analisi di esperti umani in campi specialistici.
38 token/secondo

QwQ-32B

Un modello da 32 miliardi di parametri potenziato dall'apprendimento per rinforzo (RL) per eccellere nei compiti di ragionamento, codifica, matematica e agenti.
Questo modello utilizza un approccio RL innovativo con ricompense basate sui risultati (controlli di precisione per la matematica, esecuzione di codice per la codifica) e un addestramento in più fasi per migliorare le abilità generali senza degradare le prestazioni specialistiche. Include funzionalità di agente per l'utilizzo di strumenti e l'adattamento del ragionamento. Licenza Apache 2.0.
67 token/secondo

DeepSeek-R1 14B

Versione compatta ed efficiente del modello DeepSeek-R1, offre un eccellente compromesso tra prestazioni e leggerezza per le installazioni che richiedono flessibilità e reattività.
Rappresentando un equilibrio ottimale tra prestazioni ed efficienza, questa versione compatta di DeepSeek-R1 mantiene le principali qualità di ragionamento e analisi della sua controparte più grande, consentendo al contempo un'implementazione più leggera e flessibile. Il suo design accuratamente ottimizzato garantisce risultati di qualità in un'ampia gamma di attività, riducendo al minimo i requisiti di risorse computazionali. Questa combinazione lo rende la scelta ideale per le applicazioni che richiedono un'implementazione agile senza compromettere le funzionalità principali.
37 token/secondo

DeepSeek-R1 32B

Una versione intermedia del modello DeepSeek-R1, che offre un equilibrio strategico tra le capacità avanzate della versione 70B e l'efficienza della versione 14B, per una versatilità e prestazioni ottimali.
Questa versione di fascia media del modello DeepSeek-R1 combina in modo intelligente potenza ed efficienza, offrendo prestazioni significativamente migliori rispetto alla versione 14B e mantenendo un ingombro inferiore rispetto alla versione 70B. Questa posizione strategica nella gamma lo rende un'opzione particolarmente interessante per le implementazioni che richiedono capacità di ragionamento avanzate senza i requisiti hardware dei modelli più grandi. La sua versatilità gli consente di eccellere in un'ampia gamma di compiti, dall'analisi del testo alla generazione di contenuti strutturati.
63 token/secondo

Cogito 3B

Versione compatta del modello Cogito, ottimizzata per il ragionamento su dispositivi con risorse limitate.
Offre le capacità di ragionamento della famiglia Cogito in un formato molto leggero (3 miliardi di parametri), ideale per implementazioni embedded o ambienti CPU.

Incasso di granito

Il modello di incorporazione ultraleggero di IBM per la ricerca e la classificazione semantica.
Progettato per generare rappresentazioni vettoriali dense del testo, questo modello è ottimizzato per garantire efficienza e prestazioni nei compiti di similarità semantica, clustering e classificazione. Le sue dimensioni ridotte lo rendono ideale per le implementazioni su larga scala.

Granito 3 Guardiano 2B

Il modello compatto di IBM è specializzato in sicurezza e conformità, rilevando rischi e contenuti inappropriati.
Versione leggera della famiglia Guardian, addestrata per identificare e filtrare contenuti dannosi, pregiudizi e rischi per la sicurezza nelle interazioni testuali. Offre una protezione robusta con un'impronta computazionale ridotta. Contesto limitato a 8k token.

Granito 3 Guardiano 8B

Modello IBM specializzato in sicurezza e conformità, che offre funzionalità avanzate di rilevamento dei rischi.
Modello di medie dimensioni della famiglia Guardian, che offre un'analisi di sicurezza più approfondita rispetto alla versione 2B. Ideale per le applicazioni che richiedono un monitoraggio rigoroso dei contenuti e una rigorosa conformità.
53 token/secondo

Qwen 2,5 0,5B

Micro-modello ultraleggero della famiglia Qwen 2.5, progettato per la massima efficienza su attrezzature limitate.
Il modello più piccolo della serie Qwen 2.5, che offre capacità di elaborazione linguistica di base con un ingombro minimo. Ideale per compiti molto semplici su dispositivi IoT o mobili.
107 token/secondo

Qwen 2,5 1,5B

Modello molto compatto della famiglia Qwen 2.5, che offre un buon rapporto prestazioni/dimensioni per impieghi leggeri.
Modello leggermente più grande della versione 0.5B, che offre maggiori capacità pur rimanendo altamente efficiente. Adatto per applicazioni mobili o embedded che richiedono una maggiore potenza.
68 token/secondo

Qwen 2.5 14B

Modello versatile e di medie dimensioni della famiglia Qwen 2.5, con un buon equilibrio tra prestazioni e risorse.
Offre forti capacità multilingue e comprensione generale in un formato 14B. Adatto a un'ampia gamma di applicazioni che richiedono un modello affidabile senza i requisiti di modelli molto grandi.
36 gettoni/secondo

Qwen 2.5 32B

Potente modello della famiglia Qwen 2.5, che offre capacità avanzate di comprensione e generazione.
Versione 32B di Qwen 2.5, che offre prestazioni migliori rispetto alla versione 14B, in particolare nel ragionamento e nel seguire istruzioni complesse, pur rimanendo più leggero del modello 72B.
57 token/secondo

Qwen 2,5 3B

Modello compatto ed efficiente della famiglia Qwen 2.5, adatto a compiti generali con risorse limitate.
Offre un buon compromesso tra le capacità dei modelli 1.5B e 14B. Ideale per applicazioni che richiedono una buona comprensione generale in un formato leggero e veloce.
58 token/secondo

Qwen3 0.6b

Modello compatto ed efficiente della famiglia Qwen3, adatto a compiti generici con risorse limitate.
Offre un buon compromesso tra le capacità dei modelli ultracompatti e quelle dei modelli più grandi. Ideale per applicazioni che richiedono una buona comprensione generale in un formato leggero e veloce.
84 token/secondo

Qwen3 1.7b

Un modello molto compatto della famiglia Qwen3, che offre un buon equilibrio tra prestazioni e dimensioni per impieghi leggeri.
Modello leggermente più grande della versione 0.6B, che offre maggiori capacità pur rimanendo altamente efficiente. Adatto per applicazioni mobili o embedded che richiedono una maggiore potenza.
50 gettoni/secondo

Qwen3 4b

Modello compatto della famiglia Qwen3, che offre prestazioni eccellenti in un formato leggero ed economico.
Questa versione compatta del modello Qwen3 è ottimizzata per le distribuzioni con risorse limitate, pur mantenendo prestazioni eccezionali per le sue dimensioni. La sua efficiente architettura consente una rapida inferenza su hardware standard.
34 token/secondo

Qwen3 8b

Il modello Qwen3 8B offre un buon equilibrio tra prestazioni ed efficienza per le attività generali.
Versione 8B di Qwen3, che offre capacità di ragionamento, codifica, matematica e agenti migliorate. Supporta oltre 100 linguaggi e modi di pensare ibridi.
24 gettoni/secondo

Fondazione-Sec-8B

Modello linguistico specializzato per la cybersecurity, ottimizzato per l'efficienza.
Modello Foundation-Sec-8B (Llama-3.1-FoundationAI-SecurityLLM-base-8B) basato su Llama-3.1-8B, pre-addestrato su un corpus di cybersecurity. Progettato per il rilevamento delle minacce, la valutazione delle vulnerabilità, l'automazione della sicurezza, ecc. Ottimizzato per la distribuzione locale. Contesto di 16k token.

Confronto tra i modelli

Questa tabella di confronto vi aiuterà a scegliere il modello più adatto alle vostre esigenze, in base a vari criteri come le dimensioni del contesto, le prestazioni e i casi d'uso specifici.

Modello Editeur Parametri Contexte (k gettoni) Visione Agente Descrizione Sicurezza Rapide * Efficienza energetica *
Modelli di taglia grande
Lama 3.3 70B Meta 70B 60000
Gemma 3 27B Google 27B 120000
DeepSeek-R1 70B DeepSeek AI 70B 60000
Qwen3 30B-A3B FP8 Squadra Qwen 30B-A3B 60000
Modelli specializzati
Qwen3 14B Squadra Qwen 14B 60000
Gemma 3 12B Google 12B 120000
Gemma 3 4B Google 4B 120000
Gemma 3 1B Google 1B 32000
Lucie-7B-Istruzione OpenLLM-Francia 7B 32000
Mistral Piccolo 3.1 Mistral AI 24B 60000
DeepCoder Agentica x Together AI 14B 32000
Granito 3.2 Visione IBM 2B 16384
Granito 3.3 8B IBM 8B 60000
Granito 3.3 2B IBM 2B 120000
Granito 3.1 MoE IBM 3B 32000
Cogito 14B Cogito profondo 14B 32000
Cogito 32B Cogito profondo 32B 32000
QwQ-32B Squadra Qwen 32B 32000
DeepSeek-R1 14B DeepSeek AI 14B 32000
DeepSeek-R1 32B DeepSeek AI 32B 32000
Cogito 3B Cogito profondo 3B 32000
Incasso di granito IBM 278M 32000 N.C.
Granito 3 Guardiano 2B IBM 2B 8192 N.C.
Granito 3 Guardiano 8B IBM 8B 32000 N.C.
Qwen 2,5 0,5B Squadra Qwen 0.5B 32000
Qwen 2,5 1,5B Squadra Qwen 1.5B 32000
Qwen 2.5 14B Squadra Qwen 14B 32000
Qwen 2.5 32B Squadra Qwen 32B 32000
Qwen 2,5 3B Squadra Qwen 3B 32000
Qwen3 0.6b Squadra Qwen 0.6B 32000
Qwen3 1.7b Squadra Qwen 1.7B 32000
Qwen3 4b Squadra Qwen 4B 32000
Qwen3 8b Squadra Qwen 8B 60000
Fondazione-Sec-8B Fondazione AI - Cisco 8B 16000
Légende et explication
: Funzionalità o capacità supportate dal modello
: Funzionalità o capacità non supportate dal modello
* Efficienza energetica : Indica un consumo energetico particolarmente basso (< 2,0 kWh/Mtoken)
* Rapide : Modello in grado di generare più di 50 gettoni al secondo
Nota sulle misure di prestazione
I valori di vitalità (token/s) rappresentano i parametri di prestazione in condizioni reali. Il consumo energetico (kWh/Mtoken) si calcola dividendo la potenza stimata dell'alimentatore (in Watt) per la velocità misurata dal modello (in token/secondo), quindi convertendola in chilowattora per milione di token (divisione in 3.6). Questo metodo offre un confronto pratico dell'efficienza energetica dei diversi modelli, da utilizzare come indicatore relativo piuttosto che come misura assoluta del consumo elettrico.

Casi d'uso consigliati

Ecco alcuni casi d'uso comuni e i modelli più adatti per ciascuno di essi. Queste raccomandazioni si basano sulle prestazioni e sulle capacità specifiche di ciascun modello.

Dialogo multilingue

Chatbot e assistenti in grado di comunicare in diverse lingue, con rilevamento automatico, mantenimento del contesto durante la conversazione e comprensione delle specificità linguistiche.
Modelli consigliati
  • Llama 3.3
  • Mistral Piccolo 3.1
  • Qwen 2.5
  • Granito 3.3

Analisi di documenti lunghi

Elaborazione di documenti di grandi dimensioni (>100 pagine), mantenendo il contesto in tutto il testo, estraendo le informazioni chiave, generando sintesi pertinenti e rispondendo a domande specifiche sui contenuti
Modelli consigliati
  • Gemma 3
  • DeepSeek-R1
  • Granito 3.3

Programmazione e sviluppo

Generazione e ottimizzazione di codice in più linguaggi, debugging, refactoring, sviluppo di funzionalità complete, comprensione di implementazioni algoritmiche complesse e creazione di test unitari.
Modelli consigliati
  • DeepCoder
  • QwQ
  • DeepSeek-R1
  • Granito 3.3

Analisi visiva

Elaborazione diretta di immagini e documenti visivi senza pre-elaborazione OCR, interpretazione di diagrammi tecnici, grafici, tabelle, disegni e foto con generazione di spiegazioni testuali dettagliate del contenuto visivo
Modelli consigliati
  • Granito 3.2 Visione
  • Mistral Piccolo 3.1
  • Gemma 3

Sicurezza e conformità

Applicazioni con severi requisiti di sicurezza, tracciabilità dei ragionamenti, verifica RGPD/HDS/SecNumCloud, minimizzazione dei rischi, analisi delle vulnerabilità e conformità alle normative specifiche del settore.
Modelli consigliati
  • Guardiano del granito
  • Granito 3.3
  • Lucie
  • Mistral Piccolo 3.1

Impieghi leggeri e a bordo

Applicazioni che richiedono un ingombro minimo di risorse, implementazione su dispositivi a capacità limitata, inferenza in tempo reale su CPU standard e integrazione in sistemi embedded o IoT.
Modelli consigliati
  • Gemma 3
  • Granito 3.1 MoE
  • Guardiano del granito
  • Granito 3.3
Politica sui cookie

Utilizziamo i cookie per offrirvi la migliore esperienza possibile sul nostro sito, ma non raccogliamo alcun dato personale.

I servizi di misurazione dell'audience, necessari per il funzionamento e il miglioramento del nostro sito, non consentono di identificarvi personalmente. Tuttavia, avete la possibilità di opporvi al loro utilizzo.

Per ulteriori informazioni, consultare il nostro Informativa sulla privacy.