Produits > GPU
Calcul

GPU

Les instances GPU NVIDIA A100 Tensor Core pour accélérer vos calculs applicatifs sur une grande variété de tâches d’intelligence artificielle et de calcul haute performance

Available Q2 2024

Accélérer le traitement

La mise en production de réseaux de neurones préalablement entraînés joue un rôle essentiel dans l’élaboration des réponses et des recommandations des services d’IA. Nos GPU peuvent fournir un rendement d’inférence jusqu’à 27 fois plus important qu’un serveur single-socket, réduisant significativement les coûts d’exploitation.

Innover avec l’IA et le Machine Learning

Pour booster la productivité des data scientists et mettre en œuvre plus rapidement de nouveaux services d’IA, il faut entraîner des modèles de plus en plus complexes, de plus en plus vite. Nos GPU NVIDIA A100 réduisent à quelques heures les procédures d’entraînement Deep Learning.

Gagner en efficacité

Entièrement compatible avec la plateforme Kubernetes, les systèmes de conteneurs et l’environnement de machines virtuelles du cloud de confiance, la technologie multi-instances des GPU A100 simplifie l’accès aux ressources de calcul pour tous les utilisateurs, quel que soit le type de charge de travail.

Bénéficier d’une solution agile

Ajustez le nombre d’instances GPU en fonction de vos besoins : la technologie de GPU multi-instances (MI) permet de partitionner un GPU en sept instances distinctes sécurisées, dotée chacune d’une mémoire dédiée de 5 ou 10Go. Vos utilisateurs peuvent accéder à tous les avantages de l’accélération GPU.

Spécifications
techniques

FP64
9,7 TFLops

FP64 Tensor Core
19,5 TFlops

FP32
19,5 TFlops

Tensor Float 32 (TF32)
312 TFlops

INT8 Tensor Core
1248 TFlops

FP16 Tensor Core
624 TFlops

BFLOAT 16 Tensor Core
624 Tflops

Mémoire
80 Go HDBM2e à 1935 Go/S

Multi instance
Jusqu’à 7 instances MIG à 10 Go

Tarifs

Vous souhaitez connaître les tarifs de nos produits GPU ?

ingénierie
Cas d’usage

Ingénierie et simulation

Les instances GPU équipent les systèmes de modélisation les plus performants, offrant la puissance requise pour faire fonctionner des outils de simulation en temps réel et accélérer l’innovation.

recherche IA machine learning
Cas d’usage

Intelligence artificielle et Machine learning

Grâce au rendement d’inférence élevé des GPU NVIDIA A100, créez et entraînez des réseaux de neurones d’intelligence artificielle et traitez des volumes massifs de données.

recherche scientifique
Cas d’usage

Recherche scientifique

Les instituts de recherche fondamentale ou appliquée peuvent exploiter la puissance du GPU pour modéliser des scénarios complexes et réduire le temps nécessaire à l’analyse des données.