Pour accélérer la productivité des chercheurs et déployer de services IA, il faut non seulement entraîner des modèles d'apprentissage automatique de plus en plus complexes, mais surtout le faire de plus en plus vite. Les serveurs accélérés par Tesla P100 s'appuient sur les performances révolutionnaires de l'architecture NVIDIA Pascal pour faire passer les procédures d'entraînement Deep Learning de plusieurs mois à quelques heures seulement.
Inférence
L'inférence est la mise en production des réseaux de neurones préalablement entraînés. Que la donnée existe sous forme d'image, de voix, ou de vidéo, l'inférence joue un rôle essentiel dans l'élaboration des réponses et recommendations au coeur des services d'IA. Un serveur équipé d'un GPU Tesla peut fournir un rendement d'inférence jusqu'à 27 fois plus important qu'un serveur exclusivement basé sur un CPU single-socket, en réduisant les coûts d'exploitation de manière significative.
High Performance Computing
Les Data Centers HPC doivent répondre aux besoins exponentiels des chercheurs et des ingénieurs tout en respectant leur budget. Les Data Centers traditionnels, qui s'appuient sur un grand nombre de nœuds de calcul génériques, entraînent une forte hausse des coûts d'exploitation sans gains proportionnels de performances.
Virtualisez tous les workflows
Le monde de l'entreprise se transforme. Les workflows évoluent et les sociétés doivent aujourd'hui exécuter des simulations et des visualisations de pointe, tout en permettant à leurs utilisateurs d'accéder à des applications de productivité sur tout type d'appareil.