Nvidia vient tout juste d’annoncer sa nouvelle carte tournant sous Volta et quelle carte ! On retrouve un produit gravé en 12 nm proposant des performances de calcul énormes.
On retrouve donc la Tesla V100 qui possède 5120 CUDA Cores et 16 Gb de mémoire à haute bande passante HBM2. L’objectif de la conférence était de présenter les atouts des derniers modèles en Deep Learning et il faut dire que c’est impressionnant.
Jen-Hsun Huang, qui s’est exprimé au nom de la firme Nvidia, pense que l’intelligence artificielle pourra conduire les plus grands progrès de l’humanité.
Il automatisera l’intelligence et stimulera une vague de progrès social inégalée depuis la révolution industrielle
Le développement de l’IA pourrait selon Nvidia donner ensuite donner lieu à la création d’apprentissage autonome, pour simplifier la vie de nombreuses personnes. Les ingénieurs de chez Nvidia on travaillé sur ces besoins qui nécessitent une puissance de calcul immense.
Si vous ne connaissez pas le Deep Learning, nous vous invitons à lire notre dossier explicatif via ce LIEN.
Le nouveau GPU GV100 comprend 21,1 milliards de transistors pour un traille de 815 mm2. La puce est gravée en 12 nm et le GPU globalement présente une taille beaucoup plus élevée que l’ancien GP100. Cette puce sera plus simple pour faire de la programmation et aura un portage applicatif amélioré. L’allocation et l’utilisation des ressources GPU a aussi été améliorée.
On retrouvera donc également dans ce GV100 un total de 84 unités de calcul de génération Volta. Les fréquences de fonctionnement seront de 1455 MHz en boost. Un total de 15 TFLOPs en calcul FP32 et 7.50 TFLOPs en calcul FP64. Un total de 16 Gb de HBM2 seront présents sur bus 4096 bit. La mémoire vidéo moulinera à une fréquence de 878 MHz ce qui assurera une bande passante de 900GB/s . Le TDP est tout à fait contenu pour un total de 300w seulement.
Des améliorations conséquentes ont été produites pour ce GPU, on notera surtout la présence d’un cache de niveau L1 combiné au sous système mémoire qui permettra un gain considérable dans la programmation. La capacité combinée serait de 128 Ko/SM, donc 7 fois plus grande que sur le GP100. Le cache de Volta a donc une latence beaucoup plus faible avec une bande passante accrue. La transmission des données devrait être beaucoup plus rapide.
Résumé des nouveautés :
- Une nouvelle architecture optimisée pour le Deep Learning permettant une efficacité 50% supérieure en énergie que Pascal.
- Des améliorations de performance en FP32 et FP64
- Un cache L1 amélioré et une latence réduite
- Le NVLink de deuxième génération permettant une bande passante plus élevée pour le multi-GPU.
- De la mémoire HBM2 Samsung proposant 900 GB/s en bande passante et un contrôleur mémoire plus performant.
- Le Volta Multi Process service permettant une accélération materielle des composants de serveur CUDA MPS. Donc de meilleures performances en multi-GPU.
- Une technologie de mémoire unifiée permettant d’accéder plus vite à la mémoire partagée entre processeurs.
- Support du Cooperative Groups API
- Une performance énergétique améliorée
- Une gestion software plus poussée avec le support de framework pour le Deep Learning comme Caffe2, MXNet, CNTK, TensorFlow …