NVIDIA 16.05.2017, 10:28 Uhr

GPU-Plattform Volta für KI und High Performance Computing

NVIDIA hat mit Volta eine der leistungsstärksten GPU-Rechenarchitekturen weltweit vorgestellt. Volta wurde entwickelt, um massive Fortschritte in den Bereichen Künstliche Intelligenz und High Performance Computing (HPC) zu ermöglichen. Die auf Volta-basierte Rechenzentrums-GPU Tesla V100 durchbricht die Barriere von 120 Teraflops für Deep Learning.
Neben der GPU-Plattform Volta hat NVIDIA auch seinen ersten auf Volta basierenen Prozessor, die NVIDIA Tesla V100 Rechenzentrums-GPU vorgestellt, die aussergewöhnliche Geschwindigkeit und Skalierbarkeit für KI-Inferenzen und Training sowie für die Beschleunigung von HPC- und Grafik-Workloads bietet. NVIDIAs siebte Generation der GPU-Architektur namens Volta ist mit 21 Milliarden Transistoren ausgestattet und liefert die gleiche Deep-Learning-Leistung wie 100 CPUs.

Wie der Hersteller berichtet, bietet Volta hinsichtlich Spitzen-Teraflops eine fünffache Steigerung gegenüber der aktuellen GPU-Architektur-Generation Pascal und eine 15-fache Steigerung gegenüber der Maxwell-Architektur, die vor zwei Jahren veröffentlicht wurde. Diese Leistung übertrifft die Verbesserungen, die das mooresche Gesetz voraussagt,  um das Vierfache.

Die Nachfrage nach der Beschleunigung von KI-Technologien war nie grösser. Entwickler, Datenwissenschaftler und Forscher setzen zunehmend auf neuronale Netze, um ihre nächsten Projekte beispielsweise bei der Bekämpfung von Krebs zu beschleunigen, um Transport-Vorgänge mit selbstfahrenden Fahrzeugen sicherer zu machen oder um neue intelligente Kundenerlebnisse zu bieten.

Rechenzentren müssen exponentiell höhere Rechenleistung liefern, da diese Netzwerke immer komplexer werden. Und sie müssen effizient skalieren können, um die schnelle Einführung von hochpräzisen KI-basierten Diensten wie virtuelle Assistenten für natürliche Sprache und personalisierte Such- und Empfehlungssysteme zu unterstützen.

Volta will der neue Standard für High Performance Computing werden. Es bietet eine Plattform für HPC-Systeme, um sowohl wissenschaftliches Rechnen und Data Science darin zu übertreffen, wichtige Erkenntnisse zu liefern. Durch die Kopplung von CUDA-Kern mit dem neuen Volta Tensor Core innerhalb einer einheitlichen Architektur kann ein einzelner Server mit Tesla V100 GPUs Hunderte von herkömmlichen CPUs für traditionelle HPC ersetzen.

Tesla V100 GPU
Die Tesla V100 GPU hängt vorherige Generationen von NVIDIA GPUs mithilfe wegweisender Technologien ab, die es ermöglichen, die 100-Teraflops-Barriere im Deep Learning zu überwinden. Zu diesen Technologien zählen:
  • Tensor Cores – entwickelt, um KI-Workloads zu beschleunigen. Ausgestattet mit 640 Tensor Cores, liefert V100 120 Teraflops an Leistung für Deep Learning, was der Leistung von 100 CPUs entspricht.
  • Eine neue GPU-Architektur mit mehr als 21 Milliarden Transistoren. Sie verbindet CUDA-Kerne und Tensor Cores in einer einheitlichen Architektur und bietet die Leistung eines KI-Supercomputers in einer einzigen GPU.
  • NVLink bietet die nächste Generation der High-Speed-Interconnect-Verknüpfung von GPUs untereinander sowie von GPUs an CPUs mit bis zu doppelt so hohem Durchsatz im Vergleich zur vorherigen NVLink-Generation.
  • 900 GB/s HBM2 DRAM, in Zusammenarbeit mit Samsung entwickelt, erreicht 50 Prozent mehr Memory-Bandbreite als GPUs früherer Generationen und unterstützen so den aussergewöhnlichen Rechendurchsatz von Volta.
  • Volta-optimierte Software, einschliesslich CUDA-, cuDNN- und TensorRT-Software, die führende Frameworks und Applikationen problemlos für die Beschleunigung von KI und Forschung einsetzen können.
Weitere Informationen finden Sie im NVIDIA-Blog unter https://blogs.nvidia.com/



Das könnte Sie auch interessieren