Nvidia GTC 2022: Grace-CPU und Hopper-GPU der nächsten Generation

Die Nvidia Grace CPU und Nvidia H100 wurden auf der Nvidia GTC 2022 vorgestellt. Nvidia kündigte heute seine Hopper-GPU-Architektur der nächsten Generation und die Hopper H100-GPU sowie einen neuen Rechenzentrumschip an, der die GPU mit einer Hochleistungs-CPU kombiniert und als „ Grace CPU Superchip“ (nicht zu verwechseln mit Nvidias anderem Grace-Superchip).

Nvidia Grace CPU: Technische Daten, Preis und Veröffentlichungsdatum

Der Nvidia GPU Superchip ist der erste Versuch des Unternehmens, eine spezialisierte Rechenzentrums-CPU zu entwickeln. Der Arm-basierte Chip wird laut Informationen von Intel über erstaunliche 144 Kerne und 1 Terabyte pro Sekunde Speicherbandbreite verfügen. Es kombiniert tatsächlich zwei Grace-CPUs, die über Nvidias NVLink-Interconnect verbunden sind – was mit Apples M1 Ultra-Architektur vergleichbar ist.

Die neue CPU, die von schnellem LPDDR5X-Speicher angetrieben wird, wird voraussichtlich in der ersten Hälfte des Jahres 2023 ausgeliefert und soll die doppelte Leistung herkömmlicher Server bieten. Nvidia prognostiziert, dass der Chip beim SPECrate®2017_int_base-Benchmark 740 Punkte erreichen wird, womit er sich mit High-End-Prozessoren von AMD und Intel für Rechenzentren messen kann (obwohl einige davon höher abschneiden, jedoch auf Kosten einer geringeren Leistung pro Watt). ).

„Eine neue Art von Rechenzentren ist entstanden – KI-Fabriken, die Berge von Daten verarbeiten und verfeinern, um Intelligenz zu produzieren. Der Grace CPU Superchip bietet die höchste Leistung, Speicherbandbreite und NVIDIA-Softwareplattformen in einem Chip und wird als CPU der weltweiten KI-Infrastruktur glänzen.“

-Jensen Huang, Gründer und CEO von Nvidia

Nvidia GTC 2022: Nvidia Grace-CPU & Nvidia H100
Nvidia GTC 2022: Nvidia Grace-CPU & Nvidia H100

Dieser neue Chip ist in vielerlei Hinsicht die natürliche Weiterentwicklung des im letzten Jahr angekündigten Grace Hopper Superchip und der CPU. Die Grace Hopper Superchip kombiniert eine CPU und eine GPU zu einem einzigen System-on-a-Chip-Design. Dieses System, das ebenfalls in der ersten Hälfte des Jahres 2023 auf den Markt kommen wird, wird eine 600-GB-Speicher-GPU für große Modelle enthalten, und Nvidia behauptet, dass die Speicherbandbreite 30-mal größer sein wird als die GPU eines einfachen Servers. Diese Prozessoren sind laut Nvidia für „gigantische“ KI- und High-Performance-Computing-Anwendungen gedacht.

  Der Oscar-Nominierte 'Klaus' wurde nur von 318 Personen in Theatern gesehen

Der Grace CPU Superchip ist ein Arm v9-basierter SoC, der zum Erstellen eigenständiger CPUs oder Server mit bis zu acht Hopper-basierten GPUs verwendet werden kann.

Das Unternehmen gibt an, dass es mit „führenden HPC-, Supercomputing-, Hyperscale- und Cloud-Kunden“ zusammenarbeitet, was bedeutet, dass diese Systeme schließlich bei einem Cloud-Anbieter in Ihrer Nähe verfügbar sein werden.

Über den Preis wurden noch keine Informationen geteilt.

Nvidia H100 GPU: Technische Daten, Preis und Veröffentlichungsdatum

Nvidia veröffentlicht mit Hopper eine Reihe neuer und verbesserter Technologien, aber die Betonung der Architektur auf Transformatormodellen, die für viele Anwendungen zur maschinellen Lerntechnik der Wahl geworden sind und Modelle wie GPT-3 und asBERT antreiben, ist möglicherweise die wichtigste .

Die neue Transformer Engine des H100-Chips verspricht, das Modelltraining um das bis zu Sechsfache zu beschleunigen, und da diese neue Architektur auch das neue NVLink Switch-System von Nvidia zum Verbinden zahlreicher Knoten enthält, können riesige Servercluster, die von diesen Chips betrieben werden, zur Unterstützung skaliert werden riesige Netzwerke mit weniger Overhead.

  Xiaomi 12, 12 Pro und 12X sind endlich da mit Snapdragon 8 Gen 1
Nvidia GTC 2022: Nvidia Grace-CPU & Nvidia H100
Nvidia GTC 2022: Nvidia Grace-CPU & Nvidia H100

„Das Trainieren der größten KI-Modelle auf den heutigen Computerplattformen kann Monate dauern. Das ist zu langsam für Unternehmen. KI, High Performance Computing und Datenanalyse werden immer komplexer, wobei einige Modelle, wie z. B. große Sprachmodelle, Billionen von Parametern erreichen. Die NVIDIA Hopper-Architektur wurde von Grund auf neu entwickelt, um diese KI-Arbeitslasten der nächsten Generation mit enormer Rechenleistung und schnellem Arbeitsspeicher zu beschleunigen, um wachsende Netzwerke und Datensätze zu bewältigen.“

– Dave Salvator

Im Neuen kommen Tensor Cores von Kunden zum Einsatz, die bei Bedarf 8-Bit-Präzision und 16-Bit-Halbpräzision kombinieren können und dabei präzise bleiben Transformator-Engine.

Über den Preis wurden noch keine Informationen geteilt.