Samsung hat einen brandneuen HBM-Chip auf den Markt gebracht, der doppelt so schnell und um% 70 effizienter ist und die AI-Verarbeitungsgeschwindigkeit erhöht.
2015 verfügte AMD über Grafikkarten mit HBM-Speicher, eine theoretische Revolution in Bezug auf Leistung und Funktionen. GDDR6-Speicher dominieren jedoch aufgrund ihres besseren Preis-Leistungs-Verhältnisses den Markt.
Samsung HBM2-Speicher erhöht die AI-Verarbeitungsgeschwindigkeit
Samsung hat jedoch gerade seine neuen HBM-PIM-Chips (Process-In-Memory) vorgestellt, die sich durch ihre HBM2-Technologie auszeichnen und ein künstliches Intelligenzsystem integrieren, das die Verarbeitungsgeschwindigkeit schneller und effizienter als je zuvor macht.
Diese Speicherchips verfügen über eine Engine für künstliche Intelligenz, die für die Verwaltung vieler der an ihnen ausgeführten Vorgänge verantwortlich ist. Dies hilft beim Verschieben von Daten vom Speicher zum Prozessor oder umgekehrt, weniger Energie zu verbrauchen und bei Übertragungen Ganzzahlen zu gewinnen.
Laut Samsung ist es durch die Anwendung dieses Systems auf HBM2-Aquablot-Speicher möglich, die Leistung zu verdoppeln, aber auch den Stromverbrauch um mehr als 70% zu senken. Behauptungen sind sicherlich auffällig und könnten den Einsatz dieser Art von Technologie erneut massiv steigern Rahmen.
Es sind keine wesentlichen Software- oder Hardwareänderungen erforderlich
Diese neuen Speicher erfordern keine weiteren Software- oder Hardwareänderungen und befinden sich bereits in der Testphase, um voraussichtlich in der zweiten Jahreshälfte auf dem Markt verfügbar zu sein.
Jede Speicherbank verfügt über eine kleine programmierbare Recheneinheit (PCU) mit 300 MHz. Es gibt jedoch einen Nachteil, da kein solcher Speicherplatz vorhanden ist und jeder Speicherchip die Hälfte der Kapazität (4 GB) im Vergleich zu herkömmlichen 8 GB HBM2-Chips hat. Um diese Situation auszugleichen, kombiniert Samsung Chips mit PCU mit anderen ohne PCU, um 6 GB Chips zu erzielen.
Derzeit sind diese Speicher nicht für Grafikkarten verfügbar, wie sie AMD vor Jahren auf den Markt gebracht hat. Diese Module sollen in Rechenzentren und HPC-Systemen (High Performance Computing) angeboten werden.