Storage Class Memory erklärt: die fehlende Schicht zwischen DRAM und NAND

Wenn man sich einmal genauer anschaut, wie KI-Systeme heute tatsächlich Daten bewegen, merkt man ziemlich schnell, dass es nicht nur darum geht, schnellere Prozessoren oder mehr Speicher zu haben, sondern vielmehr darum, was zwischen diesen Ebenen passiert und wie oft das System gezwungen ist zu warten.
Im vorherigen Artikel über High Bandwidth Memory ging es darum, Daten so nah wie möglich am Prozessor zu halten, damit die GPU nicht untätig bleibt. Das ist die oberste Ebene im System und absolut entscheidend, löst aber nur einen Teil des Problems, weil schlicht nicht alles dort untergebracht werden kann.
Sobald der aktive Datensatz größer wird als das, was in diese unmittelbare Ebene passt, landet man wieder bei der Bewegung von Daten zwischen DRAM und NAND, und genau dort fühlt sich das Ganze plötzlich unausgeglichen an. DRAM ist schnell und reagiert direkt, aber teuer und nicht beliebig skalierbar. NAND ist deutlich praktischer, wenn es um Kapazität geht, bringt aber selbst bei guten Flash-Lösungen genug Verzögerung mit, dass es unter Dauerlast spürbar wird.
Genau diese Lücke ist der Punkt, an dem Storage Class Memory seinen Platz bekommt. Nicht als neue Technologie, die eine der beiden Seiten ersetzt, sondern als eine Art Zwischenschicht, die den Übergang glättet, damit das System nicht ständig zwischen sehr schnell und merklich langsamer hin- und herspringt.
Wenn man das Ganze im größeren Zusammenhang sehen möchte, passt das direkt zu der zentralen Analyse hier: NAND verschwindet nicht, aber KI-Server sind heute auf mehr als nur Flash angewiesen.


