Storage Class Memory erklärt: die fehlende Schicht zwischen DRAM und NAND

Wenn man sich einmal genauer anschaut, wie KI-Systeme heute tatsächlich Daten bewegen, merkt man ziemlich schnell, dass es nicht nur darum geht, schnellere Prozessoren oder mehr Speicher zu haben, sondern vielmehr darum, was zwischen diesen Ebenen passiert und wie oft das System gezwungen ist zu warten.
Im vorherigen Artikel über High Bandwidth Memory ging es darum, Daten so nah wie möglich am Prozessor zu halten, damit die GPU nicht untätig bleibt. Das ist die oberste Ebene im System und absolut entscheidend, löst aber nur einen Teil des Problems, weil schlicht nicht alles dort untergebracht werden kann.
Sobald der aktive Datensatz größer wird als das, was in diese unmittelbare Ebene passt, landet man wieder bei der Bewegung von Daten zwischen DRAM und NAND, und genau dort fühlt sich das Ganze plötzlich unausgeglichen an. DRAM ist schnell und reagiert direkt, aber teuer und nicht beliebig skalierbar. NAND ist deutlich praktischer, wenn es um Kapazität geht, bringt aber selbst bei guten Flash-Lösungen genug Verzögerung mit, dass es unter Dauerlast spürbar wird.
Genau diese Lücke ist der Punkt, an dem Storage Class Memory seinen Platz bekommt. Nicht als neue Technologie, die eine der beiden Seiten ersetzt, sondern als eine Art Zwischenschicht, die den Übergang glättet, damit das System nicht ständig zwischen sehr schnell und merklich langsamer hin- und herspringt.
Wenn man das Ganze im größeren Zusammenhang sehen möchte, passt das direkt zu der zentralen Analyse hier: NAND verschwindet nicht, aber KI-Server sind heute auf mehr als nur Flash angewiesen.
Wo die Lücke überhaupt entsteht
Auf dem Papier haben DRAM und NAND lange gut zusammengearbeitet, weil sie für unterschiedliche Aufgaben gedacht sind. Das eine kümmert sich um aktive Daten, das andere um gespeicherte Daten, und das System verschiebt Informationen je nach Bedarf zwischen beiden hin und her. Für klassische Workloads funktioniert diese Trennung auch heute noch erstaunlich gut.
KI-Workloads verhalten sich allerdings anders. Große Datensätze werden ständig wiederverwendet, Daten werden parallel bewegt, und es laufen viele Operationen gleichzeitig, wodurch das System kontinuierlich auf Speicher zugreift, anstatt ihn nur gelegentlich zu nutzen.
Genau an dieser Stelle beginnt Latenz eine größere Rolle zu spielen als früher. Nicht als plötzlicher, offensichtlicher Flaschenhals, sondern als viele kleine Verzögerungen, die sich im Laufe der Zeit addieren. Das System stoppt nicht, aber es arbeitet auch nicht mehr so effizient, wie es eigentlich könnte, und genau dann sieht man, wie Prozessoren anfangen, auf Daten zu warten, statt sie zu verarbeiten.
Storage Class Memory sitzt genau in diesem Datenpfad und reduziert, wie oft das System den kompletten Weg bis hinunter zum NAND gehen muss, ohne gleichzeitig die Kosten explodieren zu lassen, indem alles in DRAM verschoben wird.
Wie man sich das praktisch vorstellen kann
Am einfachsten lässt sich das wieder mit dem Lagerhallen-Beispiel erklären, nur diesmal nicht direkt an der Laderampe wie bei HBM, sondern ein Stück dahinter.
Die Laderampe ist der Bereich, in dem aktiv gearbeitet wird, Kisten werden geöffnet, sortiert und weitergeschoben. Das entspricht dem DRAM. Weiter hinten befinden sich die großen Regale, in denen alles gelagert wird, das ist das NAND.
Wenn man für jeden einzelnen Arbeitsschritt jedes Mal ganz nach hinten ins Lager laufen müsste, um etwas zu holen, würde alles zwar funktionieren, aber deutlich weniger flüssig. Jetzt stell dir vor, es gibt direkt hinter der Rampe einen Bereich, in dem die Dinge liegen, die wahrscheinlich als Nächstes gebraucht werden. Nicht alles, sondern nur genug, um den Ablauf nicht ins Stocken zu bringen.
Genau dieser Zwischenbereich ist das, was Storage Class Memory darstellt. Es ersetzt weder das Lager noch erweitert es die Rampe, sondern sorgt einfach dafür, dass man nicht jedes Mal den längsten Weg gehen muss.
Was SCM im System tatsächlich verändert
Aus Systemsicht liegt der eigentliche Vorteil von SCM (Storage Class Memory) nicht darin, dass es extrem viel schneller ist als alles andere, sondern darin, dass es reduziert, wie oft der langsamste Weg genutzt werden muss. Dieser Unterschied ist entscheidend, weil Leistungsprobleme selten durch eine einzelne langsame Komponente entstehen, sondern dadurch, wie oft das System auf genau diese Komponente angewiesen ist.
Durch diese zusätzliche Schicht zwischen DRAM und NAND kann mehr Datenmaterial näher an der Verarbeitung gehalten werden, ohne die Kosten und den Energiebedarf von massiv erweitertem DRAM tragen zu müssen.
Gleichzeitig verhindert es, dass NAND für Zugriffsmuster verwendet wird, für die es ursprünglich nie gedacht war, nämlich als ständig genutzte Quelle für hochfrequenten Datenzugriff.
Genau hier beginnt auch die Grenze zwischen Speicher und Storage etwas zu verschwimmen. SCM verhält sich in der Nutzung eher wie Arbeitsspeicher, bringt aber weiterhin Eigenschaften von Storage mit, insbesondere was Dichte und Kosten betrifft. Diese Mischform ist genau das, was in modernen KI-Systemen gebraucht wird, weil die klassischen Kategorien nicht mehr sauber greifen.
Warum diese Schicht heute wichtiger wird
Technisch gesehen ist das alles kein völlig neues Konzept, aber es wird gerade deshalb relevanter, weil sich die Art der Workloads verändert hat. Die Menge an Daten, die bewegt, wiederverwendet und erneut verarbeitet wird, ist deutlich höher als in früheren Systemen.
Das belastet nicht nur die Kapazität, sondern vor allem die Effizienz des Datenzugriffs, und genau hier macht eine zusätzliche Zwischenschicht einen spürbaren Unterschied.
Auch das passt wieder zu dem, was wir im ersten Artikel gesehen haben: Die Industrie ersetzt NAND nicht, sie baut darum herum. Storage Class Memory ist ein Teil dieser Entwicklung und nimmt Druck von beiden Seiten, sowohl von DRAM als auch von NAND, ohne eine der beiden Technologien verdrängen zu wollen.
Von hier aus entwickelt sich der Stack weiter in beide Richtungen. Oberhalb entstehen spezialisierte Speicher wie HBM, während unterhalb NAND selbst angepasst wird, um sich stärker wie Speicher zu verhalten.
Das System funktioniert am Ende nicht, weil eine einzelne Schicht perfekt ist, sondern weil jede Schicht genau für die Aufgabe eingesetzt wird, für die sie am besten geeignet ist.
Hinweis zu Redaktion und Bild: Das in diesem Artikel verwendete Bild ist eine originale Vor-Ort-Aufnahme, erstellt vom Autor für GetUSB.info.
Wie dieser Artikel erstellt wurde: Der Inhalt wurde vom Autor auf Basis des technischen Themas und der redaktionellen Ausrichtung entwickelt. KI-Tools wurden verwendet, um Rhythmus und Struktur des Artikels zu unterstützen, die finale Prüfung und Freigabe erfolgte durch den Autor.
Tags:DRAM vs NAND, Enterprise Storage, KI Speicherhierarchie, SCM, Storage Class Memory
