Digital Realty enthüllt High
Digital Realty hat die Unterstützung von High-Density-Bereitstellungen von bis zu 70 Kilowatt pro Rack angekündigt, um von der wachsenden Nachfrage nach KI- und High-Performance-Computing-Workloads (HPC) zu profitieren.
Obwohl High-Density-Bereitstellungen bei Colo-Anbietern nichts Neues sind, sind sie weit von der Norm entfernt. Ein typisches Rechenzentrums-Rack unterstützt möglicherweise Bereitstellungen zwischen 6 und 10 kW. Für Kunden, die mehr Leistung benötigen, konnten Bit-Scheunen wie Digital Realty jedoch Leistungsdichten von bis zu 90 kW unterstützen, sagte CTO Chris Sharp letzten Monat unserer Schwesterseite The Next Platform.
Der Ankündigung vom Montag zufolge will Digital Realty dichte Rack-Bereitstellungen leichter zugänglich machen, indem die Konfigurationen für bestimmte Arbeitslasten standardisiert werden, einschließlich stromhungriger generativer KI-Trainings und -Inferenz.
Diese hochdichten Dienste unterstützen Konfigurationen von bis zu 70 kW und sind jetzt in 28 Märkten in den meisten Regionen der Welt verfügbar. Auch wenn das nach viel Watt klingt, reicht es aus, zwischen fünf und sechs GPU-Knoten der Spitzenklasse pro Rack zu benötigen, wobei noch Platz für Speicher und Hochgeschwindigkeitsnetzwerke bleibt.
Natürlich wird die gesamte Energie letztendlich in Wärme umgewandelt. Um dem entgegenzuwirken, nutzt der Colo eine „luftunterstützte Flüssigkeitskühlung“. Wir haben uns an Digital Realty gewandt, um genauer zu erfahren, welche Technologien dies umfasst, aber basierend auf früheren Gesprächen mit Digital Realty können wir vermuten, dass es sich um Rear-Door-Wärmetauscher (RDHx) handelt.
Die Art der RDHx-Technologie, die Digital Realty einsetzt, kann mit großen Heizkörpern verglichen werden, die an der Rückseite eines Racks angeschraubt werden. Während Kühlmittel durch den Kühler fließt – entweder aus dem Wassersystem der Anlage oder einem geschlossenen Kreislaufsystem im Gang – entzieht es der Luft Wärme, während sie von den Servern abgesaugt wird. RDHx haben sich bei Colocation-Anbietern als beliebt erwiesen, da sie eine höhere Rack-Leistung und Wärmedichte ermöglichen und gleichzeitig die Litanei widersprüchlicher Standards vermeiden, die mit der Einführung direkter Flüssigkeits- oder Tauchkühlungstechnologie einhergehen.
Wie wir wissen, werden Chips im Allgemeinen immer heißer – ein Problem, auf das das Uptime Institute Anfang des Jahres hingewiesen hat.
Mit der Einführung der Prozessoren der vierten Generation von Intel und AMD sind die leistungsstärksten CPUs der Chiphersteller nun in der Lage, 350 W bzw. 400 W zu verbrauchen. Es wird erwartet, dass die Teile der nächsten Generation von beiden Chipherstellern noch mehr Strom verbrauchen. Die Instinct MI300A APU von AMD beispielsweise ist für 850 W ausgelegt, wenn sie später in diesem Jahr auf den Markt kommt.
„Wenn man sich die Silizium-Roadmaps von Intel, Nvidia und AMD anschaut, sind diese Dinge Raumheizer“, witzelte Zachary Smith, Global Head of Edge Infrastructure Services bei Equinix, letzten Herbst in einem Interview mit The Register.
Als Gegenleistung für diesen höheren Stromverbrauch konnten Chiphersteller mehr, schnellere Kerne einbauen. Im Idealfall kommen Kunden so mit weniger Servern aus. Wie AMD bei der Einführung des Genoa-Prozessors im letzten Herbst behauptete, bedeuteten die höheren Kernzahlen seiner Chips, dass Kunden mit seinen Chips 15 Intel Ice Lake-Systeme der Spitzenklasse auf nur fünf zusammenfassen könnten. Aber wie Uptime feststellte, sind nur wenige ältere Rechenzentren wirklich dafür gerüstet, mit derart dichten Systemen zurechtzukommen. Und wenn die Rackkapazitäten nicht erhöht werden, könnte wertvoller Schrankraum verschwendet werden.
Digital Realty ist nicht der einzige Colocation-Anbieter, der sich den veränderten Strom- und Wärmeanforderungen anpasst. In einem Blogbeitrag am Montag hob Equinix viele der Herausforderungen hervor, die mit der Unterstützung der groß angelegten KI-Einführung in seinen Rechenzentren verbunden sind.
„Generative KI-Trainings-Workloads können mehrere Megawatt Strom verbrauchen, daher müssen Rechenzentren Stromkreise bereitstellen, die mehr Strom zu den Racks transportieren können“, heißt es im Blogbeitrag. „Da generative KI-GPU-Racks mehr als 30 kW Leistung pro Rack verbrauchen können, ist die herkömmliche Luftkühlung nicht effizient genug.“
Die DGX H100-Systeme von Nvidia sind beispielsweise für eine Leistung von 10,2 kW pro Stück ausgelegt und für den Einsatz zu viert in einem Rack konzipiert, um die hohe Bandbreitenstruktur zu nutzen, die zur Vernetzung der GPUs verwendet wird.
In einem Interview mit The Register in diesem Frühjahr sagte Holland Barry, CTO von Cyxtera Field, dass der Colocation-Anbieter eine erhöhte Nachfrage nach 30-34-Kilowatt-Racks zur Bewältigung seiner HPC-Arbeitslasten verzeichnen würde. Im Extremfall, so Barry, habe das Unternehmen Anfragen für bis zu 100 kW pro einzelnem Rack gesehen.
Andere Colocation-Anbieter setzen inzwischen ganz auf HPC und KI und bauen speziell auf diesen Anwendungsfall zugeschnittene Einrichtungen. Ein Beispiel ist Colovore, das ein 9-Megawatt-Rechenzentrum in Santa Clara, Kalifornien, ankündigte, das bei seiner Inbetriebnahme im nächsten Jahr Rackdichten von bis zu 250 kW mit direkter Flüssigkeitskühlung unterstützen würde. ®
Senden Sie uns Neuigkeiten
55Holen Sie sich unser5