- De
- En
„Grete“, benannt nach Grete Hermann (1901-1984), die als Doktorandin Emmy Noethers an der Universität Göttingen grundlegende Arbeiten für die Computeralgebra leistete, ist ein auf Grafikprozessoren (GPU) basiertes High-Performance-Computing-Cluster und erweitert das HPC-System „Emmy“ um eine besonders leistungsstarke und energieeffiziente Komponente, insbesondere im Bereich der Künstlichen Intelligenz (KI).
Am Standort Göttingen wird für den Betrieb aller HPC-Systeme eine Strategie maximaler Energieeffizienz verfolgt. Beim Design des Gesamtsystems leistet hierzu das Konzept einer Direktwasserkühlung (DLC), das sich bereits für das NHR-System „Emmy” bewährt hat, einen entscheidenden Beitrag, um den Overhead durch den Energiebedarf der Kühltechnik zu minimieren.
Im Quickstart Guide finden Sie alle notwendigen Informationen, um einen Nutzerzugang zu beantragen und auf dem System zu rechnen. Bitte beachten Sie auch unsere Richtlinie zur Nutzung unserer Systeme für Ihre Forschung.
8 Racks
Die Knoten der Phase 1 sind in 3 Racks gemeinsam mit weiteren Knoten der Phase 2 untergebracht und die verblieben Knoten der Phase 2 werden exklusiv in 5 weiteren Racks betrieben.
106 Rechenknoten
3 Rechenknoten gehören zur Phase 1 und sind mit Intel Xeon Gold 6148 SKL-SP CPU’s und Nvidia V100 32GB bestückt. Die weiteren 103 Rechenknoten der Phase 2 sind mit Zen3 EPYC 7513 bzw. Zen2 EPYC 7662 CPU’s und Nvidia A100 mit 40GB bzw. 80GB bestückt.
6.840 CPU Kerne
Diese sind verteilt über die Phase 1 mit 120 Kernen und der Phase zwei mit 6.720 Kernen.
100 Gbit/s Interconnect und 2 x 200 Gbits Interconnect
2 x 200 Gbits/s Infiniband (Grete Phase 2) und 100 Gbits/s Infiniband (Grete Phase 1) interconnects bieten niedrige Latenzen sowie hohe Bandbreiten mit einem 8:1 Blocking-Fakor Fat-Tree Topologie (16 Nodes pro Blatt), um Datenübertragungen zwischen GPUs ohne Beteiligung des Host-RAMs zu ermöglichen.
5,46 PetaFlop/s
Dieses Ergebnis wurde während des LINPACK Benchmarks erzielt, womit Grete auf Platz 142 der TOP500 Liste (Stand: November 2023) und auf Platz 16 der GREEN500 Liste (Stand: November 2023) liegt. Bei der Einrichtung des Systems war Grete deutschlandweit der energieeffizienteste Supercomputer.
49,7 TB RAM
Verteilt über alle 106 Knoten stehen 49,7 TB an Arbeitsspeicher zur Verfügung
27,5 TB VRAM
Verteilt über alle 106 Knoten stehen 27,5 TB an GPU-Speicher zur Verfügung
8,4 PiB Speicher
Insgesamt stehen 8,4 PiB an Speicherkapazität auf globalen parallelen Dateisystemen zur Verfügung, wobei sich dies in 340TiB für das GPFS-basierte Home und 8,1 PiB für das Lustre-basierte Work Dateisystem aufteilt.
6,4 PiB Bandspeicher
Zur Archivierung ihrer Ergebnisse stehen den Nutzern insgesamt 6,4 PiB an Bandspeicher mit einem 120 TiB großen Festplattencache zur Verfügung.
Weitere Details der Hardware können in der HPC-Dokumentation gefunden werden.