Rechencluster
![]() |
Im September 2019 haben die Institute für Technische Chemie, für Physikalische Chemie, das Rechenzentrum der TU Clausthal und das Simulationswissenschaftliche Zentrum Clausthal-Göttingen gemeinsam einen Rechencluster, der allen Wissenschaftlern der TU Clausthal sowie Mitgliedern des SWZ für Forschungsfragestellungen zur Verfügung steht, in Betrieb genommen.
Technische Daten
Der Rechencluster besteht aus vier Knoten. Bei den vier Rechenknoten handelt es sich um 2-Sockel-Systems, die jeweils mit zwei AMD Epyc Prozessoren bestückt sind. Damit verfügt jeder Knoten über 32 oder 64 physische Prozessorkerne. Drei der Systeme sind mit jeweils 1 TB Arbeitsspeicher ausgestattet, ein System verfügt über 512 GB.
Einer der Knoten ist ohne weitere Freischaltungen für alle Mitarbeiter und Studierenden der TU Clausthal frei zugänglich. Für die drei anderen Knoten ist eine explizite Freischaltung notwendig (siehe Kontaktdaten unten). Eine gesonderte Beantragung von Rechenzeit ist für die Nutzung des Rechenclusters nicht erforderlich.
- Knoten 1:
Netzwerkname: as.rz.tu-clausthal.de ("Application Server")
CPUs: 2x AMD Epyc 7281 (insgesamt 32 physische Kerne)
RAM: 1024 GB
Festspeicher: Anbindung an das Storage-System der TU Clausthal
Zugang: Bereits für alle TUC-Accounts freigeschaltet
- Knoten 2:
Netzwerkname: cloud-244.rz.tu-clausthal.de
CPUs: 2x AMD Epyc 7282 (insgesamt 32 physische Kerne)
RAM: 1024 GB
Festspeicher: Anbindung an das Storage-System der TU Clausthal
Zugang: formlos auf Anfrage, projektbezogen
- Knoten 3:
Netzwerkname: cloud-248.rz.tu-clausthal.de
CPUs: 2x AMD Epyc 7281 (insgesamt 32 physische Kerne)
RAM: 512 GB
Festspeicher: Anbindung an das Storage-System der TU Clausthal
Zugang: formlos auf Anfrage
- Knoten 4:
Netzwerkname: cloud-243.rz.tu-clausthal.de
CPUs: 2x AMD Epyc 7502 (insgesamt 64 physische Kerne)
Rechenbeschleuniger: Nvidia Tesla T4, Nvidia A100
RAM: 1024 GB
Festspeicher: Anbindung an das Storage-System der TU Clausthal
Zugang: formlos auf Anfrage
Installierte Software
Prinzipiell kann jede wissenschaftliche Software, die entweder in Form einer Campus-Lizenz an der TU Clausthal verfügbar ist oder generell Opensource ist, auf dem Rechencluster installiert werden. Folgende Programme stehen bereits auf dem System zur Verfügung (wobei diese Liste keinen Anspruch auf Vollständigkeit hat):
- Ansys v195
- Java
- MatLab
Zugang
- Der Zugriff auf die Systeme erfolgt unter Linux über den SSH-Clienten des jeweiligen Systems. Unter Windows kann z.B. PuTTY für die Steuerung oder auch X2Go für die grafische Nutzung verwendet werden.
- Die Netzwerkfreigabe \\nas.tu-clausthal.de\unix-home$ wird auf den Rechenknoten als Home-Verzechnis eingeblendet. (Weitere Informationen zur Nutzung der RZ-Dateiablage siehe DokuWiki.)
- Der Zugriff per PuTTY und auf Dateiebene über die Netzwerkfreigabe ist nur aus dem Netz der TU Clausthal oder alternativ über eine VPN-Verbindung möglich.
- Der Rechenknoten as.rz.tu-clausthal.de steht allen Studierenden und Mitarbeitern der TU Clausthal ohne weitere Registrierung zur Verfügung. Für die anderen beiden Knoten ist eine explizite Freischaltung erforderlich. Eine Anfrage hierzu kann formlos per E-Mail an support@rz.tu-clausthal.de erfolgen und bedarf keiner weiteren Begründung.
- Aufgrund der begrenzten Größe des Systems und um den Zugang nicht unnötig kompliziert zu gestalten, verfügen die Rechenknoten über kein Batch-System zur Zuweisung von Rechenleistung. Wenn größere Rechenzeitkontingente oder die verlässlichere Verfügbarkeit bestimmter Rechenleistungen verlangt wird, so kann z.B. auf den HLRN zurückgegriffen werden.
- Im TUChat steht außerdem ein privater Kanal zur Verfügung, in dem sich die Nutzer des Clusters Austauschen können und in Bezug auf die Nutzung der Ressourcen absprechen können.
Pressemitteilung der TU Clausthal vom 12.9.2019
Digitalisierung: Neuer Rechencluster in Betrieb
Chemie, Simulationswissenschaftliches Zentrum und Rechenzentrum nutzen gemeinsam leistungsstarken zentralen Rechenserver
Bei Digitalisierung ist oftmals von einem Querschnittsthema die Rede, für das an Universitäten Synergien genutzt werden sollen. Wie so etwas aussehen kann, zeigt ein Gemeinschaftsprojekt, das von dem Institut für Technische Chemie und dem Simulationswissenschaftlichen Zentrum (SWZ) an der TU Clausthal initiiert worden ist. Ein halbes Dutzend Institute und Einrichtungen nutzen mittlerweile im Verbund einen leistungsstarken zentralen Compute-Server. Weitere Nutzer sind im gerade gestarteten Verbund willkommen. [...]
Vollständige Meldung siehe: TU-Homepage
Pressemitteilung der TU Clausthal vom 10.9.2020
Digitalisierung in der Forschung schreitet an der TU voran
Leistungsstarker zentraler Rechenserver konnte dank finanzieller Mittel aus dem neuen Sonderforschungsbereich „Sauerstofffreie Produktion“ aufgerüstet werden.
Vor einem Jahr haben zwei chemische Institute der TU Clausthal, das Simulationswissenschaftliche Zentrum Clausthal-Göttingen (SWZ) und das Rechenzentrum in einem Gemeinschaftsprojekt einen neuen Rechencluster in Betrieb genommen. Inzwischen sind mehr als ein halbes Dutzend Einrichtungen daran beteiligt und der Verbund-CPU-Cluster ist in puncto Leistung bzw. Geschwindigkeit um einen vierten Rechenknoten mit zwei Beschleunigerkarten (GPU und FPGA) ausgebaut worden. [...]
Vollständige Meldung siehe: TU-Homepage
Pressemitteilung der TU Clausthal vom 27.9.2022
Gemeinsame IT-Infrastruktur für die Forschung
Zentraler Rechencluster der ist mit Mitteln des Simulationswissenschaftlichen Zentrums Clausthal-Göttingen um eine NVIDIA A100 erweitert worden
An der TU Clausthal hat sich ein durch mehrere Forschungsgruppen gemeinsam genutzter, vom Simulationswissenschaftlichen Zentrum Clausthal-Göttingen (SWZ) koordinierter Compute-Cluster etabliert. Der 2019 initial eingerichtete und seitdem aufgrund steigender Nutzerzahlen kontinuierlich ausgebaute Cluster bietet als gemeinsame Infrastruktur gegenüber kleineren Insellösungen erhebliche Synergieeffekte und fördert durch das Zusammenführen von Know how die interdisziplinäre Zusammenarbeit. Die im August 2022 aus Mitteln des SWZ angeschaffte und in das System integrierte NVIDIA A100 GPU erweitert die Möglichkeiten des Clusters nun insbesondere im Bereich des Deep Learnings sowie in Bezug auf Simulationsmodelle, die wiederkehrende Rechenoperationen auf große Datenmengen anwenden, erheblich. [...]
Vollständige Meldung siehe: TU-Homepage
Kontakt
- Institut für Technische Chemie
Dr. Marco Drache
E-Mail: Marco.Drache@tu-clausthal.de
Telefon: +49 5323 72-2048
- Simulationswissenschaftliches Zentrum Clausthal-Göttingen
Dr. Alexander Herzog
E-Mail: Alexander.Herzog@tu-clausthal.de
Telefon: +49 5323 72-2966
- Rechenzentrum (insbesondere für technische Fragen)
E-Mail: support@rz.tu-clausthal.de