Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

Info

This information is available in German and English.

🇦🇹 Deutsche Version | 🇬🇧 English Version

Anker
DE
DE
🇦🇹 Deutsch

...

...

Bitte beachten Sie

Auszug
namecluster-details
  • Der WU-Cluster läuft ausschließlich unter dem Betriebssystem Linux und erfordert den Zugriff über SSH.

Die Nutzung wird für erfahrene Benutzer:innen empfohlen, da
  • Es steht keine grafische Benutzeroberfläche zur Verfügung

steht.

...

  • .

  • Wir empfehlen die Nutzung nur für erfahrene Anwender*innen.

Zugang

Ein Login-Knoten ist Ihr zentraler Zugangspunkt zum Cluster. Hier können Benutzer:innen Damit können Sie

  • Dateien hoch- und herunterladen

...

  • Software einrichten

...

  • Jobs über den Job-Scheduler "SLURM" starten

...

...

Hardware-Spezifikationen

Insgesamt stehen 26 Knoten für Berechnungen bereit.

CPU

2x Intel Xeon Platinum 8358 mit je 32 Kernen und 2,6 GHz pro Rechenknoten

RAM

Insgesamt ~15 ca. 15 TB nutzbar

Speicher

40 TB Flashspeicher ; (Fair-Use-Prinzip. )

Hinweis
Benutzer

Sie können so viel Speicher nutzen, wie gerade verfügbar ist, müssen aber im Anschluss aufräumen.

Sollten hier noch “Probleme”


Sollten Konflikte bzw. Engpässe auftreten, werden Quoten eingeführt.

GPU

  • 8x A30 mit jeweils 24 GB VRAM auf den GPU-Knoten

;
  • 1x A30 auf dem

Loginknoten
  • Login-Knoten (nur für Vorbereitungszwecke vorgesehen!)

Insgesamt stehen 26 Knoten für Berechnungen bereit.

...

Kontaktieren Sie uns bei Fragen bezüglich des Cluster-Zugangs oder für Unterstützung unter wucluster@wu.ac.at.

Anker
EN
EN
🇬🇧 English

Panel
bgColor#4C9AFF

WU Cluster (High-Performance Computing)

...

Please note

Auszug
namecluster-details-en
  • The WU cluster runs exclusively under the Linux operating system and requires access via SSH.

  • There is no graphical user interface available.

  • We recommend its use only for experienced users.

Access

A login node is your central access point to the cluster. You can use it to

  • Upload and download files

  • set up software

  • Start jobs via the "SLURM" job scheduler

...

Hardware specifications

A total of 26 nodes are available for calculations.

CPU

2x Intel Xeon Platinum 8358 with 32 cores each and 2.6 GHz per computing node

RAM

A total of approx. 15 TB usable

Storage

40 TB flash memory (fair use principle)

Hinweis

You can use as much memory as is currently available, but you have to clean up afterwards.
If conflicts or shortages occur, quotas are introduced.

GPU

  • 8x A30 with 24 GB VRAM each on the GPU nodes

  • 1x A30 on the login node (only intended for preparation purposes!)