LUIS Services Computing
Forschungscluster-Housing

Forschungscluster-Housing

Integration von einrichtungseigener Hardware zum wissenschaftlichen Rechnen in das bestehende Clustersystem des Rechenzentrums

Wer kann den Service nutzen?

Studierende Nein
Beschäftigte Nein
Einrichtungen Ja
Administrierende Nein

Service Forschungscluster-Housing

Mit dem Service Forschungscluster-Housing kann einrichtungseigene Hardware zum wissenschaftlichen Rechnen in das bestehende Clustersystem des Rechenzentrums integriert werden.  Dabei sind bestimmte Hard- und Softwareanforderungen zu erfüllen. Die jeweilige Einrichtung erhält als Kompensation exklusive Rechenzeit auf ihrer eingebrachten Hardware.

  • Leistungsumfang

    Das Rechenzentrum stellt für die Hardware der Einrichtung die notwendige Infrastruktur zur Verfügung. Diese besteht im Wesentlichen aus Klimatisierung, Stromversorgung, USV (Unterbrechungsfreie Stromversorgung), Racks und verschiedenen Plattensystemen zur Datenspeicherung. Weiterhin wird die Softwareinfrastruktur bereitgestellt, die zur Administration der Server nötig ist. Dazu gehören Authentifizierung, Betriebssysteme, Batchsystem und Kernelmodule, um auf das parallele Dateisystem zugreifen zu können. Im Rahmen des Forschungscluster Housings werden dazu folgende Leistungen angeboten:

    • Unterstützung beim Kauf neuer Hardware
    • Installation und Verkabelung der Hardware
    • Installation und Konfiguration des im Cluster verwendeten Betriebssystems (Linux)
    • Anbindung an das zentrale Storagesystem
    • Anbindung an das zentrale Batchsystem
    • Anbindung an das zentrale Software-Verzeichnis
    • Installation von besonderer Software (falls gewünscht)
    • Software- und Betriebssystemkonfiguration
    • Telefon-Support
    • E-Mail-Support
    • System-Monitoring
    • Kennzahlen zur Auslastung (Rechenleistung, RAM) an den Bereitsteller der Hardware
    • Kosten für den Austausch defekter Hardwarekomponenten gehen zu Lasten des jeweiligen Besitzers
  • Service-spezifische funktionale Parameter
    • Maximale Wallclocktime eines Rechenjobs: 200 Stunden
    • Initiale exklusive Reservierung der Rechenzeit auf der eigenen Hardware:
      Montag bis Freitag zwischen 8 Uhr und 20 Uhr
    • Zugriff zu den Login-Knoten des Clustersystems: 24/7 (außer Wartungszeiten)
    • Wartungszeiten: 2x eine Woche/Jahr für das gesamte Clustersystem (Januar und Juli) nach Ankündigung, sofern mit Nutzungseinschränkungen zu rechnen ist.
    • Direkter SSH-Zugang zum Forschungscluster: Nein, Zugriff erfolgt nur über das Batchsystem
    • Service-Calls an den Hardware-Anbieter erfolgen bevorzugt über das Rechenzentrum
    • Festplattenquota auf den zentralen Storagesystemen: wie im Service Scientific Computing definiert
    • Administrationszugriff: keinen
    • Accountanträge über Scientific Computing
  • Voraussetzungen - Anforderungen an die Hardware

    Anforderungen an die Hardware:

    • Mindesteinstellzeit: 1 Jahr
    • Rechenknoten: 19" Rackserver passend zur Infrastruktur des Rechenzentrums
    • Generelle minimale Stückzahl der Rechenknoten: 4 (Ausnahmen nach Absprache möglich)
    • Rechenknoten benötigen:
      • Infiniband-Karte (jeweils aktuelle Generation bzw. zur Infrastruktur des Clusters passend)
      • Dual-Port Gigabit-Ethernet Karte bzw. 10 GE Karte, sofern diese auch mit 1GE betrieben werden kann
      • mindestens IPMI 2.x (für das Management der Knoten) mit Enterprise-Features
    • CPU-Typ: x64
    • Festplattengröße und -konfiguration und Hauptspeichermenge sind der Einrichtung überlassen, zum Betrieb reicht ein bootfähiges Gerät mit mindestens 100 GB

    Wir unterstützen Sie gerne bei der Beschaffung. Vor einer Beschaffung nehmen Sie bitte in jedem Fall Kontakt mit der Scientific Computing Gruppe auf, cluster-help@luis.uni-hannover.de

Beratung und Dokumentation

Dieser Service ist sehr individuell für die einzelnen Einrichtungen und Institute. Bitte nehmen Sie Kontakt mit uns auf, wenn Sie Beratungsbedarf haben.


Zur Nutzung der frisch beschafften Rechenknoten im Verbund des Clustersystems verweisen wir auf die Dokumentation des Service Scientific Computing.

Vorteile für die jeweilige Einrichtung

  • Kein Administrationsaufwand für die Einrichtung.
  • Dedizierter Zugang für Mitglieder der Einrichtung während spezifizierter Zeitintervalle.
  • Einrichtungen können das gesamte Clustersystem nutzen.
  • Reduzierte Beschaffungskosten für Einrichtungen. Dadurch kann mehr Rechenleistung für das gleiche Geld beschafft werden.

Vorteil für die LUH

  • Idle-Perioden einzelner Cluster-Rechner stehen der Nutzergemeinschaft als Rechenressource zur Verfügung.

Kontakt

Cluster-Team
Montag bis Freitag 08:00 – 17:00 Uhr
Cluster-Team
Montag bis Freitag 08:00 – 17:00 Uhr

Verwandter Service

Bereitstellung eines Clustersystems mit massiv parallelen Rechnersystemen und Maschinen mit besonders viel Hauptspeicher.