• Zielgruppen
  • Suche
 

Scientific Computing – Kurzbeschreibung

Allgemeine Beschreibung

Um den Grundbedarf der Universität an Rechnern mit erhöhter CPU-Leistung und/oder erhöhtem Speicherbedarf für rechenintensive, simulationsbezogene Forschungen abzudecken, bietet das Rechenzentrum massiv parallele Rechnersysteme und Maschinen mit besonders viel Hauptspeicher an.  Das Clustersystem steht allen Mitarbeiterinnen und Mitarbeitern der Leibniz Universität Hannover kostenfrei zur Verfügung.

Neben der Bereitstellung der Hardware und allgemeiner Systemadministration kümmern sich unsere Fachberater auch um Fragen und Probleme der Nutzer und bieten Einführungsvorträge zum Thema Scientific Computing an.

Der Service Scientific Computing bildet in seiner Dimensionierung und Ausgestaltung die Brücke zwischen der verfügbaren Rechenleistung an den Instituten der Universität und den Ressourcen des Hochleistungsrechners HLRN. Des Weiteren füllt das Clustersystem die Lücke für diejenigen Forschungssimulationen, die nicht zur Nutzung des HLRN-Systems zugelassen würden.

Das Scientific Computing ist eng verzahnt mit dem Service Forschungscluster-Housing. Die Ressourcen des Forschungscluster-Housing sind integrativer Bestandteil des Clustersystems, jedoch mit prioritärem Nutzungsrecht der Eigentümer für deren Maschinen.

Leistungsumfang

Scientific Computing bietet

  • Zugang zum Clustersystem mit derzeit ca. 300 Rechenknoten
  • Nutzung freier Ressourcen des Forschungscluster-Housing (prioritäres Nutzungsrecht für die jeweiligen Eigentümer, siehe Forschungscluster-Housing)
  • zentrale Storagesysteme (HOME, BIGWORK und PROJECT)
  • ein zentrales Batchsystem
  • ein zentrales Software-Verzeichnis
  • Installation von besonderer Software unter der Voraussetzung einer Einzelabsprache (z.B. Systemeignung, Finanzierung) grundsätzlich möglich
  • Telefon-Support
  • E-Mail-Support
  • System-Monitoring
  • Einführungsveranstaltungen (auf Anfrage)

Service-spezifische funktionale Parameter

  • maximale Anzahl an gleichzeitig laufenden Jobs pro Nutzer: 64
  • maximale Anzahl an gleichzeitig verwendeten Prozessoren pro Nutzer: 768
  • maximale Job-Laufzeit: 200 Stunden
  • maximale Anzahl an Jobs in der Warteschlange pro Nutzer: 2000
  • Festplattenquota pro Nutzer im HOME-Bereich: 10 GB
  • Festplattenquota pro Nutzer im BIGWORK-Bereich: 1 TB
  • Festplattenquota pro Gruppe im PROJECT-Bereich: 10 TB
  • Zugriff zu den Login-Knoten sowohl per SSH, als auch grafisch möglich
  • Zugriff zu Rechenknoten nur über das Batchsystem
  • personengebundener Account, maximal 1 Stück pro Nutzer
  • pro zugehörigem Institut mindestens ein laufendes "Projekt" im Benutzer Informations- und Administrierungs-Service (BIAS) des Rechenzentrums