• Zielgruppen
  • Suche
 

Scientific Computing – Kurzbeschreibung

Allgemeine Beschreibung

Um den Grundbedarf der Universität an Rechnern mit erhöhter CPU-Leistung und/oder erhöhtem Speicherbedarf für rechenintensive, simulationsbezogene Forschungen abzudecken, bietet das Rechenzentrum massiv parallele Rechnersysteme und Maschinen mit besonders viel Hauptspeicher an.  Das Clustersystem steht allen Mitarbeiterinnen und Mitarbeitern der Leibniz Universität Hannover kostenfrei zur Verfügung.

Neben der Bereitstellung der Hardware und allgemeiner Systemadministration kümmern sich unsere Fachberater auch um Fragen und Probleme der Nutzer und bieten Einführungsvorträge zum Thema Scientific Computing an.

Der Service Scientific Computing bietet sich immer dann an, wenn die am Institut verfügbare Rechenleistung nicht mehr ausreicht.

Das Scientific Computing ist eng verzahnt mit dem Service Forschungscluster-Housing, mit dem wir Instituten anbieten, deren Hardware in den Cluster zu integrieren und zu betreiben. Die Ressourcen des Forschungscluster-Housing sind ein wichtiger Bestandteil des Clustersystems, die Eigentümer der Maschinen haben bei der Nutzung allerdings Vorrang.

Leistungsumfang

Scientific Computing bietet

  • Zugang zum Clustersystem mit derzeit ca. 300 Rechenknoten
  • Nutzung freier Ressourcen des Forschungscluster-Housing (prioritäres Nutzungsrecht für die jeweiligen Eigentümer, siehe Forschungscluster-Housing)
  • zentrale Storagesysteme (HOME, BIGWORK und PROJECT)
  • ein zentrales Batchsystem
  • ein zentrales Software-Verzeichnis
  • Installation von besonderer Software unter der Voraussetzung einer Einzelabsprache (z.B. Systemeignung, Finanzierung) grundsätzlich möglich
  • Telefon-Support
  • E-Mail-Support
  • System-Monitoring
  • Einführungsveranstaltungen (auch auf Anfrage)

Service-spezifische funktionale Parameter

  • maximale Anzahl gleichzeitig laufender Jobs pro Nutzer: 64
  • maximale Anzahl  gleichzeitig verwendeter Prozessorkerne pro Nutzer: 768
  • maximale Job-Laufzeit: 200 Stunden
  • maximale Anzahl Jobs in der Warteschlange je Nutzer: 2000
  • Festplattenquota pro Nutzer im HOME-Bereich: 10 GB
  • Festplattenquota pro Nutzer im BIGWORK-Bereich: 1 TB
  • Festplattenquota pro Gruppe im PROJECT-Bereich: 10 TB
  • Zugriff auf die Login-Knoten per SSH und grafisch möglich
  • Zugriff auf Rechenknoten nur über das Batchsystem
  • personengebundene Accounts: maximal 1 Account pro Nutzer, maximal 1 Nutzer pro Account
  • pro zugehörigem Institut mindestens ein aktives Projekt im Benutzer Informations- und Administrierungs-Service (BIAS) des Rechenzentrums