• Zielgruppen
  • Suche
 

Neuer Teilcluster "Dumbo" für Big Data Anwendungen / New subcluster "Dumbo" for Big Data Applications

Im Batchsystem des Scientific Computing Clusters des LUIS wurde ein neuer Teilcluster aus 18 Rechenknoten integriert. Aufgrund der Hardware-Ausstattung der Maschinen sind diese besonders geeignet für Big Data Anwendungen wie Hadoop, Spark etc., weswegen die Partition auf den Namen "Dumbo" getauft wurde.

Alle Knoten sind mit jeweils 40 CPU-Kernen (Intel Xeon E5-4650v2 @2.40GHz), 512 GB RAM und 21 TB lokalem Festplattenplatz im Verzeichnis /scratch ausgestattet.

Hinweise zur Verwendung finden sich im um ein Kapitel ergänzten Clusterhandbuch auf der Homepage von Scientific Computing. Bei Fragen steht das Team gerne unter cluster-helpluis.uni-hannover.de zur Verfügung.