Martin-Luther-Universität Halle-Wittenberg

Kaltgang im Maschinensaal des ITZ

Kontakt

Helpdesk

Telefon: 0345 55 21 888

Kurt-Mothes-Str. 1
06120 Halle (Saale)

Sie erreichen uns
Montag - Freitag von
9:00 Uhr - 15:00 Uhr

Weiteres

Login für Redakteure

1. Potentielle Nutzer IBM-575 HPC-Cluster in Halle

  • Das System sollte für alle Nutzer der Universität interessant sein, die solche Ansprüche an Performance (CPU- v.a. aber Memory- und I/O-intensive Jobs), Skalierung paralleler Jobs (!!!)  und  Durchsatz haben, die mit den an der Universität bislang verfügbaren Intel/AMD-Clustern nicht zufriedenstellend realisierbar sind
  • Ein eher typisches Bsp. zur Performance: 16-way paralleler Gaussian Job im Vgl. zu „Galaxy“ Sun-Opteron-Cluster mit 16-way-SMP-Opteron/2,4Ghz-16Core-Node(s) Performance*6  IBM575 mit 16 CPU-SMT!!! (1 Std. IBM statt 6 Std. Sun oder 1 Tag statt 6 Tage usw.) + Durchsatz*2 , d.h. 2 Jobs pro 16 IBM-Core=32 SMT-CPU IBM statt 1Job Sun pro 16 Opteron-Core;  insges. 4 * dieser Jobs  (Gaussian-Bsp.-16-way-par.-Jobs) pro IBM-Node ohne Performanceverluste statt 1 dieser Jobs auf o. gen. SUN-Opteron-Cluster-Node oder 64-way-par. Job pro IBM575-Node mit ggf. bis linearer Skalierung möglich.
  • ein eher außergewöhnl. Bsp.: „fetter“ Gaussian Job auf o. gen. Sun-Opteron-Cluster-Node 190 Tage <-> IBM575-Node 11 Tage, d.h. bisher nicht/kaum berechenbare Probleme können nun evtl. realisierbar sein
  • Bitte prüfen sie vorab ob Ihre Anwendung auf dieser Plattform lauffähig ist: Power-Linux=SLES11_on_Power auf IBM-Power Prozessor.
  • Eigene Codes sind zunächst neu zu kompilieren, für beste Performance vorzugsweise mit den IBM-Compilern: xlf, xlc, x..., ...

Zum Seitenanfang