DPG Phi
Verhandlungen
Verhandlungen
DPG

Hamburg 2016 – wissenschaftliches Programm

Bereiche | Tage | Auswahl | Suche | Aktualisierungen | Downloads | Hilfe

T: Fachverband Teilchenphysik

T 97: Grid-Computing

T 97.2: Vortrag

Donnerstag, 3. März 2016, 17:00–17:15, VMP8 SR 05

Daten-intensive Arbeitsflüsse in der CloudGen Kawamura1, Oliver Keeble2, Arnulf Quadt1 und •Gerhard Rzehorz1,21II. Physikalisches Institut, Georg-August Universität Göttingen — 2IT Department, CERN

Cloud Computing, insbesondere von kommerziellen Anbietern, wird für die Experimente des LHC fast ausschließlich für wenig Daten-intensive Arbeitsflüsse verwendet. In der Regel sind dies Monte-Carlo Simulationen die einen sehr geringen Dateneingang und einen geringen Datenausgang verzeichnen. Dies kommt daher, dass nur Computingpower, nicht aber permanenter Speicher in der Cloud genutzt wird. Um zu untersuchen, ob es rentabel wäre, datenintensivere Arbeitsflüsse (z.B. Rohdaten Rekonstruktion) in der Cloud auszuführen, müssen mehrere Dinge untersucht werden. Dies beginnt mit der Frage, wie genau man einen datenintensiveren Arbeitsfluss am Besten in der Cloud ausführt. Fügt man permanenten Speicher hinzu (in Analogie zu einem Grid Computingzentrum)? Streamt man die Daten am besten von den existierenden Datenzentren mit globalen Zugriffsmethoden (z.B. Federated Access in ATLAS, SRM)? Wie stark beeinflusst die Nähe zu den Daten die Effizienz (Wallclock Zeit)? Kann eine erhöhte Effizienz durch Latenzzeit-Verschleierungsmethoden (z.B. Overcommittment für die CPU-Ressourcennutzung) erreicht werden? Um diese Fragen zu beantworten, werden Tests zunächst an lokalen virtuellen Maschinen und dann bei unterschiedlichen Cloud Anbietern durchgeführt und verglichen.

100% | Mobil-Ansicht | English Version | Kontakt/Impressum/Datenschutz
DPG-Physik > DPG-Verhandlungen > 2016 > Hamburg