Historie 2011
15.Dezember 2011: Peter Gottschling (TU Dresden, Institut für Wissenschaftliches Rechnen) "Property-aware Programming with Semantic C++ Concepts"
Reusability and performance are criteria aimed for by every software development. The most successful programming paradigm in this regard is generic programming. Functions are not limited to specific types but usable by any type that satisfies certain requirements -- formalized by so-called concepts while static polymorphism and specialization enable optimal performance. Property-aware programming focuses specifically on semantic concepts. Expressing the semantic behavior within program sources allows for a new quality of reliability in production software by using concept-enabled compilers and novel testing tools. Semantic concepts also enable a generic manner of performance optimization. State-of-the-art techniques and new approaches will be presented in this talk.
24. November 2011: Udo Schäfer (Alcatel-Lucent) "Neue Möglichkeiten im Rechenzentrum mit optischer Netzwerktechnik": Dass die Menge der weltweit gespeicherten Daten massiv wächst, sich zusätzlich das Nutzerverhalten im Internet derart verändert und immer mehr Nutzer ständig steigende Datenmengen über das Internet transportieren, hat gravierende Auswirkungen auf das Internet und all seine Bestandteile. Neben dem reinen Transport der relevanten Daten betrifft dies im wesentlichen auch die Rechenzentren im In- und Ausland, auf denen physikalisch die Daten gespeichert sind, auf die die Nutzer zugreifen. Waren diese Daten in der Vergangenheit wenige Textdateien oder Bilder geringer Auflösung so sind dies heute umfangreiche Bibliotheken hochqualitativer Aufnahmen in Bild und Ton. Konnten diese Daten in der Vergangenheit nahezu beliebig oft repliziert und damit ideal für den Fall vorgehalten werden, dass der Nutzer sie irgendwann einmal abruft, so hat sich dies grundlegend dahingehend geändert, dass Rechenzentren konsolidiert und replizierte Daten „dedupliziert“ werden. Neben der Einsparung der früher üblichen Mehrfachkopien ist es damit wesentlich einfacher gespeicherte Daten konsistent zu halten - ein Abgleich von Kopien entfällt. Die Rechenzentren der Zukunft werden damit in Summe wesentlich weniger an der Zahl sein aber dafür deutlich mehr Aufgaben zu bewältigen und Daten von und für unterschiedlichste Arten der Nutzung bereitzustellen haben. Dazu wird sowohl innerhalb des Rechenzentrums als auch im Verbindungsnetz nach außen quasi ausschließlich auf Glasfasertechnik gesetzt, die erhebliche Vorteile bietet. Die Glasfaser kann im Gegensatz zu herkömmlicher Technik wesentlich mehr Daten transportieren und minimiert Signallaufzeiten quasi zur reinen Lichtgeschwindigkeit. Diese Möglichkeiten wurden in unserem gemeinschaftlichen Projekt untersucht, in das Alcatel-Lucent neue 100 Gigabit/s basierte Technik eingebracht hat. So konnten erste Ergebnisse erzielt werden, was mit dieser Technik prinzipiell möglich ist und in welche Richtung sich sowohl die Rechenzentren als auch das Internet entwickeln können. Im Vortrag werden die wesentlichen Ergebnisse der Untersuchungen dargestellt und auf die Zukunft übertragen um so eine gemeinsame Vision zu entwickeln, die im Zusammenspiel als das Internet der Zukunft die Basis für nahezu alle Forschungsaktivitäten sein wird.
27.Oktober 2011: Michael Hiller (Max-Planck-Institut für Molekulare Zellbiologie und Genetik & Max-Planck-Institut für Physik komplexer Systeme Dresden) "Discovering genomic regions involved in phenotypic differences between species"
Evolution has led to an incredible diversity of phenotypes in all species. Such phenotypic differences between species are due to differences in their genomic DNA sequence. However, while the genomes of many species have been sequenced, we know very little about what in the genome underlies phenotypic differences. In the talk, I will present a computational approach to study such phenotypic differences between species using the power of comparative and evolutionary genomics.
22. September 2011: Ingo Röder (Institut für Medizinische Informatik und Biometrie , TU Dresden) "Automatic tracking and quantification of dynamic cellular characteristics"
The continuous analysis of individual cell fates within a population of cells is still a major experimental challenge. However, new monitoring techniques, such as high-resolution time-lapse video microscopy, facilitate the tracking and the quantitative analysis of single cells and their progeny. The obtained information, e.g. on cellular development, divisional history, and differentiation of individual cells, can be comprised into a pedigree-like structure, denoted as cellular genealogy. To go beyond a pure descriptive analysis of this type of data and to statistically extract reliable information about effecting variables and control mechanisms underlying cell fate decisions, it is necessary to analyse large numbers of cellular genealogies. This requires the development and application of automatic cell tracking algorithms.
In the talk I will present computational methods that allow for the automatic segmentation (recognition) and tracking of individual cells and, based hereon, the reconstruction of cellular genealogies from time-lapse video data. In particular, the talk will report about a study that applied the tracking algorithms to human haematopoietic stem and progenitor cells (HSPCs) in bioengineered culture conditions over several days. Combination of genealogical information and of dynamic profiles of cellular properties allowed us to identify a marked symmetry between siblings HSPCs, e.g. with respect to cell cycle time, migration speed, and cell growth kinetics. The proposed automated procedure further allowed us to demonstrate that this symmetry of HSPC siblings can be altered by exogenous cues of the local biomimetic microenvironment.
25. August 2011: Georg Hager, RRZE, Friedrich-Alexander Universität Erlangen-Nürnberg "Monitoring, Accounting und Nutzerverwaltung auf den HPC-Systemen des RRZE" (Folien)
Monitoring, Accounting und Nutzerverwaltung sind zentrale Komponenten im Betrieb einer HPC-Infrastruktur. Der Vortrag stellt die am Regionalen Rechenzentrum Erlangen (RRZE) heute genutzten Werkzeuge vor: Tools für das Auslesen von Hardware Performance Countern auf x86-Systemen zum Zwecke der Analyse einzelner Applikationen und zum Monitoring des Gesamtsystems, eine flexible Datenbank-basierte Lösung für das Rechenzeit-Accounting, und die Nutzerverwaltung für HPC unter den Randbedingungen eines universitätsweiten IDM-Systems.
28. Juni 2011: Craig A. Stewart (Executive Director Pervasive Technology Institute, Associate Dean Research Technologies, Indiana University): "Campus Bridging - what is it and why should you care?"
In early 2009, the US National Science Foundation's Advisory Committee for Cyberinfrastructure charged six task forces to give recommendations to the NSF about future programs. One of them was a task force on 'campus bridging.' No one quite knew what that meant at the time - so the task force developed its own definition: "Campus bridging is the seamlessly integrated use of cyberinfrastructure operated by a scientist or engineer with other cyberinfrastructure on the scientist’s campus, at other campuses, and at the regional, national, and international levels as if they were proximate to the scientist, and when working within the context of a Virtual Organization (VO) make the ‘virtual’ aspect of the organization irrelevant (or helpful) to the work of the VO."
Craig Stewart, Chair of the ACCI task force on Campus Bridging, will talk about campus bridging, and how this initiative within the NSF is likely to lead to:
- New steps to make local and national cyberinfrastructure systems as much like each other as possible
- New steps to ensure that all of the US' research and education cyberinfrastructure is as well used as possible.
- More information about campus bridging is available online.
23. Juni 2011: Bernd Schuller (Jülich Supercomputing Centre) "Verteiltes Rechnen mit UNICORE: Gegenwart und Zukunft" (Folien )
In der Landschaft des verteilten Rechnens werden neben traditionellen Hochleistungsrechnern und Grid-Infrastrukturen wie EGI die virtualisierten Systeme beziehungsweise Clouds immer wichtiger. Dabei sollen oft mehrere dieser Systeme im Rahmen einer einzigen Anwendung verwendet werden. Die UNICORE Middleware bietet einen einheitlichen, sicheren Zugang zu entfernten Rechnern und Daten, und kann dem Anwender helfen, die vielfältigen Möglichkeiten optimal zu nutzen. Dabei werden in Zukunft Aspekte wie kollaboratives Arbeiten, effizienter und sicherer Transfer grosser Datenmengen und eine ausgefeilte Metadaten-Verwaltung eine entscheidende Rolle spielen.
26. Mai 2011: Torsten Höfler (University of Illinois, Urbana/USA): "On System Noise and Large-scale Parallel Applications" (Folien)
System noise is increasingly a concern as HPC systems continue to grow in scale. This talk presents an in-depth analysis of the impact of system noise on large-scale parallel application performance in realistic settings. We present a model-based simulation toolchain that uses the LogGOPS model and Lamport's clock condition to inject noise delays from traces into complex communication relations. Weshow that the number of processes at which noise becomes a significant bottleneck is system-specific and depends more on the structure of the noise than its intensity. In contrast to previous studies, we show that not only collective operations but also point-to-point communications influence the application's sensitivity to noise. We also discuss the influence of noise-mitigation strategies, for example, our results verify the long-standing conjecture that co-scheduling prevents significant application slowdown. We discovered that the noise bottleneck can lead to a 100x slowdown of single collective operations and a 2x slowdow of scientific applications on very large-scale systems. Our developed tools can be utilized quantify this noise bottleneck and to tune the noise signatures of systems and applications for minimal noise propagation.
2. Mai 2011: Friedel Hoßfeld (Forschungszentrum Jülich) "Konrad Zuses 'spinnerte' Idee vom Rechnenden Raum – Ein Nachtrag zum 100. Geburtstag" (Folien)
Zurecht waren die Gedenkfeiern 2010 zum 100. Geburtstag Konrad Zuses gefüllt mit seinen epochalen Leistungen zur Entwicklung des Digitalrechners, die ihm – zwar spät, aber doch noch zu Lebzeiten – die Anerkennung als der große Computer- Pionier gebracht haben. Dabei wurde zumeist vergessen, dass Konrad Zuse sich mit anderen grundsätzlichen Fragen auseinandersetzte und daraus innovative Konzepte
schuf: Er entwickelte schon in den frühen 1960er Jahren mit der Idee der „Digitalteilchen“ den praktischen Ansatz der zellulären Automaten und nahm damit sogar die systolischen Algorithmen vorweg. Andererseits wurde seine Idee vom „Rechnenden Raum“ in der Welt der Wissenschaft nicht ernst genommen; seine Folgerung, dass das Universum „körnig“ und ein gigantischer Automat sei und demzufolge alle Prozesse in Raum und Zeit in diskreten Sprüngen ablaufen müssten, wurde als irrige Spekulation abgetan. In diesem Vortrag wird der Versuch unternommen, Zuses Idee vom „Rechnenden Raum“ im Licht der aktuellen spekulativen Modelle der Physik und Kosmologie neu zu betrachten.
28. April 2011: Sarah Grzemski, Benedikt Magrean (RWTH Aachen) "IT-Servicemanagement - ITIL und dessen Umsetzung an der RWTH Aachen" (Folien Teil 1 , Folien Teil 2)
In den letzten Jahren hat das Rechen- und Kommunikationszentrum der RWTH Aachen University (RZ) den Wandel zu einem modernen, kundenorientierten IT-Dienstleister angestoßen, der seine Dienste und Services nach dem Industriestandard ITIL® strukturiert. Dem RZ ist es wichtig, Studierende, Mitarbeiter und Institute noch mehr als Kunden zu begreifen, die definierte IT-Services in Anspruch nehmen können. Um dies zu erreichen, wurde IT-Servicemanagment nach ITIL® eingeführt. Nach knapp 2 Jahren ist insbesondere das Incident-Management mit Service Desk eingeführt und etabliert. Eine integrierte ITSM-Softwarelösung wird in den nächsten Monaten eingeführt. Im Zuge der Einführung weiterer Prozesse werden im Sommer 2011 Problem-, Configuration- und Change Management etabliert.
28. April 2011: Jens Ludwig (SUB Göttingen) "Langzeitarchivierung von Forschungsdaten" (Folien)
Die Langzeitarchivierung digitaler Daten bedeutet in einem ganz allgemeinen Sinn, dass digitale Daten in der Zukunft noch nutzbar sind. Angesichts der Fehleranfälligkeit von Datenträgern, des rapiden Technologiewandels in Hard- und Software oder der sich änderndern organisatorischen und finanziellen Rahmenbedinungen sind Institutionen mit einer Reihe von Herausforderungen konfrontiert, wenn sie für Datenbestände längerfristig die Verantwortung übernehmen wollen.
Besondere Sorgen bereiten vielen Institutionen derzeit Forschungsdaten (wie z.B. die Messdaten des LHC, biologische Beobachtungsdaten oder Klimasimulationsdaten). Die DFG verlangt als Teil der Regeln zur guten wissenschaftlichen Praxis, dass Forschungsdaten, die einer Publikation zugrunde liegen, zumindest zehn Jahre sicher aufbewahrt werden. Aber angesichts der immensen Aufwände, die in die Erzeugung von Forschungsdaten investiert werden, ist es oft sinnvoll, dass diese Investitionen auch längerfristig nachnutzbar sind.
Entsprechend der Natur der Langzeitarchivierung wird der Vortrag keine technische Lösung präsentieren, sondern die Herausforderungen und verschiedene Lösungsstrategien darstellen und den internationalen Entwicklungsstand skizzieren.
24. März 2011: Karl Fuerlinger (Ludwig-Maximilians-Universität München, Institut für Informatik) "Integrated Performance Measurement with IPM"
IPM is an efficient workload characterization and performance profiling tool developed in collaboration between the Lawrence Berkeley Lab NERSC center and the Ludwig-Maximilians-University (LMU) Munich. IPM focuses on a low overhead operation (typically less than 1% runtime overhead and a fixed, low memory footprint) to enable the regular monitoring of applications during production runs instead of an ad-hoc performance tuning setting. The talk presents an overview of the design and implementation of IPM and outlines plans for future development.
24. Februar 2011: Andreas Beyer (BIOTEC, TU Dresden) "Analysis of Genetic Networks"
The sequence of the human genome is known for 10 years by now. Since then we know that we have between 20,000 and 25,000 protein coding genes, which is in fact much less than anticipated before. Another puzzling fact is that each cell in our body has an identical genome, yet, we have hundreds of different cell types and each cell type shows a range of possible responses to external stimuli. How can a single genome lead to and control so many different cellular responses (phenotypes)?
It turns out that the complexity of an organism seems to be reflected much better by the interactions between genes rather than by the number of genes. Hence, it is the network of genetic interactions that we need to elucidate in order to understand how genes exhibit their
function and how cells establish the enormous complexity of phenotypes.
In this colloquium I will present innovative computational methods for the elucidation of genetic networks that my group has developed during the last three years. I will show how we can detect complex genetic interactions at a genome-wide scale, I will address differences between analyzing the regulation of molecular phenotypes (such as the activity of single genes) versus high-level phenotypes (such as survival of an individual) and I will discuss specific computational and statistical challenges.
10. Januar 2011: Barbara Chapman (University of Houston, USA) "Toward an exascale Programming environment"