zur Startseite

Kolloquien SGS/SSE - Colloquium SGS/SSE

Summer Term 2019

31.05.2019, 10:00, room 2.013, Jan Kusterer: Extraktion anatomischer Strukturen und Darstellung durch NURBS (Bachelorarbeit)

Für biomechanische Simulationen ist es wichtig, realistische Modelle zur Verfügung zu haben. Ein Beispiel ist die Simulation der Kontraktion des Biceps brachii. Dafür werden die Modelle des Biceps, Triceps, Humerus, Radius und Ulna benötigt. Ziel dieser Bachleorarbeit ist, solch realistische Modelle zu erstellen. Dies geschieht mit Hilfe der Bilder des "Visible Human Project", welches durch 1877 Fotos den gesamten Menschen in Schichten darstellt. Nachdem die wichtigen Daten entnommen wurden und die groben Modelle voneinander getrennt wurden, wird NURBS-fitting auf die Modelle angewandt, wodurch die Modelle weiter verfeinert werden.

29.05.2019, 10:00, room 2.013, Marius Stach: Modellierung und Simulation elastischer Kabel (SimTech Projektarbeit)

Da in der industriellen Serienproduktion immer mehr auf die Arbeit von Robotern bei der Verarbeitung von Bauteilen gesetzt wird, ist es von großer Bedeutung, auch das Verhalten elastischer Bauteile, wie Schläuche und Kabel, vorhersagen zu können. In diesem Vortrag wird deshalb das dynamische Verhalten eines elastischen Kabels unter Belastung durch eine Verschiebung und Verdrehung eines Endes modelliert. Die Deformation wird auf einer zweidimensionalen Ebene unter dem Einfluss der Reibung betrachtet. Dazu wird das Problem zunächst formal beschrieben und anschließend die Bewegungsgleichung für das dynamische Verhalten mit Hilfe von Lagrange'schen Koordinaten aufgestellt. Im Anschluss wird die gewählte Implementierung des Programms zur Lösung dieser Differentialgleichung vorgestellt. Abschließend werden einige Ergebnisse numerischer Experimente vorgestellt und die Eigenschaften der Lösung diskutiert.

29.05.2019, 9:30, room 2.013, Sebastian Kreuder: Zeitliche Adaptivität und Lastbalancierung für eine Simulation der Aktivierung von Muskelfasern (Bachelorarbeit)

Die Verwendung von Simulationen ist in der heutigen Zeit in so gut wie allen wissenschaftlichen Bereichen ein probates Mittel, um Prognosen zu erstellen oder bestimmte Abläufe nachzubilden. Ein beispiel hierfür ist die Ausbreitung eines Stimulus innerhalb der Fasern eines Muskels des menschlichen Körpers. Ausgehend von der Fasermitte breitet sich dabei der Stimulus enlang der Faser bis zu deren Ende aus. Die für diese Berechnung zu lösenden Diffentialgleichungen, kombioniert mit der hohen Anzahl an Muskelfasern in einem Muskel, stellen hohe Anforderungen an die verwendeten Maschinen. Für die Simulation und Berechnung dieser komplexen Systeme sind deswegen eine hochparallele Ausführung sowie eine effiziente Implementierung der zugrundeliegenden Berechnungsabläufe notwendig. Ziel dieser Bachelorarbeit ist daher die Implementierung einer adaptiven Schrittweiten-Steuerung für das der Simulation zugrundliegende Lösungsverfahren. Die sich dadurch ergebenden Änderungen in Genauigkeit und Rechenzeit werden ausgewertet, um darauf aufbauend in einem zweiten Schritt eine möglichst effektive Lastverteilung auf die das Problem lösenden Prozesse zu erzielen.

24.04.2019, 14:00, room 0.118, Michael Vössner: Dynamische GPU-CPU Lastbalancierung

Wissenschaftliche Simulationssoftware basiert in der Regel auf sogenannten Rechen-Kerneln (engl.: compute kernel), elementaren Codesegmenten, die während der Simulation wiederholt ausgeführt werden. Grafikkarten (GPUs) eigenen sich durch ihre hoch parallele Architektur vor allem zur Beschleunigung von datenparallelen Kerneln, wie z.B. AXPY, GEMV und GEMM. In klassischen Programmiermodellen für Graffikkarten (wie CUDA) werden Kernel ausschließlich auf der GPU bzw. der CPU gestartet.Um eine bessere Auslastung der Hardware und damit eine geringe Laufzeit zu erzielen, ist das Ziel dieser Arbeit die Entwicklung eines Frameworks zur dynamischen lastbalancierten Ausführung eines einzigen Kernels auf der GPU und der CPU.

03.05.2019, 10:00, room 2.013, Moritz Widmayer: Dynamic Mode Decomposition for the Monodomain Equation in Neuromuscular System

In this thesis the dynamic mode decomposition (DMD) was implemented and applied to the resulting snapshots matrix of the monodomain equation in the neuromuscular system. The Hodgkin-Huxley model was used to obtain the snapshots. The DMD was implemented in C++ into the DiHu framework. The goal of this work was to reduce the number of dimensions of the initial snapshot data. For this, DMD calculates the Koopman operator R that is supposed to lead to the next snapshots matrix. From the eigenvalues of R, the growth rates and frequencies can be obtained, while the DMD modes can be found in the eigenvectors. For the used method of DMD, singular value decomposition (SVD) was required. This was implemented with the subroutines by LAPACK. All other matrix operations were also implemented with subroutines by either LAPACK or BLAS. The results are promising as long as the snapshots contain higher numbers of parameters and when there are more snapshots to apply DMD on.

12.04.2019, 13:30, room 0.124, Tobias Walter: Mehrgitter Verfahren für die Ausbereitung von Aktionspotentialen entlang von Muskelfasern

The neuro-muscular system is a complex multiscale coupled system, for which some chemo-electro-mechanical models are available. Realistic simulations of such models are computationally extremely demanding. One computationally challenging part of the model is the propagation of the action potential along muscle fibers. This propagation is well described by the monodomain partial differential equation (PDE). The PDE is coupled with a set of nonlinear ordinary differential equations (ODEs) resulting for example from the Hodgkin and Huxley (1952) model, which resemble ionic currents at the cell membrane. To reduce the computational cost, we would like to
apply the multigrid techniques. The purpose of the project is to implement and test some ideas for multigrid solution of the coupled system of PDE and ODEs. The method would be implemented in the under develop C++ openDihu code.

12.04.2019, 13:00, room 0.124, Vincent Wagner: Variational Inference Applied to Wiper Motor Testbench Data

If one is interested in inferring parameters from given measurements coming from an unknown function, it is often necessary to evaluate the function in several points. Since this can be very expensive, surrogate models can be deployed that approximate the underlying function. Our data are obtained by a motor-testbench at Bosch Corporate Research. A B-Spline basis on Sparse Grid points is used to interpolate the motor function. Analytic examples motivate, that gradient-based sampling techniques converge faster towards reliable parameter distributions. This is especially interesting, because B-Splines allow efficient gradient evaluations of the surrogate. Besides presenting results for gradient-based and gradient-free sampling techniques on analytic, simulated and measured data, real world data are shown and briefly examined.

Winter Term 2018/19

04.04.2019, 10:30, room 2.013, Stephen Roberts: Multifidelity sparse-grid-based uncertainty quantification for tsunami modeling

01.04.2019, 10:00, room 2.013, Tom Cesko: Implementierung einer Erweiterung zur Behandlung von Hochgeschwindigkeitseinschlag mit dem SiPER SPH-code

Zur Beschreibung von Hochgeschwindigkeitsaufprall stellt SPH (Smooth-Particle-Hydrodynamics) eine Alternative zu FEM (Finite-Element-Methods) dar. Insbesondere das Bruchverhalten kann aufgrund der numerischen Eigenschaften der beiden Methoden einfacher beschrieben werden. Um zu verstehen welche Gleichungen gelöst werden und um den Code erweitern zu können, ist der Zugriff auf den Sourcecode unabdingbar. Deshalb eignet sich der frei zugängliche, in C geschriebene SiPER SPH Code des ICVT, der allerdings bisher nur Fluide simulieren kann. Es bedarf also einer Erweiterung zur Beschreibung von Festkörpern. In einem ersten Schritt wurde eine Methode zur Modellierung einer festen Wand ausgewählt und implementiert, um den Aufprall später leicht beschreiben zu können.

18.03.2019, 13:00, room0.124, Moritz Widmayer: Dynamic Mode Decomposition for the Monodomain equation in Neuromuscular system

The neuro-muscular system is a complex multiscale coupled system, for which some chemo-electro-mechanical models are available. Realistic simulations of such models are computationally extremely demanding. The 3D continuum mechanics problem, which describes the deformation of the muscle is coupled with the 1D problem, which describes the propagation of the action potential along muscle fibers. This propagation is well described by the monodomain partial differential equation (PDE). The PDE is coupled with a set of nonlinear ordinary differential equations (ODEs), which resemble ionic currents at the cell membrane. The ODEs result from either the Hodgkin and Huxley (1952) model or the more complex Shorten model. To achieve an accurate and stable solution of the ODEs, one requires very small time steps. On the other hand, the coupled simulations undergo large physical time intervals with frequent activation of the muscle fibers. In order to accelerate the whole coupled simulation, we would like to extrapolate the solution of the monodomain equation in time instead of solving each activation period and find the activation parameter, which is required by the 3D continuum mechanics problem. The purpose of this project is to apply the higher order dynamic mode decomposion (HODMD) for the extrapolation in time.

13.03.2019, 13:00, room 2.013, Juri Schröder: Load Balancing for Multi-Physics Simulations

The super computers of today have hundreds of thousands up to several millions of cores. To exploit this huge amount of computational power, one needs sophisticated load-balancing approaches.
One application, that could potentially benefit from this, is multi-physics simulation. In a multi-physics simulation, the domain is decomposed into several subdomains based on the occurring physics. The subdomains are then handled separately by different solvers.
For this kind of simulations, load imbalance is a major source of inefficiency. This is usually due to an inappropriate distribution of cores between solvers which ideally should be in accordance with the work-load of each solver. Our first attempt to address this problem is to model the solver performance against the number of cores for each domain and then solve an integer optimization problem to find the appropriate pair of core numbers for each domain to minimize the waiting time. This work explores two different approaches to find these optimal core assignments: Regression Approach and Machine Learning. They are both built around the same principle: by predicting the run time of each individual solver the optimal core assignment can be derived.

05.03.2019, 13:00, room 2.013, Florian Klaus: Data Mining auf Dünnen Gittern in gemischter Genauigkeit

Das Klassifikationsproblem auf Dünnen Gittern durch Regression führt durch die hierarchische Struktur der dünnen Gitter zu stark abfallenden Koeffizienten auf hohen Leveln. Zudem sind die verwendeten Datensätze, die zum Lernen verwendet werden, häufig mit einer gewissen Unschärfe verbunden. Die homogene Verwendung von doppelter Genauigkeit (double, FP64) für die gesamte Rechnung ist daher nicht zwangsläufig nötig. Durch das Rechnen in geringerer Genauigkeit können sowohl das Datenvolumen als auch die Rechenzeit verringert werden. In dieser Arbeit soll untersucht werden, wie sich die Verwendung von einfacher bzw. halber Genauigkeit (single/float FP32; half, FP16) auf die Genauigkeit des Klassifikationsproblems für bereits bekannte Datensätze auswirkt.


25.02.2018, 10:00, room 2.013, Sebastian Kreuder: Zeitliche Adaptivität und Lastbalancierung für eine Simulation der Aktivierung von Muskelfasern
 
Die Verwendung von Simulationen ist in der heutigen Zeit in so gut wie allen wissenschaftlichen Bereichen ein probates Mittel, um Prognosen zu erstellen oder bestimmte Abläufe nachzubilden. Ein beispiel hierfür ist die Ausbreitung eines Stimulus innerhalb der Fasern eines Muskels des menschlichen Körpers. Ausgehend von der Fasermitte breitet sich dabei der Stimulus enlang der Faser bis zu deren Ende aus. Die für diese Berechnung zu lösenden Diffentialgleichungen, kombioniert mit der hohen Anzahl an Muskelfasern in einem Muskel, stellen hohe Anforderungen an die verwendeten Maschinen. Für die Simulation und Berechnung dieser komplexen Systeme sind deswegen eine hochparallele Ausführung sowie eine effiziente Implementierung der zugrundeliegenden Berechnungsabläufe notwendig. Ziel dieser Bachelorarbeit ist daher die Implementierung einer adaptiven Schrittweiten-Steuerung für das der Simulation zugrundliegende Lösungsverfahren. Die sich dadurch ergebenden Änderungen in Genauigkeit und Rechenzeit werden ausgewertet, um darauf aufbauend in einem zweiten Schritt eine möglichst effektive Lastverteilung auf die das Problem lösenden Prozesse zu erzielen.
 
25.02.2018, 9:30, room 2.013, Jan Kusterer: Extraktion anatomischer Strukturen und Darstellung durch NURBS
 
Für Biomechanische Simulationen ist es wichtig, realistische Modelle zur Verfügung zu haben. Ein Beispiel ist die Simulation der Kontraktion des Biceps brachii. Dafür werden die Modelle des Biceps, Triceps, Humerus, Radius und Ulna benötigt. Ziel dieser Bachleorarbeit ist, solch realistische Modelle zu erstellen. Dies geschieht mit Hilfe der Bilder des "Visible Human Project", welches durch 1877 Fotos den gesamten Menschen in Schichten darstellt. Nachdem die wichtigen Daten entnommen wurden und die groben Modelle voneinander getrennt wurden, wird NURBS-fitting auf die Modelle angewandt, wodurch die Modelle weiter verfeinert werden.

21.02.2019, 16:00, room 2.013, Michael Vössner: Dynamische GPU-CPU Lastbalancierung

Wissenschaftliche Simulationssoftware basiert in der Regel auf sogenannten Rechen-Kerneln (engl.: compute kernel), elementaren Codesegmenten, die während der Simulation wiederholt ausgeführt werden. Grafikkarten (GPUs) eigenen sich durch ihre hoch parallele Architektur vor allem zur Beschleunigung von datenparallelen Kerneln, wie z.B. AXPY, GEMV und GEMM. In klassischen Programmiermodellen für Graffikkarten (wie CUDA) werden Kernel ausschließlich auf der GPU bzw. der CPU gestartet.Um eine bessere Auslastung der Hardware und damit eine geringe Laufzeit zu erzielen, ist das Ziel dieser Arbeit die Entwicklung eines Frameworks zur dynamischen lastbalancierten Ausführung eines einzigen Kernels auf der GPU und der CPU.

(verschoben) 28.01.2019, 13:30, room 0.457, Florian Klaus: Data Mining auf Dünnen Gittern in gemischter Genauigkeit

Das Klassifikationsproblem auf Dünnen Gittern durch Regression führt durch die hierarchische Struktur der dünnen Gitter zu stark abfallenden Koeffizienten auf hohen Leveln. Zudem sind die verwendeten Datensätze, die zum Lernen verwendet werden, häufig mit einer gewissen Unschärfe verbunden. Die homogene Verwendung von doppelter Genauigkeit (double, FP64) für die gesamte Rechnung ist daher nicht zwangsläufig nötig. Durch das Rechnen in geringerer Genauigkeit können sowohl das Datenvolumen als auch die Rechenzeit verringert werden. In dieser Arbeit soll untersucht werden, wie sich die Verwendung von einfacher bzw. halber Genauigkeit (single/float FP32; half, FP16) auf die Genauigkeit des Klassifikationsproblems für bereits bekannte Datensätze auswirkt.

25.01.2019, 13:00, room 0.463, Mammel, Rebecca: Effiziente Bildregistrierung von 3D MRT Bildern für die Zuordnung von Gehirnregionen

Die Bildregistrierung besitzt die Fähigkeit, Aufnahmen der gleichen Szene, jedoch mit
unterschiedlichen Gegebenheiten, in Übereinstimmung zu bringen. So ist das Ziel dieses
Projektes die Gehirnregionen eines gesunden statistischen Gehirns auf die eines vom Tumor
veränderten Gehirns eines Patienten übertragen zu können, die durch MRT-Bilder dargestellt
werden. Derartige Bildanalysen sind grundsätzlich ein Problem inverser Datenangleichungen,
die zu nichtlinearen partiellen Differentialgleichungen führen. Diese benötigen hocheffiziente
und genaue Lösungsstrategien, um im klinischen Alltag anwendbar sein zu können. Hierzu
trägt in unserem Fall die Einbindung der Semi-Lagrangian-Methode zur Lösung des
Advektionsproblems einen großen Anteil. Dabei ist die Berechnung von
Rückwärtstrajektorien in der Zeit entlang eines Geschwindigkeitfeldes, sowie die
Interpolation dieser Geschwindigkeitsfelder und der transportierten Werte nach jedem
Zeitschritt erforderlich. Momentan sind dafür das Runge-Kutta-Verfahren zweiter Ordnung
und eine kubische Spline-Interpolation implementiert. Im Rahmen dieser Bachelorarbeit
sollen die eben genannten Verfahren variierend in ihrer Ordnung, der verwendeten
Zeitschrittweite und der Bildgröße auf die Genauigkeit des Vorwärtsadvektionslösers
untersucht werden. Ziel ist es Regeln zu entwickeln, wie man diese Veränderlichen zu wählen
hat, um eine ausreichend gute Genauigkeit zu erhalten.

14.01.2018, 9:00, room 2.013, Tom Cesko: Implementierung einer Erweiterung zur Behandlung von Hochgeschwindigkeitsaufprall mit dem SiPER SPH-code

Zur Beschreibung von Hochgeschwindigkeitsaufprall stellt SPH (Smooth-Particle-Hydrodynamics)
eine Alternative zu FEM (Finite-Element-Methods) dar. Insbesondere das Bruchverhalten
kann aufgrund der numerischen Eigenschaften der beiden Methoden einfacher beschrieben werden.
Um zu verstehen welche Gleichungen gelöst werden und um den Code erweitern zu können,
ist der Zugriff auf den Sourcecode unabdingbar. Deshalb eignet sich der frei zugängliche,
in C geschriebene SiPER SPH Code des ICVT, der allerdings bisher nur Fluide simulieren kann.
Es bedarf also einer Erweiterung zur Beschreibung von Festkörpern.
In einem ersten Schritt wurde eine Methode zur Modellierung einer festen Wand
ausgewählt und implementiert, um den Aufprall später leicht beschreiben zu können.


18.12.2018, 13:00, room 2.013, Philipp Wundrack: Verteilte Dünngitter-Regression mit SG++ und HPX

Für Datamining mit besonders großen Datensätzen ist Regression mit Dünngittern
ein geeignetes Verfahren, da es linear mit der Anzahl der Datenpunkte skaliert
und es sich zudem einfach parallelisieren lässt. In dieser Arbeit soll die
Dünngitter Bibliothek SG++ mit der High Performance ParalleX (HPX) Bibliothek
erweitert werden, um Regressions-Algorithmen verteilt ausführen zu können. Für
die verteilte Ausführung die HPX Bibliothek zu verwenden verspricht mehrere
Vorteile gegenüber dem üblicherweise eingesetzten Message Passing Interface
(MPI), welches den neueren Herausforderungen wie heterogener Hardware und
Exascale Computing nicht mehr gewachsen ist. Die Besonderheiten von HPX sollen
hierbei genutzt werden, um eine möglichst gute Skalierbarkeit auf eine große
Anzahl an Rechenknoten zu erreichen.

27.11.2018, 14:00, room 2.013, Friz, Simon: Generalized B-Splines auf Dünnen Gittern

Bei uniformen Diskretisierungen für die Modellierung von Problemen steigen Laufzeit
und Speicherbedarf exponentiell mit der Zahl der Dimensionen. Um diesen Anstieg ab-
zuschwächen werden oftmals Dünne Gitter verwendet, die in höheren Dimensionen eine
deutlich reduzierte Zahl an Gitterpunkten haben. Diese werden bereits erfolgreich in
Kombination mit B-Spline Basisfunktionen eingesetzt. Für Probleme mit hohem expo-
nentiellen Anteil kann eine Modifikation der B-Spline Basis bessere Ergebnisse erzielen.
Diese Arbeit beschreibt den Einsatz der Exponential B-Splines, einer Form der Genera-
lized B-Splines, in Kombination mit Dünnen Gittern anhand einiger Beispielprobleme
und den Vergleich mit klassischen B-Splines. Hierbei wird auch auf unterschiedliche
Formen der Randbehandlung eingegangen und untersucht, für welche Problemstellun-
gen Exponential B-Splines bessere Ergebnisse erzielen können

22.11.2018, 13:00, room 2.013, Mammel, Rebecca: Effiziente Bildregistrierung von 3D MRT Bildern für die Zuordnung von Gehirnregionen

Die Bildregistrierung besitzt die Fähigkeit, Aufnahmen der gleichen Szene, jedoch mit
unterschiedlichen Gegebenheiten, in Übereinstimmung zu bringen. So ist das Ziel dieses
Projektes die Gehirnregionen eines gesunden statistischen Gehirns auf die eines vom Tumor
veränderten Gehirns eines Patienten übertragen zu können, die durch MRT-Bilder dargestellt
werden. Derartige Bildanalysen sind grundsätzlich ein Problem inverser Datenangleichungen,
die zu nichtlinearen partiellen Differentialgleichungen führen. Diese benötigen hocheffiziente
und genaue Lösungsstrategien, um im klinischen Alltag anwendbar sein zu können. Hierzu
trägt in unserem Fall die Einbindung der Semi-Lagrangian-Methode zur Lösung des
Advektionsproblems einen großen Anteil. Dabei ist die Berechnung von
Rückwärtstrajektorien in der Zeit entlang eines Geschwindigkeitfeldes, sowie die
Interpolation dieser Geschwindigkeitsfelder und der transportierten Werte nach jedem
Zeitschritt erforderlich. Momentan sind dafür das Runge-Kutta-Verfahren zweiter Ordnung
und eine kubische Spline-Interpolation implementiert. Im Rahmen dieser Bachelorarbeit
sollen die eben genannten Verfahren variierend in ihrer Ordnung, der verwendeten
Zeitschrittweite und der Bildgröße auf die Genauigkeit des Vorwärtsadvektionslösers
untersucht werden. Ziel ist es Regeln zu entwickeln, wie man diese Veränderlichen zu wählen
hat, um eine ausreichend gute Genauigkeit zu erhalten.

07.11.2018, 10:00, room 2.013, Prof. Tucker Carrington: Tricks for using sparse grids when evaluating matrix-vector products

I use sparse grids to solve the vibrational Schroedinger equation to compute spectra.  To do this we have developed a series of "tricks".  Some are well known in other  communities, some may not be.  We use  iterative eigensolvers to compute eigenvalues of a large matrix. When quadrature is used, each element of the matrix is a high-dimensional integral.   Eigenvalues are computed without calculating matrix elements.

07.11.2018, 13:00, room 2.013, Jingxi Zhang: Visualisierung von Gehirntumoren

Ein wirksames Werkzeug zur Analyse von MRT Gehirntumor Bildern ist die mit medizinischer Bildregistrierung gekoppelte Schätzung bzw. Kalibrierung von biophysikalischen Modellparametern. Als Ein-und Ausgabe dienen hierzu 3-dimensionale Warscheinlichkeitskarten, die die unterschiedlichen Gehirnregionen (‘white matter’, ‘gray matter’, ‘cerebrospinal fluid’ und ‘tumor’) angeben definieren. Wir sind an der (gemenisamen) Visualisierung dieser Warscheinlichkeitskarten oder deren Segmentierungen, als auch der ursprünglichen MRT Bilder interessiert.
Im Rahmen dieser Bachelorarbeit sollen 2D und 3D Visualisierungen von Gehirngeometrien mit und ohne Tumor erstellt werden. Insbesondere Kombination mehrerer räumlicher Komponenten (‘white matter’, ‘gray matter’, ‘CSF’ und ‘tumor’) als 3D Visualisierung; Identifikation gut geeigneter Visualisierungstechniken für die gegebenen Daten (etwa räumliche Schnitte, Oberflächen, (semi-)transparente Volumen); Interaktivität (Auswahl von Schnittebenen, Ansichtswinkel, Beleuchtung); Animationen zur Darstellung des zeitlichen Tumorwachstums; geeignete Darstellung multivartiater Metadaten zu unterschiedlichen Simulationsmethoden (Rechenzeit, verschiedene Fehlerkomponenten, ...) z.B. mit Starplots oder parallelen Koordinaten.

25.10.2018, 13:00, room 0.124, Florian Klaus: Data Mining auf Dünnen Gittern in gemischter Genauigkeit

Das Klassifikationsproblem auf Dünnen Gittern durch Regression führt durch die hierarchische Struktur der dünnen Gitter zu stark abfallenden Koeffizienten auf hohen Leveln. Zudem sind die verwendeten Datensätze, die zum Lernen verwendet werden, häufig mit einer gewissen Unschärfe verbunden. Die homogene Verwendung von doppelter Genauigkeit (double, FP64) für die gesamte Rechnung ist daher nicht zwangsläufig nötig. Durch das Rechnen in geringerer Genauigkeit können sowohl das Datenvolumen als auch die Rechenzeit verringert werden. In dieser Arbeit soll untersucht werden, wie sich die Verwendung von einfacher bzw. halber Genauigkeit (single/float FP32; half, FP16) auf die Genauigkeit des Klassifikationsproblems für bereits bekannte Datensätze auswirkt.

Summer Term 2018

23.08.2018, 12:15, room 0.124, Simon Friz: Generalized B-Splines auf Dünnen Gittern

B-Splines sind die kanonische Wahl einer Basis des Splineraumes. Sind jedoch zusätzliche Eigenschaften des zu lösenden Problems bekannt, erwarten wir mit einer Modifikation der B-Spline Basis bessere Ergebnisse erzielen zu können. Das Konzept der generalized B-Splines bietet dabei viel Flexibilität und wird in dieser Arbeit erstmalig im Kontext Dünner Gitter eingesetzt. Es werden bereits erprobte Varianten, insbesondere exponential B-Splines eingesetzt, aber auch eigene experimentelle Basen definiert. Diese Basen werden in der Software SG++ implementiert, wo sie auf Dünnen Gittern getestet und mit klassischen B-Splines für eine Vielzahl von Aufgabenstellungen verglichen werden.

13.08.2018, 13:00, room 2.013, Johannes Erwerle: Execution of Task Parallel OpenMP Programs in Distributed Memory Environments - Execution Environment

In a thesis jointly supervised together with the HLRS, the extension of OpenMP to support the execution of taks parallel OpenMP programs in a distributed memory setup, was focus of two projects. In a parallel project, the preprocessor extensions were developed. In this project, the runtime environment was developed. The talk will summarize the architectural considerations and the results and limitations of this approach.

5.6.2018, 13:00, room 2.013, Gregor Daiß Octo-Tiger: Binary Star Systems with HPX on Nvidia P100

Stellar mergers between two suns are a significant field of study since they can lead to astrophysical
phenomena such as type Ia supernovae. Octo-Tiger simulates merging stars by computing self-
gravitating astrophysical fluids. By relying on the high-level library HPX for parallelization and Vc
for vectorization, Octo-Tiger combines high performance with ease of development. For accurate
simulations, Octo-Tiger requires massive computational resources. To improve hardware utilization,
we introduce a stencil-based approach for computing the gravitational field using the fast multipole
method. This approach was tailored for machines with wide vector units like Intel’s Knights
Landing or modern GPUs. Our implementation targets AVX512 enabled processors and is backward
compatible with older vector extensions (AVX2, AVX, SSE). We further extended our approach
to make use of available NVIDIA GPUs as coprocessors. We developed a tasking system that
processes critical compute kernels on the GPU or the processor, depending on their utilization.
Using the stencil-based fast multipole method, we gain a consistent speedup on all platforms, over
the classical interaction-list-based implementation. On an Intel Xeon Phi 7210, we achieve a
speedup of 1.9x. On a heterogeneous node with an Intel Xeon E5-2690 v3, we can obtain a speedup
of 1.46x by adding an NVIDIA P100 GPU.

29.5.2018, 13:00, room 2.013,  Sebastian Hasler, "B-Spline Kollokation mit der Kombinationstechnik"

Die B-Spline-Kollokation ist eine Methode zur Lösung partieller Differentialgleichungen mithilfe einer Tensorproduktbasis aus B-Splines. Im Gegensatz zur Finite-Elemente-Methode, müssen dabei keine Integrale berechnet werden, was eine Beschleunigung mit sich bringt. Ist die Dimensionalität jedoch hoch, spürt man bei der Verwendung von regulären Gittern schnell den sogenannten Fluch der Dimensionalität: Die Gitterpunktanzahl steigt exponentiell in Abhängigkeit der Anzahl an Dimensionen.
 
In dieser Arbeit implementierten wir die B-Spline-Kollokation und um den Fluch der Dimensionalität zu umgehen, verwendeten wir die Kombinationstechnik, mit welcher Probleme auf dünnen Gittern gelöst werden können. Die so erhaltene Lösung ist zwar im Allgemeinen keine exakte Dünngitter-Lösung, stellt aber für bestimmte Probleme – wie zum Beispiel für die Poisson-Gleichung – eine gute Approximation dar. In der Hoffnung, diese Approximation zu verbessern, implementierten wir ein iteratives Verfahren, welches das Residuum an den Gitterpunkten weiter verringert.

18.05.2018, 13:00 room 0.124, Benjamin Kurz, "Lattice-Boltzmann Simulationen auf mehreren GPUs"

In dieser Arbeit geht es um die Implementierung der Lattice-Boltzmann Methode auf mehreren Grafikkarten. Die Lattice-Boltzmann Methode ist eine bekannte und beliebte Methode um hydrodynamische Simulationen zu berechnen. Dabei wird der Raum durch ein Gitter diskretisiert und mittels einer Verteilungsdichtefunktion wird mit Populationen, die sich auf den Gittern bewegen, gerechnet. Als Grundlage dient dafür das Software Paket ESPResSo, das durch die vorgestellte Implementierung erweitert wird, und die Bibliothek P4EST, die für die Erstellung und Verwaltung eines Gitters, das auf Oktalbäumen basiert, genutzt wird. Das durch P4EST erstellte Gitter wird zusätzlich in Patches verfeinert, die dann auf den Grafikkarten durch einen CUDA-Code parallel bearbeitet werden. Die vorgestellte Implementierung nutzt das Message Passing Interface und ist dafür ausgerichtet auch auf großen Computern zu laufen und eine gute Skalierung zu erreichen.

15.5.2018, 13:00, room 2.013, Maximilan Wildbrett, "Implementierung und Vergleich von Lastbalancierungsverfahren in ESPResSo"

Molekulardynamische Simulationen haben sich in der Wissenschaft neben der Theorie und der Praxis als gängige Methode etabliert. Um eine effiziente und optimale parallele Ausführung einer Simulation durchzuführen, müssen die anfallenden Berechnungen gleichmäßig auf die beteiligten Prozesse bzw. Prozessoren verteilt werden. Diese Aufgabe wird von Lastbalancierungsverfahren übernommen.
In dieser Arbeit wurden zwei Lastbalancierungsverfahren für das Molekulardynamik Softwarepaket ESPResSo implementiert und hinsichtlich ihrer Performance verglichen. Bei den zwei implementierten Verfahren handelt es sich um ein globales Verfahren basierend auf einem Graphpartitionierer und um ein lokales Verfahren der Diffusion.

3.5.2018, 13:00, room 0.124, Marcel Breyer, "Ein hoch-performanter k-nächster-Nachbar Algorithmus für GPUs"

In der heutigen Zeit, in der immer mehr Daten zur Verfügung stehen, gewinnt das Data-Mining
zunehmendan Bedeutung. Insbesondere ist die Klassifizierung eine zentrale Methode des Data-
Minings. Eine Möglichkeit Daten zu klassifizieren, stellt die Nächste-Nachbarn-Klassifikation dar.
Dabei wird einem Objekt eine Klasse nur aufgrund dessen lokaler Nachbarschaft zugewiesen.
Der naive Ansatz zur Lösung der Nächste-Nachbarn-Klassifikation setzt jedoch voraus, dass alle
anderen Objekte in der Datenmenge betrachtet werden müssen, wodurch er eine quadratische
Komplexität besitzt, was bei deren stetig wachsender Größe immer ineffizienter wird. Aufgrund
dieser hohen Kosten, sind bei großen Datenmengen approximierende Verfahren attraktiv.
Ein solches approximierendes Verfahren ist das in dieser Arbeit verwendete Locality Sensitive
Hashing. Dieses Verfahren teilt alle Datenpunkte basierend auf deren Lokalisation durch spezielle
Hash-Funktionen in Hash-Buckets auf. Mithilfe dieser Aufteilung müssen bei der Suche nach den
Nächsten-Nachbarn nicht mehr alle Datenpunkte betrachtet werden. Zusätzlich zur Wahl des
Algorithmus, muss jedoch auch auf eine hochperformante Implementierung für Grafikkarten
geachtet werden.
Dabei konnte auf NVIDIAs QUADRO GP100 Grafikkarte eine Laufzeitverbesserung um das bis
zu 10-fache bei einer gleichzeitigen Genauigkeit von über 90 %, gegenüber einer ebenfalls für
Grafikkarten optimierten Implementierung des Naiven Algorithmus, für einen Datensatz mit
500 000 Datenpunkten in 10 Dimensionen beobachtet werden.

3.5.2018, 13:00, room 0.124, Alexander van Craen, "GPU-beschleunigte Support-Vector Machines"

Data-Mining gewinnt immer mehr an Bedeutung, denn es stehen immer mehr Daten zur Verfü-
gung. Um der stetig wachsenden Anzahl an Daten entgegenzuwirken, werden eine immer stärkere
Hardware, bessere Algorithmen und optimierte Implementierungen benötigt. Es ist beispielsweise
möglich mithilfe massiver Parallelität auf Grafikkarten die Rechenzeit zu verkürzen.
Eine Möglichkeit Daten zu klassifizieren ist das überwachte maschinelle Lernen. Die Support-Vector
Machine (SVM) ist eines dieser Verfahren. Sie erstellt ein Modell, worin die Trainingsdaten als
Punkte im Raum interpretiert werden. Es werden diejenigen Datenpunkte gesucht, mit denen ein
linearer Separator aufgestellt werden kann, der die Daten durch das breiteste Band voneinander
trennt (large margin classifier). Anhand dieses gelernten Modells können dann neue Daten effizient
klassifiziert werden.
In dieser Arbeit wird eine Least Square Support Vektor Maschine implementiert. Bei der Least
Squares Support Vektor Maschine werden nicht die wenigen Datenpunkte gesucht, die für die
Separation wichtig sind (Support Vektoren), sondern bei allen Datenpunkten der proportionale
Fehler bestimmt, und daraus die separierende Hyperebene abgeleitet. Die Least Squares Support
Vektor Maschine wird mithilfe von NVIDIAs CUDA Parallel Programming Models für Grafik-
karten implementiert und für NVIDIAs QUADRO GP100 optimiert. Dabei wurde explizit darauf
geachtet, dass die GPU-Implementierung möglichst verzweigungsfrei ist. Außerdem wird die SoA
Datenstruktur verwendet, und die Zugriffe über das Shared Memory optimiert.
Damit konnte, bei ähnlicher Genauigkeit, auf der NVIDIAs QUADRO GP100 Grafikkarte, mit ca.
2,3 TFLOPS mit doppelter Genauigkeit, eine Laufzeitverbesserung um mehr als das 300-Fache ge-
genüber der gebräuchlichen CPU-Library for Support Vector Machines, LIBSVM, Implementierung
gemessen werden.

Winter Term 2017/18

23.02.2018, 09:00, room 0.124, Benjamin Kurz, "Lattice-Boltzmann Simulations on Multiple GPUs"

Bei der Lattice-Boltzmann-Methode wird die Boltzmann-Gleichung, welche eine statistische Verteilung der Teilchen in einem Medium, wie zum Beispiel Strömungen in Gas oder Flüssigkeiten (mesoskopische Probleme), beschreibt, durch Gitter diskretisiert und numerisch gelöst, wobei sich der Algorithmus durch seine Gitterstruktur und Unabhängigkeit von entfernten Gitterpunkten gut für eine weitreichende Parallelisierung eignet. In dieser Bachelorarbeit soll für das Software-Packet “ESPResSo” ein Lattice-Boltzmann Algorithmus implementiert werden, der durch die “p4est” Bibliothek eine adaptive Gitterstruktur beinhaltet und durch MPI und CUDA die hohe Parallelität versucht optimal auszunutzen.

20.02.2018, 14:00, room 0.118, Marcel Breyer, "Ein hoch-performanter k-nächster-Nachbar Algorithmus für GPUs"

Abstract: TBA

20.02.2018, 14:00, room 0.118, Alexander van Craen, "GPU-beschleunigte Support-Vector Machines auf Nvidia P100"

Abstract: TBA

20.02.2018, 14:00, room 0.118, Johannes Erwerle, "Execution of Task Parallel OpenMP Programms in Distributed Memory Environments - Execution Environment"

OpenMP bietet neben der Möglichkeit Schleifen zu parallelisieren unter anderem auch eine Unterstützung für die parallele Ausführung von Tasks. Da OpenMP ein Shared Memory System benötigt, ist die zur Verfügung stehende Rechenleistung begrenzt. In diesem Vortrag geht es um eine Ausführungsumgebung mit der Task paralle OpenMP Programme auf Distributed Memory Clustern ausgeführt werden können. Hierzu wird der Programmcode von einem Präprozessor analysiert und modifizert (Bachelor-Arbeit von Markus Baur). Die Ausführungsumgebung verteilt dann zur Laufzeit die Tasks auf mehrere Nodes, sorgt für den nötigen Datenaustausch und die Verwaltung von Synchronisations-Konstrukten.

14.02.2018, 13:00, room 0.124, Theresa Pollinger, "Knowledge Representation for Modeling and Simulation – Bridging the Gap Between Informal PDE Theory and Simulations Practice"

Es geht um das praktische Problem, dass das numerische Lösen von PDEs (also meistens das Aufsetzen und Ausführen von Simulationsprogrammen) viel Hintergrundwissen erfordert. Wenn man sich als Domänenexpert*in (z.B. als Ingenieur*in ) aber nicht für die PDE an sich interessiert, muss man viel mit uns Simulationsleuten reden oder sich selbst Wissen aneignen, um das zu bekommen, was man möchte. Der Vortrag zeigt, wie dieser Übergang automatisiert werden könnte: Methoden aus der mathematischen Wissensrepräsentation helfen, dass Anwender*innen das Modell in ihrer "Sprache", der Mathematik, aufschreiben können. Im Herzen dieses Ansatzes steht das formale Framework MMT und damit die Darstellung von mathematischem Wissen in Theoriegraphen aus kleinen Theorien. Ist das Modell vollständig spezifiziert, können daraus ausführbare Simulationen generiert werden - und das immer wieder.

13.02.2018, 14:00, room 2.013, Sebastian Hasler, "B-Spline-Kollokation mit der Kombinationstechnik"

Bei der B-Spline-Kollokation wird die Lösung einer partiellen Differentialgleichung als Linearkombination von B-Splines approximiert. Diese Methode wurde bereits auf regulären Gittern erforscht. Ist die Dimensionalität jedoch hoch, spürt man schnell den Fluch der Dimensionalität: Die Anzahl der Gitterpunkte steigt exponentiell in Abhängigkeit der Anzahl an Dimensionen.
In dieser Arbeit soll deshalb die B-Spline-Kollokation mithilfe der Kombinationstechnik implementiert werden. Diese Technik erlaubt Berechnungen auf dünnen Gittern, welche wesentlich weniger Gitterpunkte als reguläre Gitter brauchen. In anderen Anwendungsfällen der Kombinationstechnik konnten - trotz der Einsparung von Gitterpunkten - fast die gleichen Ergebnisse wie mit regulären Gittern erzielt werden. Des Weiteren soll untersucht werden, ob dieses Verfahren auf Differentialoperatoren verallgemeinert werden kann, deren Struktur bei der Kombinationstechnik zu Fehlern führt.

06.02.2018, 13:00, room 2.013, Pascal Litty, "Untersuchung von Modellordnungsreduktions-Methoden (MOR) für die Ausbereitung von Aktionspotentialen entlang von Muskelfasern"

In der Arbeit wurden zwei verschiedene Diskretisierungsansätze zur Berechnung der Kombination des Hodgkin-Huxley-Modells und des Monodomain-Modells zur Propagation von Aktionspotentialen entlang von Muskelfasern beschrieben. Diese wurden für verschiedene Eingaben, Anzahl diskreter Elemente und Zeitschritte für die Model-Order-Reduction-Methoden POD-Galerkin und DEIM sowie die Kombination beider untersucht. Dabei ergab sich, dass beide das Potential haben, die Berechnung des Modells zu beschleunigen. Mit POD-Galerkin ist es außerdem möglich, die Moden für das Modell mit reduzierter System für mehrere Eingabefunktionen mit hoher Genauigkeit vorauszuberechnen.

29.01.2018, 13:30, room 0.118, Constantin Schreiber, "Orthogonale Dünngitter-Teilraumzerlegungen"

In diesem Vortrag wird ein Verfahren für das Lösen partieller Differentialgleichungen mit variablen Koeffizienten mit Hilfe von Dünnen Gittern, sowie dessen Implementierung in das Programmpaket SG++ vorgestellt.
Durch Funktionsdarstellung in einem Erzeugendensystem wird die Verwendung einer L2-orthogonalen Teilraumzerlegung ermöglicht.
Projektionsoperatoren ersetzen hierbei die explizite Transformation in eine Prewavelet-Basis.
Diese Zerlegung erlaubt das Lumping der Steifigkeitsmatrix, also das Weglassen von großen Blöcken dieser.
Hiermit wird der Algorithmus von Schwab und Todor implementiert und auch auf krummberandeten Gebieten angewendet.
Des Weiteren wird die Teilraumzerlegung durch L2-Projektion mit anderen Zerlegungen in Bezug auf Laufzeit und Fehlerentwicklung verglichen.
 

23.01.2018, 14:00, room 0.453, Felix Diez, "Gradientenbasierte Approximation mit B-Splines auf dünnen Gittern"

Die Approximation von hochdimensionalen Flächen ist ein wichtiges Werkzeug in der Numerik. Die Auswertung von Funktionswerten kann jedoch zeitaufwändig sein. Abhilfe können dabei Surrogate schaffen. Herkömmliche Interpolation verwendet dabei aber nur Funktionswerte. In manchen Anwendungen sind jedoch auch Gradienten bekannt. In diesem Vortrag wird es darum gehen, mithilfe der Kombinationstechnik diese Informationen der Gradienten zu verwenden, um die Approximationsgüte zu verbessern. Dabei werden zuerst die verwendeten Basisfunktionen vorgestellt. Danach geht es um zwei verschiedene Ansätze, die diese zusätzlichen Informationen verarbeiten. Schließlich werden Vergleiche zwischen den Ansätzen und darüber hinaus mit herkömmlichen Interpolationsmethoden durchgeführt.

04.01.2018, 16:30, room 2.103, Dr. Martin Schreiber, University of Exeter: "Exponential Integrators and Multi-Level Spectral Deferred Corrections for Weather and Climate Simulations using Global Spectral Methods"

20.12.2017, 14:00, room 2.013, Georg Abrams, "Entwicklung eines XML-basierten Konfigurationsframeworks einer verteilten Mulit-Physik Kopplungssoftware"

Georg Abrams stellt seine Arbeit zur Erweiterung der Software preCICE vor. Dabei wurde ein vorhandenes Konfigurationsframework durch einen validen XML-Parser erweitert. Das Framework ermöglicht eine flexible Konfiguration der Komponenten bei gleichzeitiger looser Kopplung zueinander.

05.12.2017, 14:00, room 0.453, Maximilian Luz, "Unterraum-optimales Data Mining auf räumlich-adaptiven dünnen Gittern"

Immer größere und potentiell hochdimensionale Datensätze erfordern effiziente Methoden, damit maschinelles Lernen angewendet werden kann. Während dünne Gitter eine theoretisch geeignete Methode zur Lösung von Regressionsproblemen darstellen, müssen zusätzlich effiziente Algorithmen und Implementierungen entwickelt werden, damit sich die theoretischen Vorteile auch in der Praxis widerspiegeln. In diesem Vortrag wird ein neuer Algorithmus zur Regression auf dünnen Gittern vorgestellt, der die Struktur der Gitter besser berücksichtigt, um die Performance gegenüber vorherigen Ansätzen zu verbessern. Der entstandene Algorithmus wurde für Nvidia P100 Grafikkarten implementiert. Verschiedene Datensätze mit bis zu 28 Dimensionen konnten erfolgreich gelernt werden, dabei konnten Leistungsverbesserungen gegenüber dem verbreiteten Streaming-Ansatz für Grafikkarten beobachtet werden.

07.11.2017, 14:00, room 2.013, Jens Drodofsky, "Große lineare Gleichungssysteme für die B-Spline Interpolation auf Dünnen Gittern"

Ein neuer Ansatz für die Dünngitter Interpolation auf dem Einheitsgebiet[0,1]^d, nutzt gewichtete B-Splines als Basisfunktion. Diese bieten die Möglichkeit Gebiets- und Randbedingungen anzugeben, so dass die Randbedingungen exakt eingehalten werden. Ziel der Arbeit ist es das Lösen von linearen Gleichungssystemen, welche während der Interpolation mit gewichteten B-Splines auf Dünnen Gittern auftreten, zu untersuchen. Dabei werden verschiedene Lösungsstrategien und Vorkonditionierungstechniken betrachtet. Besondere Aufmerksamkeit wird dem BiCGSTAB-Verfahren gewidmet. Anschließend soll untersucht werden, welche Methode den größten Erfolg zum Lösen beiträgt.

06.11.2017, 13:00, room 2.013, Pascal Litty, "Model Order Reduction für Berechnung der Ionenströme innerhalb von Muskelfasern"

Model Order Reduction (MOR) ist der Oberbegriff für Methoden, die den Berechnungsaufwand mathematischer Modelle verringern, indem deren Komplexität reduziert wird. Können diese Methoden Berechnung der Ionenströme innerhalb von Muskelfasern beschleunigen?
Untersucht werden in der Bachelorarbeit Fehler und Beschleunigung von MOR-Verfahren wie POD-Galerkin oder Discrete Empirical Interpolation Method (DEIM) mithilfe von KerMor, einem Framework, das Methoden der Model Order Reduction bereitstellt.

Summer Term 2017

11.10.2017, 12:15, room 2.014, Dominic Parga Cacheiro, "Quantifizierung von Unsicherheiten in mikroskopischer Verkehrssimulation"

Eine mikroskopische Verkehrssimulation nur mit einspurigen Straßen - das darf doch nicht so bleiben? Genau! Aus diesem Grund wurde das einspurige Nagel-Schreckenberg-Modell einer existierenden Simulationssoftware im Rahmen einer Bachelorarbeit auf ein mehrspuriges Modell ausgebaut. Im Anschluss wurde es mit Hilfe von UQ-Methoden evaluiert. Dabei wurden beim Simulieren Daten gesammelt, die mit realen Verkehrsdaten verglichen wurden.

11.10.2017, 12:45, room 2.014, Jan-Oliver Schmidt, "Adaptiven Kerndichteschätzer mit großen Datensätzen"

In dieser Bachelorarbeit wurde untersucht, welche adaptiven Kerndichteschätzer sich für große Datensätze eignen und wie diese effizient implementiert werden können. Unterschiedliche Kerne (Gauss, Epanechnikov) wurden untersucht, die kernbasierten Methoden mit der Dünngitterdichteschätzung verglichen und zusätzlich die Rosenblatt Transformation, eine wichtige Transformation im UQ Bereich implementiert.

07.09.2017, 14:30, room 2.013, Raman Sharma, Bernhard Fischer, Oliver Jackson, Henry Vu, Maximilian Wildbrett, "Vergleich von Programmierkonzepten und -sprachen anhand des Beispiels der Molekulardynamik"

Für effiziente Simulationen muss Code (möglichst maschinennah) optimiert werden. Dem steht oft der Wunsch nach les- und wartbarem Code entgegen. Im Software Engineeringgibt es hierfür diverse Metriken für Code-Qualität und den Prozess des Codierens. Einfache Beispiele wären die benötigte Zeit, um ein Programm zu schreiben, oder die Anzahl an Codezeilen. In diesem Projekt-Inf wurden verschiedene Programmierkonzepte und -sprachen anhand eines gemeinsamen Problemes, einer Molekularsimulation für kurzreichweitige Interaktionen, verglichen.

07.09.2017, 14:00, room 2.013, Felix Diez, "Gradientenbasierte Approximation mit B-Splines auf dünnen Gittern"

Die Approximation von hochdimensionalen Flächen ist ein wichtiges Werkzeug in der Numerik. Die Auswertung von Funktionswerten kann jedoch zeitaufwändig sein. Abhilfe können dabei Surrogate schaffen. Herkömmliche Interpolation verwendet dabei aber nur Funktionswerte. In manchen Anwendungen sind jedoch auch Gradienten bekannt. In diesem Vortrag wird es darum gehen, mithilfe der Kombinationstechnik diese Informationen der Gradienten zu verwenden, um die Approximationsgüte zu verbessern. Dabei werden zuerst die verwendeten Basisfunktionen vorgestellt. Danach geht es um zwei verschiedene Ansätze, die diese zusätzlichen Informationen verarbeiten. Schließlich werden erste Vergleiche zwischen den Ansätzen und darüber hinaus mit herkömmlichen Interpolationsmethoden durchgeführt.

10.08.2017, 14:30, room 2.013, Vincent Wagner, "Efficient Calculation of Fractional Diffusion using a Tree-based Algorithm"

Modelling of material transport in the environment is an essential component of various technological applications with high societal impact. Two motivating examples are contaminant transport in groundwater flow and the transport of oil droplets in the ocean. By incorporating systematic means of representing sub-diffusive transport fluxes at different length and time scales, fractional diffusion models provide a well-founded framework for addressing the multi-scale physics challenges arising in complex applications. I will present two discretisation methods for fractional order derivatives and analize their properties. Boundary conditions pose a challenge, which is discussed. Finally, a tree-based approach is used to calculate derivatives of fractional order efficiently in linear time, that can be combined with an arbitrary high order of discretisation accuracy by using the discretisation presented in this talk.

27.06.2017, 9:00, room 2.013, Benjamin Maier, "Scientific Marble Run"

Eine Murmel soll von einem vorgegebenen Punkt möglichst schnell zu einem anderen gegebenen Punkt gelangen. Wie muss die dazwischen liegende Murmelbahn aussehen?

Diese Fragestellung wurde theoretisch und praktisch untersucht. Theoretisch, indem die optimale Lösung ohne und mit Reibung ermittelt wurde. Praktisch, indem mithilfe des 3D-Druckers 9 verschiedene Bahnen produziert wurden, die teils von Mitarbeitern des SGS vorgeschlagen wurden. Durch Lichtschranken kann die jeweilige Laufzeit gemessen werden.

In diesem Vortrag wird die Theorie der Bahnen vorgestellt, die Modellerzeugung und praktische Umsetzung wird erklärt und schließlich wird das gedruckte Modell ausprobiert.

06.06.2017, 14:00, room 2.013, Malte Brunn, "Coupling of Particle Simulation and Lattice Boltzmann Background Flow on Adaptive Grids"

The lattice-Boltzmann method as well as classical molecular dynamics are established and widely used methods for the simulation and research of soft matter. Molecular dynamics is a computer simulation technique on microscopic scales solving the multi-body kinetic equations of the involved particles. The lattice-Boltzmann method describes the hydrodynamic interactions of fluids, gases, or other soft matter on a coarser scale. Many applications, however, are multi-scale problems and they require a coupling of both methods. A basic concept for short ranged interactions in molecular dynamics is the linked cells algorithm that is in O(N) for homogeneously distributed particles. Spatial adaptive methods for the lattice-Boltzmann scheme are used in order to reduce costly scaling effects on the runtime and memory for large-scale simulations. As basis for this work the highly flexible simulation software ESPResSo is used and adapted. The adaptive lattice-Boltzmann scheme, that is implemented in ESPResSo, uses a domain decomposition with tree-based grids along the space-filling Morton curve using the p4est software library. However, coupling the regular particle simulation with the adaptive lattice-Boltzmann method for highly parallel computer architectures is a challenging issue that raises several problems.

In this work, an approach for the domain decomposition of the linked cells algorithm based on space-filling curves and the p4est library is presented. In general, the grids for molecular dynamics and fluid simulations are not equal. Thus, strategies to distribute differently refined grids on parallel processes are explained, including a parallel algorithm to construct the finest common tree using p4est. Furthermore, a method for interpolation and extrapolation, that is needed for the viscous coupling of particles with the fluid, on adaptively refined grids are discussed. The ESPResSo simulation software is augmented by the developed methods for particle-fluid coupling as well as the Morton curve based domain decompositions in a minimally invasive manner. The original ESPResSo implementation for regular particle and fluid simulations is used as reference for the here developed algorithms.

25.04.2017, 10:00, room 2.013, Peter Vollmer, "Performanzanalyse und Optimierung einer verteilten Multi-Physik-Simulationssoftware"

In seiner Arbeit hat er Methoden zum Verbinden und Kommunikation mehrerer MPI-Prozesse analysiert. Anschließend wurden die Methoden auf zwei HPC Systemen in Stuttgart und München vermessen und auf ihre Anwendbarkeit innerhalb preCICE überprüft.

04.04.2017, 9:30, room 0.124

  • Alexander Van Craen, Jens Drodofsky, Marcel Breyer: "What are convenient languages for numerical computing?"
  • Tobias Skarman: "Visualisierung von Lastimbalancen in kurzreichweitigen Molekülsimulationen"
  • Daniel Eschbach: "Integration of a Generic Grid Interface in ESPResSo"

Winter Term 2016/17

06.02.2017, 10:45, room 2.013, Jan Gemander, Rico Hartung, Maurice Koch, "3D-Druck und Visualisierung in der Topologieoptimierung mit dünnen Gittern"

In our project, we examined various ways to visualise topologically optimised results with the example of a cantilever beam. One important aspect included the creation of a 3D printable model from the provided raw data, and finally printing out the result. This required to gain knowledge about the theory of printing technologies, model requirements, as well as suitable triangulation-based file formats. One other significant part was improving existing visualisations with computer aided imagery by generating animations of the model involving displacement and stress.

02.12.2016, 9:45, room 2.013, Patrick Diehl (Universität Bonn), "Modellierung und Simulation von Brüchen und Rissen in Festkörpern mittels Peridynamik"

In diesem Vortrag wird eine kürze Einführung in die Theorie der Peridynamik gegeben. Für die Modellierung eines linearen elastischen Materials wird das verbindungs-basierte softening Materialmodell verwendet. Hier wird die theoretische Relation der Modellparameter zum shear modulus und der fracture toughness der linear-elastischen Bruchmechanik skizziert. Die Validierung des Modells wird anhand von experimentellen Daten gezeigt.

Der zweite Teil des Vortrags zeigt Methoden aus der Visualisierung für die Extraktion von Fragmenten, Stresswellen und Rissflächen auf. Hierzu werden die neue gewonnen Informationen aus den Simulationen auf physikalische Plausibilität geprüft.

22.11.2016, 14:00, room 2.013, Michael Rehme, "WEB-Spline-Kollokation für ein nichtlineares elliptisches Randwertproblem"

WEB-Splines, weighted and extended B-Splines, bilden eine Basis des Splineraumes, die stabil bezüglich der Gitterweite ist und die somit die Einsatzmöglichkeiten von B-Splines erweitert. An der nichtlinearen Poisson-Gleichung wird demonstriert, wie mit Hilfe der WEB-Spline-Kollokation deutlich schneller, als mit der klassischen Finite-Elemente-Methode, Lösungen elliptischer Differentialgleichungen berechnet werden können. Für die so berechneten Lösungen werden zwei neue Fehlerabschätzungen vorgestellt, die auf dem Residuum der approximativen Lösung beruhen. Als Motivation wird die Interpolation mit erweiterten B-Splines gezeigt, die eine systematische Interpolation mit B-Splines auch auf krummlinigen Gebieten in zwei und drei Dimensionen erlaubt.

08.11.2016, 14:00, room 2.013, Felix Huber, "The Sparse Grid Combination Technique for Quantities of Interest"

The complexity of simulations using fine grids increases very fast. Especially in higer dimensions this quickly becomes a major problem. The combination technique tries to tackle this problem by approximating the fine grid solution by a combination of many coarser grids. This presentation will focus on a combination technique for so called quantities of interests like integrals, statistical moments or other scalar properties. Starting from an error model for these quantities I explain how the combination method works. Furthermore I will present my results of my Bachelor's thesis where we put the focus on integration problems and the plasma simulation GENE.

08.11.2016, 14:40, room 2.013, Yuancheng Zhou, "The Sparse Grid Combination Technique for Quantities of Interest, Part II"

Abstract: TBA

25.10.2016, 13:30, room 0.453, Tilak Wälde, "Study of bottlenecks of parallel simulations with ESPResSo"

Abstract: TBA

25.10.2016, 14:00, room 0.453, Juri Schröder, "Optimierung von unsicheren Systemen mit B-Splines auf dünnen Gittern"

Quantifizierung von Unsicherheiten (UQ) beschäftigt sich damit, wie sich die Auswirkung von fehlendem Wissen über Prozesse auf Zielgrößen quantifizieren lässt und ist eine wichtige Fragestellung z. B. in der Modellprädiktiven Regelung. Möchte man Auswertungen eines solchen unsicheren Modells durchführen, werden meist rechenintensive Simulationen benötigt, wodurch eine Optimierung von Parametern schwer durchführbar wird. In dieser Arbeit wird eine Methode vorgestellt, die versucht dieses Problem mit Hilfe dünner Gitter zu lösen. Konkret beinhaltet das die Erzeugung von Surrogaten auf denen die stochastische Analyse bzw. die Optimierung durchgeführt wird. Für die Anwendung gradientenbasierter Optimierungsverfahren werden glatte Funktionen benötigt, deshalb kommen B-Splines bei der Erzeugung der Surrogate zum Einsatz.

04.10.2016, 14:00, room 2.013, Dr. Tobias Weinzierl (Durham University, UK), "Stop talking to me: communication avoiding and reducing techniques in the ExaHyPE project"

ExaHyPE is a H2020 project where an international consortium of scientists write a simulation engine for hyperbolic equation system solvers based upon the ADER-DG paradigm. Two grand challenges are tackled with this engine: long-range seismic risk assessment and the search for gravitational waves emitted by binary neutron stars. The code itself is based upon a merger of flexible spacetree data structures with highly optimised compute kernels for the majority of the simulation cells.

This talk is a tour de force through ExaHyPE. We start with a brief sketch of the project and the underlying workflow of the ADER-DG scheme. It becomes obvious that the scheme - if not implemented naively - suffers significantly from high memory and data movement demands on modern architectures. In the main part of the talk, we thus highlight various techniques how to reduce the number of data movements to and from the memory subsystem, how to squeeze out bits from the MPI data exchange and how to eliminate some MPI messages completely. A brief discussion of first results closes the talk.

Summer Term 2016

30.09.2016, 13:00, room 2.013, Felix Kohlgrüber, "Visualization of Octree-Based Cartesian Grids"

Octrees können verwendet werden, um auf einfache Weise adaptiv verfeinerte dreidimensionale Gitter zu beschreiben. Dieser Ansatz kann durch das Verbinden mehrerer Octrees zu einem „Forest of Octrees“ erweitert werden, der eine höherer Flexibilität bei der Beschreibung des Gitters zulässt (siehe p4est Softwarebibliothek). In dieser Bachelor Thesis werden Möglichkeiten betrachtet, einen Forest of Octrees mit zusätzlichen Attributen interaktiv zu visualisieren. Ziel der Visualisierung ist, die Analyse der generierten Gitterstruktur zu vereinfachen und zu beschleunigen.

30.09.2016, 13:30, room 2.013, Daniel Eschbach

Es wurde eine Gitterschnittstelle entwickelt, die es mittelfristig erlauben soll, die Lattice-Boltzmann-Implementierung von ESPResSo umzuziehen von ihrem gegenwärtigen regulären kartesischen Gitter hin zu einem baumstrukturierten kartesischen Gitter, welches durch p4est implementiert wird. Die Gitterschnittstelle definiert ein logisches adaptives kartesisches Gitter. In dieser Arbeit wurde die Gitterschnittstelle zunächst durch eine Implementierung für ein reguläres kartesisches Gitter unterlegt. Dies erlaubte es, die Lattice-Boltzmann-Implementierung aus ESPResSo beinahe unverändert weiter zu betreiben, um sich zunächst auf die Entwicklung des Schnittstellenkonzepts selbst konzentrieren zu können. Die Testresultate zeigen, dass die Gitterschnittstelle konzeptionell funktioniert und keine relevanten Performance-Einbußen verursacht.

27.09.2016, 13:00, room 2.013, Benjamin Maier, "3D Simulation für Outdoor-Roboter"

Für zukünftige Generationen mobiler Service-Roboter für den Außeneinsatz ist es wichtig, sich mittels Sensoren in der Umgebung präzise lokalisieren zu können. Dies kann beispielsweise mithilfe eines Laserscanners geschehen, der kontinuierlich 3D-Abbildungen der Umwelt aufnimmt.

In der vorgestellten Masterarbeit wird eine Simulation für dieses Szenario aus einem realen Anwendungsfall erstellt. Hauptbestandteil ist dabei die Nachbildung des Laserscanners, für den in einem großen Punktwolken-Datensatz Strahlen verfolgt werden müssen. Um die Simulation in Echtzeit durchführen zu können, werden geeignete Datenstrukturen und effiziente Algorithmen untersucht. Bestimmte Ungenauigkeiten des Umweltdatensatzes bei der Beschreibung von Vegetation werden dabei gesondert behandelt, zudem wird ein Visualisierungsverfahren für den Datensatz umgesetzt.
Am Ende steht eine interaktive Simulation, die die Entwicklung zukünftiger Outdoor-Roboter erleichtert.

19.09.2016,  15:00, room 2.013. Dr. Nehzat Emamy (Johannes Gutenberg University of Mainz), "Coupled Problems using the DG method: ElectroFluid-Dynamics applications and complex fluid flows"

A  discontinuous  Galerkin  Finite  Element  Method  (DG)  solver  for  the  incompressible   fluid  flows has  been  developed  using  the BoSSS code. The projection scheme  for decoupling  between the velocity  and  pressure  has  been  modified  for  a  proper  and consistent  discretization  with the DG method.  The  Projection  Consistent  Pressure  (PCP)  solver  has  been   verified  and  used  for simulating  unsteady  vortical  flows,  flow  over  airfoils,  steady   stagnation  point  flows  and multiphase flows.  
 
For  part  a)  above,  an  electrostatics  solver  has  been  developed  for  heterogeneous  materials. The  DG  spatial  discretization  has  been  modified  for  high jump ratios in the dielectric property of two  immiscible  fluids.  The  electrostatics  and  flow  solvers  are  weakly  coupled   for  performing electro­fluid­dynamics  (EFD)  simulations,  where  a  suspending  droplet  in a surrounding medium deforms  to  a  spheroid  by  applying  steady  and  oscillating  electric  fields.  A  symmetry  boundary condition  has  been  implemented,  which  considerably  reduces  the  computational  costs  for  3D and oscillating problems.
 
In  part  b)   above,   the  PCP  flow  solver  is  extended  for  explicit  time  integration  of  the  viscous terms  in  the  momentum  equations.  This  enables  the  flow  solver  to  employ  the  stress  data computed  from  the  Molecular  Dynamics  (MD)  simulations.  Using the Greedy algorithm, number of  the  required  MD  simulations  are  optimized.  The  data  is  regularized  using  a  Tikhonov regularization technique.  

17.08.2016, 13:00, room 2.013. Anna Kulischkin, "Die Kombinationstechnik als Zeitintegrator in Parareal"

 Um die Rechenzeit beim Lösen zeitabhängiger partieller Differentialgleichungen zu reduzieren, wird das Parareal-Verfahren eingesetzt. Bei diesem Verfahren ermöglichen grobe und feine Zeitintegratoren eine Zeitparallelisierung. Untersucht wurde die Kombinationstechnik als grober Zeitintegrator für die Parareal-Implementierung. Dafür wurde die Kombinationstechnik für das zwei-dimensionale Modellproblem der Wärmeleitungsgleichung implementiert. Zum Auswerten der Ergebnisse wurde die Rechenzeit und die benötigte Anzahl der Iterationen sowie der dabei entstehende Fehler betrachtet. 

26.07.2016, 14:00, room 2.013. Dominik Lekar, "Routinen zur Auswertung von Simulationen mit ESPResSo zur virtuellen Weiterentwicklung von Innenraumfiltern"

Innenraumfilter dienen dazu, die Insassen und das Lüftungsgerät vor Staub, Pollen und anderen Partikeln zu schützen. Die derzeitige Entwicklung von solchen Filtermedien erfolgt meist nach der Trial-and-Error-Methode und erfordert daher einen hohen Versuchsaufwand. Um die Entwicklung der Filtermedien voranzubringen, wird in dieser Arbeit ein Skript für die Software für Molekulardynamik „ESPResSo“ erweitert. Ziel ist die kontinuierliche Beladung einzelner Fasern mit unterschiedlichen Partikeltypen. Die Evaluierung des Skripts geschieht durch die Auswertung von gewonnenen Simulationsergebnissen. Aus diesen wird ersichtlich, dass der Abscheidegrad eines Partikeltyps von seiner Trägheit abhängt und dieser durch die Wahl unterschiedlicher Parameter beeinflusst werden kann.

15.07.2016, 13:00, room 2.013. Felix Kohlgrüber, "Visualization of Octree-Based Cartesian Grids"

Octrees können verwendet werden, um auf einfache Weise adaptiv verfeinerte dreidimensionale Gitter zu beschreiben. Dieser Ansatz kann durch das Verbinden mehrerer Octrees zu einem „Forest of Octrees“ erweitert werden, der eine höherer Flexibilität bei der Beschreibung des Gitters zulässt (siehe p4est Softwarebibliothek). In dieser Bachelor Thesis werden Möglichkeiten betrachtet, einen Forest of Octrees mit zusätzlichen Attributen interaktiv zu visualisieren. Ziel der Visualisierung ist, die Analyse der generierten Gitterstruktur zu vereinfachen und zu beschleunigen.
Die Inhalte dieses Zwischenvortrags sind nach einer Einführung in das Thema die Demonstration des aktuellen Stands der Visualisierung sowie die Diskussion weiterer Visualisierungsmöglichkeiten.

12.07.2016, 14:00, room 0.453. Juri Schröder, "Optimierung von unsicheren Systemen mit B-Splines auf dünnen Gittern"

Quantifizierung von Unsicherheiten (UQ) beschäftigt sich damit, wie sich die Auswirkung von fehlendem Wissen über Prozesse auf Zielgrößen quantifizieren lässt. Möchte man Auswertungen eines solchen unsicheren Modells durchführen, werden meist rechenintensive Simulationen benötigt, wodurch eine Optimierung von Parametern schwer durchführbar wird. Abhilfe schafft das Erstellen einer Dünngitter-Surrogats-Funktion, welche das eigentliche Modell approximiert. Eine Optimierung hinsichtlich der Varianz bzw. des Erwartungswertes kann dann auf diesem Surrogat durchgeführt werden. Um gradientbasierte Verfahren anwenden zu können muss die erzeugte Funktion glatt sein, weshalb B-Splines als Basis-Funktionen zum Einsatz kommen.

08.07.2016, 14:30, room 2.014. Vincent Wagner, "Lastquantifizierung in Molekülsimulationen mit langreichweitigen Kräften"

Molekulardynamische Simulationen sind eine der Herausforderungen im Wissenschaftlichen Rechnen. Etwa die Hälfte der mit dem renommierten Gordon-Bell-Preis ausgezeichneten Publikationen der letzten zehn Jahre befasst sich mit Molekulardynamik. Essentiell sind hierbei die verwendeten Kraftfelder. Eine wichtige Klasse bilden dabei die sogenannten langreichweitigen Kräfte, wie z.B. Coulomb-Kräfte für elektromagnetische Wechselwirkungen oder Gravitationskräfte. Um diese Wechselwirkungen effizient zu berechnen, können baumbasierte Verfahren wie Barnes-Hut oder Fast-Multipole zum Einsatz kommen. Um auf aktuellen Höchstleistungsrechnern konkurrenzfähig zu sein, müssen Algorithmen stark parallelisiert werden. Bei inhomogenen Lastverteilungen spielt hier die Balancierung der Last zwischen den einzelnen Prozessen eine wichtige Rolle. In diesem Vortrag geht es um die Kombination genannter baumbasierten Verfahren und effizienter Parallelisierung.

01.07.2016, 13:30, room 2.013. Marcel Hurler, "Erkennung von Silent Faults mit der Kombinationstechnik"

Innerhalb dieser Arbeit werden zwei Verfahren vorgestellt, um bisher unerkannte Fehler während der Simulation von Diffusions- und Advektionsproblemen mit der Dünngitter Kombinationstechnik aufzudecken. Der Schwerpunkt liegt hierbei auf der Erkennung von Fehlern anhand der zeitlichen Entwicklung einer einzelnen Kombinationslösung, ohne Vergleiche zwischen anderen Kombinationslösungen herzustellen. Die Untersuchungen zeigen, dass die beiden Verfahren im Falle eines für die Lösung relevanten Fehlers zum Zeitpunkt der Korruption ein unnatürliches Verhalten aufweisen, welches ein hohes Potential besitzt, um von einem automatisierten Erkennugsverfahren detektiert werden zu können.

01.07.2016, 13:00, room 2.013. Benjamin Maier, "Hochgenaue 3D Simulation für Outdoor-Roboter"

Damit sich mobile autonome Roboter in ihrer Umgebung lokalisieren können, werden Laserscanner verwendet, um laufend ein Abbild der aktuellen Umgebung zu erfassen. In der Arbeit wird ein solches Szenario simuliert. Hauptbestandteil ist dabei die Nachbildung der Funktion des Laserscanners, die durch Strahlverfolgungen in einem großen Punktwolken-Datensatz geschieht. Dabei sind effiziente Datenstrukturen und schnelle Algorithmen notwendig.

06.06.2016, 13:15, room 0.124. Anna Kulischkin, "Die Kombinationstechnik als Zeitintegrator in Parareal"

Für die Parareal-Implementierung wird die Eignung der Kombinationstechnik als grober Zeitintegrator untersucht. Implementiert wurde die Kombinationstechnik für das zwei-dimensionale Modellproblem der Wärmeleitungsgleichung. Untersucht wird die Rechenzeit und das Verhalten der Lösung unter Anwendung unterschiedlicher Parameter, die für die Kombinationstechnik verwendet werden.

30.05.2016, 14:00, room 2.013. Daniel Eschbach, "Implementation einer allgemeinen Gitterschnittstelle in ESPResSo"

Am Beispiel des Molekulardynamik Codes ESPResSo wird eine Gitterschnittstelle entworfen, die den minimal-invasiven Austausch regulärer kartesischer Gitter durch dynamisch-adaptiver baumstrukturierter Gitter, realisiert durch die p4est Bibliothek, unterstützen soll. Ziel ist das Bereitstellen einer Schnittstelle, die erlaubt, beide Gitter mit dem gleichem Anwendungscode zu verwenden und flexibel austauschbar zu machen.

24.05.2016, 12:30, room 2.013. Daniel Pfister, "Implementation of a Parallel Multigrid Solver for the Solution of Higher-dimensional PDEs on Anisotronic Grids in DUNE"

In dieser Bachelorarbeit wird ein paralleler geometrischer Mehrgitterlöser erweitert um mit der der Dünngitter-Kombinationstechnik genutzt werden zu können. Zum Testen dieser Methode wird die stationäre Advektions-Diffusions Gleichung verwendet, welche mit der Finite-Volumen-Elemente Methode diskretisiert wird. Es werden geeignete Komponenten für den Mehrgitterlöser gewählt und ihre Konvergenz und parallele Effizienz wird in numerischen Experimenten getestet. Die Implementierung nutzt die Distributed and Unified Numerics Environment (DUNE) für den Löser und die Diskretisierung. Das SG++ Distributed Combigrid Modul wird für die Kombinationstechnik eingesetzt. Eine kleine Studie zur schwachen Skalierbarkeit wird durchgeführt um den Einfluss der Streckung der Gitter zu messen.

29.04.2016, 13:15, room 0.124. Tim Würtele, "Kompression von numerischen Datensätzen mittels mehrdimensionaler hierarchischer Teilraumschemata"

Anhand der in bzip2 verwendeten Kompressionspipeline wird ein Verfahren zur Kompression von hierarchisierten numerischen Datensätzen entwickelt, der Schwerpunkt liegt dabei auf der Vorbereitung der Datensätze für die Kompressionspipeline und deren Auswirkungen auf die Kompressionsleistung .

18.04.2016, 14:00, room 2.013. Dominik Lekar, "Simulation der Beladung eines Faser-Arrays mit ESPResSo"

Innenraumfilter dienen dazu, die Insassen und das Lüftungsgerät vor Staub, Pollen und anderen Partikeln zu schützen. Die derzeitige Entwicklung von solchen Filtermedien erfolgt meist nach dem Trial & Error-Verfahren und erfordert daher einen hohen Versuchsaufwand. Um die Entwicklung der Filtermedien voranzubringen, soll ein Skript für die Software für Molekulardynamik ESPResSo erweitert werden, um die Beladung eines Faser-Arrays mit kontinuierlich zugegebenen Partikeln zu simulieren.

18.04.2016, 14:30, room 2.013. Malte Brunn, "Data-Mining für adaptive dünne Gitter mit polynomiellen Basisfunktionen auf GPUs"

Mit wachsenden Datenmengen, gespeist durch immer genauere Messverfahren, größere Simulationen, und modernere Technik, steigt auch die Notwendigkeit dieser Datenflut Herr zu werden. Hochdimensionale Probleme, die herkömmliche Gitterverfahren in die Knie zwingen, können von Methoden für so genannte dünne Gitter oft noch bewältigt werden. Zudem erhofft man sich durch das Verwenden von Basisfunktionen höherer Ordnung ein besseres Konvergenz- und Approximationsverhalten. Diese Vorteile bringen allerdings einen erhöhten Rechenaufwand mit sich. In dieser Arbeit wurden die grundlegenden Operationen für Regressions- und Klassifizierungsaufgaben für dünne Gitter mit Hinblick auf die hoch-parallele Architektur von Grafikkarten optimiert. Dazu wird unter anderem die räumliche Struktur von raumfüllenden Kurven, wie die Morton-Kurve genutzt, um sowohl die Effizienz als auch die Komplexität der Algorithmen zu steigern.

05.04.2016, 14:00, room 2.013. Marcel Hurler, "Erkennung von Silent Faults mit der Kombinationstechnik"

Fehlertoleranz ist ein großes Thema bei der Entwicklung von Agorithmen für zukünftige Exascale Systeme. Im Rahmen der Arbeit soll untersucht werden wie die Kombinationstechnik sich zur Erkennung von sogenannten Silent Faults eignet.

Winter Term 2015/16

23.02.2016, 14:00, room 2.013. Jan Rapp, "Entwicklung eines Source-to-Source-Compilers für explizite Optimierung"

Moderne Hardwareplattformen benötigen auf die jeweilige Plattform zugeschnittenen, hochoptimierten Code, um nahe an die Peak-Performance zu kommen. Dieser Code kann zur Laufzeit mithilfe von Code-Generatoren erzeugt werden, was allerdings sehr aufwendig ist. Im Rahmen dieser Arbeit wird deswegen ein Source-To-Source Compiler erstellt, der bestimmte Optimierungen automatisch durchführt und damit die Entwicklung von hochperformantem Code vereinfacht.

23.02.2016, 14:30, room 2.013. Jaysen Blei, "Optimierung mit Lagrange-Polynomen auf dünnen Gittern"

Bei globalen Optimierungsproblemen geht es im Allgemeinen um die optimale Wahl von d unbekannten Parametern, damit eine Zielfunktion f einen möglichst kleinen (oder großen) Funktionswert annimmt. Selbst, wenn man annimmt, dass die Parameter voneinander unabhängig sind und jeweils in einem vorgegebenen Bereich liegen (z. B. f: [0, 1]d → ℝ), so steigt die Komplexität des Problems sehr schnell mit der Parameterzahl d, was uniformes Sampling des Definitionsbereichs schon für moderate Dimensionalitäten d ≥ 4 unmöglich macht (sog. „Fluch der Dimensionalität“). Bei vielen Anwendungen steckt hinter jeder Auswertung von f eine komplexe Simulation, sodass Algorithmen gesucht sind, die mit möglichst wenig Funktionsauswertungen möglichst gute Approximationen der Optimalstelle finden. Ersetzt man f durch eine Interpolierende u und wendet die bestehenden Optimierungsalgorithmen auf u an, so erhält man ein Verfahren, das wertvolle Auswertungen von f einspart. In dieser Studienarbeit werden zur Bildung der Interpolierenden globale Lagrange-Polynome auf Clenshaw-Curtis-Gittern verwendet und auf ihre praktische Eignung zur anschließenden gradientenbasierten Optimierung hin untersucht.

23.02.2016, 15:00, room 2.013. Tim Würtele, "Kompression von numerischen Datensätzen mittels mehrdimensionaler hierarchischer Teilraumschemata"

Auf Basis von bzip2, einem allgemeinen Datenkompressionsverfahren, wird ein Kompressionsverfahren für numerische Datensätze entwickelt. Dabei werden die Datensätze zunächst hierarchisiert und dann die Eigenschaften der hierarchischen Darstellung ausgenutzt, um eine bessere Kompression als mit allgemeinen Datenkompressionsverfahren zu erreichen. Untersucht wird der Einfluss von verschiedenen Parametern auf die Kompressionsrate und Kompressionsgeschwindigkeit.

16.02.2016, 10.15, room 2.013. Daniel Pfister, "Implementation of a parallel multigrid solver for the solution of higher-dimensional PDEs on anisotropic grids in DUNE"

Abstract wird nachgereicht.

02.02.2016, 14:00, room 0.453. Raphael Leiteritz, "A Highly-Parallel Adaptive Algorithm for Regression Tasks on Spatially Adaptive Sparse Grids"

Since today’s sensors are capturing ever growing datasets their interpretation proves to be a challenge to industry and the scientific community. The field of data mining describes dealing with these problems in an automated way. This work introduces a new algorithm that combines the advantages of two known algorithms and is implemented using the OpenCL framework. Furthermore, an experiment on a modern AMD Kaveri APU is conducted to show possible advantages of the Heterogeneous System Architecture (HSA) when doing GPGPU computations. It is shown that the new algorithm is competitive for all tested datasets on regular grids consisting of 45,000 and more grid points. The HSA experiment shows a boost from 1586 MB/s to 2379MB/s in transfer bandwidth and thus shows that this architecture is beneficial for memory bandwidth limited problems.

14.12.2015, 14:00, room 0.453. Max Franke, "Sparse Grid Data Mining with Massive Datasets"

Due to the inflated costs of disk space and the prevalence of sensor equipment everywhere, the scientific world is flooded by huge amounts of data. The intention being to somehow benefit from that data, data mining algorithms are used to evaluate those data. As conventional data mining methods scale at least linear with problem size and exponentially with input problem dimension, this poses a great problem as to the computing power required to mine these data. For the testing of data mining algorithms, very few real world reference datasets exist. Using an already in-place toolkit for data mining on sparse grids, the goal of this thesis is to generate one or more real world reference datasets for data mining purposes. For this purpose, multiple weather and photovoltaic datasets were used. It was possible to learn 6-dimensional datasets with 1.2 million data points and obtain a very good prediction of photovoltaic power. Thus, a dataset was obtained to test regression on. For classification, a 9-dimensional dataset with 200 000 data points was generated, which however didn’t have overly good results, with a 41% hit rate over 4 classes. Here, further processing of the data will be necessary.

14.12.2015, 14:00, room 0.453. Gregor Daiß, "Distributed Sparse Grid Clustering with Huge Datasets"

Clustering ist ein Verfahren, das in vielen unterschiedlichen Disziplinen eingesetzt wird, um Muster in Daten zu erkennen. Wachsende Datenvolumen erfordern hierzu effiziente Algorithmen, welche auch große Datenmengen in akzeptabler Zeit clustern können. In dieser Arbeit wird zu diesem Zweck ein Clustering Verfahren genutzt, das auf einer Dichteschätzung mit dünnen Gittern und einem k-nearest-neighbors Verfahren basiert. Dieser Algorithmus ist gut geeignet um große, höherdimensionale Datensätze zu clustern und in verrauschten Datensätzen Cluster beliebiger Form zu suchen. Um die heutigen Parallelrechner ausnutzen zu können, wird zur Implementierung OpenCL verwendet. Zur weiteren Aufteilung des
Problemes wird das Message Passing Interface genutzt, um das Clustering auf mehrere Rechner verteilen zu können. Mit dieser Implementierung wurde auf einem Rechencluster mit 64 Xeon Phi Coprozessoren ein zehndimensionaler, stark verrauschter Datensatz mit einer Million Datenpunkte in 1434 Sekunden geclustert, wobei sämtliche Cluster erkannt und 88.99% der Datenpunkte dem richtigen Cluster zugeordnet wurden.

17.11.15, 14:00, room 0.453. David Hardes, "Schnelle parallele Mehrgitterlöser auf kartesischen Gittern"

Mehrgitterverfahren sind verbreitete Verfahren, die dazu dienen, die Lösungsapproximation eines linearen Gleichungssystemes schnell und effizient zu berechnen.Um die Verfahrendurch Parallelisierung zu beschleunigen, muss man kommunikationsaufwändige Verfahren zur Glättung nutzen. Eine interessante Alternative dazu stellen die additiven Mehrgitterverfahren dar, die nicht versuchen, die verwendeten Operationen zu parallelisieren, sondern stattdessen alle Stufen der Gitterhierarchie parallel bearbeiten. Im Rahmen dieser Arbeit werden verschiedene Verfahren, unter anderem ein additives Mehrgitterverfahren, implementiert und im Hinblick auf Konvergenzeigenschaften, Speicher- und Laufzeitbedarf untersucht.

15.11.15, ab 14:00, room 0.453, Stephan Herb, "Entwicklung eines FEM Codes zur Fluid-Struktur Kopplung" (Abschlussvortrag)

Beschreibung: siehe unten

27.10.15, 14:00, room 0.453. Stephan Herb, "Entwicklung eines FEM Codes zur Fluid-Struktur Kopplung"

Mit dem Kopplungscode preCICE besteht eine leistungsfähige Bibliothek zur Kopplung vorhandener Löser zu komplexen Multi-Physik Szenarien. Diese bestehen zum Beispiel aus Fluid-, Struktur-, und Akustik Komponenten. Innerhalb von preCICE wurden Adapter zur Kopplung an vorhandene FEM-Codes geschaffen. Inbetriebnahme und Problemformulierung dieser Codes stellen jedoch schon komplexe Verfahren für sich da oder sind mit Lizenzkosten verbunden. Im Rahmen dieser Masterarbeit wird ein Code zur Simulation von Membranstrukturen basierend auf der Finite-Elemente-Methode (FEM) enwickelt werden und mittels preCICE an bestehende Löser zur Fluid-Simulation gekoppelt werden. Die Formulierung konkreter und nachprüfbarer Anforderungen an einen solchen Code ist Bestandteil der Arbeit. Besonderes Augenmerk soll dabei auf Einfachheit und künftige Wartbarkeit des Codes gelegt werden. In seinem Zwischenvortrag wird Stephan Herb v.a. auf die Auswahl der zugrundliegenden FEM-Bibliothek sowie auf Probleme bei der Implementierung eingehen.

27.10.15, 14:30, room 0.453. Steffen Hirschmann, "Lastbalancierungsverfahren für dynamische und heterogene Linked-Cell Molekülsimulation"

Molekulardynamik- und allgemein N-Teilchen-Simulationen sind eine der "sieben Zwerge" im High-Performance-Computing. Insbesondere inhomogene Szenarien, wie z.B. Agglomerationsprozesse oder Turbulenzen, sind eine Herausforderung. Um diese über einen längeren Zeitraum auf vielen Prozessoren effizient rechnen zu können, muss eine ungleiche Lastverteilung vermieden werden. Dies wird mittels Lastbalancierung erreicht. Im Zuge dieser Arbeit werden Lastmodelle und Lastbalancierungsverfahren für Teilchensimulationen mit kurzreichweitigen Kräften betrachtet. Es werden mehrere Verfahren vorgestellt und Ergebnisse zur Lastreduktion bei statischer Partitionierung vorgestellt.

Summer Term 2015

10.09.15, 13:30, room 02.013. Benjamin Maier, "Die Finite-Elemente-Methode mit dynamisch-adaptiven kartesischen Gittern"

Zur Lösung von Differentialgleichungen mit der Finite-Elemente-Methode (FEM) wird das zweidimensionale Rechengebiet häufig durch ein kartesisches Gitter diskretisiert. Der Rechenaufwand lässt sich verringern, wenn an "uninteressanten" Stellen statt des feinen Gitters adaptiv gröbere Elemente eingesetzt werden.
In diesem Vortrag wird eine parallele Implementierung eines geeigneten, dynamisch-adaptiven Gitters vorgestellt, das auf Quadtrees beruht. Dabei wird eine heuristische Lastbalancierung verwendet. Die Datenstruktur wird eingesetzt, um Strömungsprobleme mit der FEM zu berechnen. (Für bunte Bilder ist also gesorgt!)

10.09.15, 14:00, room 02.013. Johannes Walter, Zwischenvortrag "Entwurf und Implementierung eines Fehlersimulators für die Kombinationstechnik auf HPC Systemen"

Einer der Vorteile der Kombinationstechnik ist, das sie effektive Ansätze ermöglicht Fehler, die bei großen Simulationen auf zukünftigen HPC System auftreten werden, zu erkennen und zu behandeln, ohne dazu auf weniger effiziente Verfahren wie Checkpoint-Restart zurückgreifen zu müssen. Allerdings ist es im Moment nicht möglich diese Verfahren unter realistischen Bedingungen auf einem großen HPC System (wie zum Beispiel Hornet am HLRS) zu testen. Zum einen sind die Fehlerausfallwahrscheinlichkeiten von heutigen Systemen noch nicht hoch genug. Repräsentative Messungen sind daher nicht möglich. Zum anderen stehen auf diesen Systemen auch noch keine fehlertoleranten MPI Implementierungen zur Verfügung, die zum Erkennen und Behandeln von Fehlern auf Softwarebene nötig wären. In der Arbeit soll ein Fehlersimulator entwickelt werden und als Schicht zwischen der systemspezifischen MPI Implementierung und der Anwendungsschicht, d.h. unseremKombinationstechnik-Framework, implementiert werden.

25.08.15, 14:00, room 02.013. Jonas Schradi, "Implementation of a parallelized two-dimensional particle simulation with Linked Cells"

Simulations are believed to be the new key technology in scientific research, even being called ‘the third pillar of modern research’. Virtual experiments create new insights of complex systems. To describe the behaviour of a system precisely, many details have to be considered which is obstructive in creating fast results. One of the most detailed are particle simulations, which create insights on systems on a microscale. The aim of this work was to create a 2D-Particle Simulation, that combines the reduced complexity of the Linked Cell Algorithm with parallel programming to reduce calculation-duration rapidly. In simple implementations of particle simulations the complexity raises with O(N 2 ).The inclusion of load-balancing algorithms is prepared.

28.07.15, 14:00, room 02.140. Sebastian Staudenmaier, "Erfassung von Plattform-Parametern mit OpenCL"

Mit OpenCL besteht eine einheitliche Schnittstelle, um für verschiedenste Hardwareplattformen wie CPUs, GPUs oder Beschleunigerkarten zu programmieren. In dieser Arbeit soll darauf eingegangen, wie sich diese Hardware charakterisieren lässt, um Faktoren zu entlarven, die für die Portabilität der Performance abträglich sind. Es wird die Implementierung einer Bibliothek zur Abfrage von Hardwareparametern über die OpenCL-API sowie die Erstellung von Microbenchmarks zur wei teren Untersuchung der Hardware erläutert. Für diese Microbenchmarks werden Testergebnisse präsentiert und deren Bedeutung diskutiert. Im Weiteren werden Nutzungsvorschläge wie auch Erweiterungsmöglichkeiten für die Microbenchmarks genannt.

09.07.15, 9:45, room 02.013. Konstantinos Krestenitis, "Calculating the Minimum Distance Between Two Triangles on SIMD Hardware for DEM and Contact Point Generation"


07.07.15, 14:30, room 02.013. Steffen Hirschmann, "Lastbalancierungsverfahren für dynamische und heterogene Linked-Cell Molekülsimulation"

Molekulardynamik- und allgemein N-Teilchen-Simulationen sind eine der "sieben Zwerge" im High-Performance-Computing. Insbesondere inhomogene Szenarien, wie z.B. Agglomerationsprozesse oder Turbulenzen, sind eine Herausforderung. Um diese über einen längeren Zeitraum auf vielen Prozessoren effizient rechnen zu können, muss eine ungleiche Lastverteilung vermieden werden. Dies wird mittels Lastbalancierung erreicht. Im Zuge dieser Arbeit werden Lastmodelle und Lastbalancierungsverfahren für Teilchensimulationen mit kurzreichweitigen Kräften betrachtet. Erstere geben einen Aufschluss darüber, was überhaupt ausgeglichen werden soll und dienen zur Ergebnisevaluation. Letztere übernehmen das eigentliche Ausbalancieren der Last, indem sie gewisse oder alle Teilchen neu verteilen. Es werden mehrere Verfahren vorgestellt und näher betrachtet.

07.07.15, 15:00, room 02.013. Axel Reiser, "Echtzeit-Festkörper-Simulation mit der Lattice Boltzmann Methode"

Die Lattice Boltzmann Methode ist ein beliebtes Verfahren zur Simulation von Strömungen v.a. wegen der schnellen Berechnung. Bei diesem mesoskopischen Modell werden Fluidbewegungen mithilfe von probabilistischen Verteilungen erzeugt. Für die Kopplung mit der Festkörper-Simulation müssen verschiedene Probleme gelöst werden. So muss diese in den Programmablauf integriert werden und die Festkörper in das Gitter der Lattice Boltzmann Methode. Dann müssen neue Randbedingungen definiert werden, da die Festkörper nicht diskretisiert sind. Eine Folge der Kopplung ist auch, dass nun Initialisierungsverfahren für Zellen benötigt werden. Zuletzt müssen noch die Festkörper vom Fluid angetrieben werden. Diese Kopplungsverfahren werden analysiert. Dazu gehört die Verifikation, der Vergleich der Methoden und die Untersuchung der Laufzeit.

12.06.15, 10:00, room 02.013. Carsten Burstedde, "Efficient Implementation of Adaptive Cartesian Grids -- p4est"


09.06.15, 15:00 Uhr, room 02.013. Claudius Proissl, "Globale Optimierung mit Dünngittersurrogaten durch Lagrange-Interpolation"

Bei globalen Optimierungsproblemen geht es im Allgemeinen um die optimale Wahl von d unbekannten Parametern, damit eine Zielfunktion f einen möglichst kleinen (oder großen) Funktionswert annimmt. Selbst, wenn man annimmt, dass die Parameter voneinander unabhängig sind und jeweils in einem vorgegebenen Bereich liegen (z. B. f: [0, 1]d → ℝ), so steigt die Komplexität des Problems sehr schnell mit der Parameterzahl d, was uniformes Sampling des Definitionsbereichs schon für moderate Dimensionalitäten d ≥ 4 unmöglich macht (sog. „Fluch der Dimensionalität“). Beispiele für solche Optimierungsprobleme finden sich in Theorie und Praxis zuhauf; konkrete Beispiele beinhalten etwa klassische inverse Probleme zur Bestimmung von unbekannten Parametern eines Modells zur möglichst exakten Reproduktion von experimentell ermittelten Daten. Bei vielen Anwendungen steckt hinter jeder Auswertung von f eine komplexe Simulation, sodass Algorithmen gesucht sind, die mit möglichst wenig Funktionsauswertungen möglichst gute Approximationen der Optimalstelle finden. In dieser Arbeit wurde ein Algorithmus untersucht, der mit Lagrange-Interpolation auf dünnen Gittern arbeitet.

04.05.15, 13:30 Uhr, room 02.140. Albert Ziegenhagel, "A Form-Compiler for the Partition of Unity Code PaUnT"

Bei der Entwicklung von numerischer Software sind oft Personen mit unterschiedlichsten Hintergründen involviert. Typisch sind hierbei Mathematiker, Softwareentwickler und Ingenieure, wobei jede dieser Gruppen das Problem von einer anderen Richtung aus betrachtet. Dies stellt insbesondere im Bereich der Benutzerfrundlichkeit hohe Anforderungen an die Software die entwickelt wird. Es wird eine Schnittstelle zum Partition of Unity Code PaUnT präsentiert, welche diese Probleme adressiert. Basierend auf den Ideen des FEniCS Projekts enthält diese Schnittstelle einen Form-Compiler, der es erlaubt die schwachen Formulierungen der Problem-PDEs in einer Sprache zu formulieren, die sehr nahe an üblicher, mathematischer Notation ist und diese anschließend in effizienten C++ Code übersetzt. Es lassen sich damit Problemstellungen lösen, welche vom bisherigen Code nicht unterstützt wurden. Dabei wird ein hohes Augenmerk auf Elemente, wie das Anwenden von Enrichmentfunktionen, gelegt die typisch für die Partition of Unity Methode sind. Außerdem wird gezeigt, dass die Effizienz des Form Compilers und der Python Schnittstelle das Potential hat, mit der reinen C++ Version zu konkurrieren.

04.05.15, 14:30 Uhr, room 02.140. Klaudius Scheufele, "Robust Quasi-Newton Methods for Partitioned Fluid-Structure Simulations"

In recent years, quasi-Newton schemes have proven to be a robust and efficient way for the coupling of partitioned multi-physics simulations in particular for fluid-structure interaction. In this talk, the focus is put on the coupling of partitioned fluid-structure interaction, where minimal interface requirements are assumed for the respective field solvers, thus treated as black box solvers. The coupling is done through communication of boundary values between the solvers. A new quasi-Newton variant (IQN-IMVJ) based on a multi-vector update is investigated in combination with serial and parallel coupling systems. Due to implicit incorporation of passed information within the Jacobian update it renders the problem dependent parameter of retained previous time steps unnecessary. Besides, a whole range of coupling schemes are categorized and compared comprehensively with respect to robustness, convergence behaviour and complexity. Those coupling algorithms differ in the structure of the coupling, i. e., serial or parallel execution of the field solvers and the used quasi-Newton methods. A more in-depth analysis for a choice of coupling schemes is conducted for a set of strongly coupled FSI benchmark problems, using the in-house coupling library preCICE. It is confirmed that the multi-vector method works optimal without the need of tuning problem dependent parameters in advance.

27.04.15, 13:30 Uhr, room 02.140. Arash Bakhtiari, "A Distributed Memory Advection-Diffusion Solver with Dynamic Adaptive Trees"


Winter Term 2014/15

04.03.15, 14 Uhr, room 02.013. Malte Brunn, "Hierarchical basis functions of higher order for sparse grids on GPUs"

In this project, a parallel approach for interpolating data on regular sparse grids with piecewise polynomial basis functions is shown. Starting with a basic explanation of sparse grids, hierarchical (polynomial) basis functions and the interpolating method, one main focus is the underlying representation of the data as well as the algorithm itself, due to the problem’s highly recursive structure. With respect to massively parallel processor architectures (SIMD), the need for highly synchronous algorithms is described. Further, the results of an implementation in CUDA C/C++ for NVIDIA graphic cards are presented. The already existing implementation for common CPUs of the SG++ software toolkit is used as reference for runtime experiments and result validation. The parallel algorithm achieved speed-ups up to 90 on the GPU where the absolute error of the interpolated function at grid points was in order of the machine accuracy.

13.02.15, 13 Uhr, room 02.140. Constantin Schreiber, "Dünngitter-Diskretisierungen für Probleme mit variablen Koeffizienten"

In dieser Arbeit werden Verfahren untersucht, um die Steifigkeitsmatrix einer Finiten-Element-Diskretisierung auf einem anisotropen Teilraumschema effizient anzuwenden. Es wird dabei ein levelweiser Ansatz nach Peherstorfer und Zenger verwendet, der für den Einsatz bei allgemeineren Ansatzfunktionen und Operatoren erweitert werden soll.

04.11.14, 14 Uhr, room 02.140. Özcan Kara, "Design moderner Numerikbibliotheken am Beispiel von SG++"

Das Design von Schnittstellen erfordert besondere Sorgfalt. Zentrale Qualitätsmerkmale von guten Schnittstellen sind unter anderem Funktionalität, Verwendbarkeit, Erweiterbarkeit und Stabilität. Die Anforderungen an eine Schnittstelle steigt zusätzlich, wenn der Programmcode in sehr unterschiedlichen Hardwareumgebungen und die Bibliothek aus mehreren Programmiersprachen heraus verwendet werden kann. Herr Özcan Kara hat sich im Rahmen seiner Diplomarbeit mit dem Design von Schnittstellen beschäftigt, die diesen Anforderungen entsprechen. Zu diesem Zweck hat er die Numerikbibliothek SG++ untersucht und entsprechend modernem Software Engeneering verbessert. Die Ergebnisse seiner Diplomarbeit wird Herr Kara in diesem Vortrag vorstellen.