zur Startseite

Kolloquien SGS - Colloquium SGS

Summer Term 2017

26.09.2017, 14:00, room 2.013, Dominic Parga Cacheiro "Quantifizierung von Unsicherheiten in mikroskopischer Verkehrssimulation"

Eine mikroskopische Verkehrssimulation nur mit einspurigen Straßen - das darf doch nicht so bleiben? Genau! Aus diesem Grund wurde das einspurige Nagel-Schreckenberg-Modell einer existierenden Simulationssoftware im Rahmen einer Bachelorarbeit auf ein mehrspuriges Modell ausgebaut. Im Anschluss wurde es mit Hilfe von UQ-Methoden evaluiert. Dabei wurden beim Simulieren Daten gesammelt, die mit realen Verkehrsdaten verglichen wurden.

26.09.2017, 14:30, room 2.013, Jan-Oliver Schmidt, "Adaptiven Kerndichteschätzer mit großen Datensätzen"

In dieser Bachelorarbeit wurde untersucht, welche adaptiven Kerndichteschätzer sich für große Datensätze eignen und wie diese effizient implementiert werden können. Unterschiedliche Kerne (Gauss, Epanechnikov) wurden untersucht, die kernbasierten Methoden mit der Dünngitterdichteschätzung verglichen und zusätzlich die Rosenblatt Transformation, eine wichtige Transformation im UQ Bereich implementiert.

07.09.2017, 14:30, room 2.013, Raman Sharma, Bernhard Fischer, Oliver Jackson, Henry Vu, Maximilian Wildbrett, "Vergleich von Programmierkonzepten und -sprachen anhand des Beispiels der Molekulardynamik"

Für effiziente Simulationen muss Code (möglichst maschinennah) optimiert werden. Dem steht oft der Wunsch nach les- und wartbarem Code entgegen. Im Software Engineeringgibt es hierfür diverse Metriken für Code-Qualität und den Prozess des Codierens. Einfache Beispiele wären die benötigte Zeit, um ein Programm zu schreiben, oder die Anzahl an Codezeilen. In diesem Projekt-Inf wurden verschiedene Programmierkonzepte und -sprachen anhand eines gemeinsamen Problemes, einer Molekularsimulation für kurzreichweitige Interaktionen, verglichen.

07.09.2017, 14:00, room 2.013, Felix Diez, "Gradientenbasierte Approximation mit B-Splines auf dünnen Gittern"

Die Approximation von hochdimensionalen Flächen ist ein wichtiges Werkzeug in der Numerik. Die Auswertung von Funktionswerten kann jedoch zeitaufwändig sein. Abhilfe können dabei Surrogate schaffen. Herkömmliche Interpolation verwendet dabei aber nur Funktionswerte. In manchen Anwendungen sind jedoch auch Gradienten bekannt. In diesem Vortrag wird es darum gehen, mithilfe der Kombinationstechnik diese Informationen der Gradienten zu verwenden, um die Approximationsgüte zu verbessern. Dabei werden zuerst die verwendeten Basisfunktionen vorgestellt. Danach geht es um zwei verschiedene Ansätze, die diese zusätzlichen Informationen verarbeiten. Schließlich werden erste Vergleiche zwischen den Ansätzen und darüber hinaus mit herkömmlichen Interpolationsmethoden durchgeführt.

10.08.2017, 14:30, room 2.013, Vincent Wagner, "Efficient Calculation of Fractional Diffusion using a Tree-based Algorithm"

Modelling of material transport in the environment is an essential component of various technological applications with high societal impact. Two motivating examples are contaminant transport in groundwater flow and the transport of oil droplets in the ocean. By incorporating systematic means of representing sub-diffusive transport fluxes at different length and time scales, fractional diffusion models provide a well-founded framework for addressing the multi-scale physics challenges arising in complex applications. I will present two discretisation methods for fractional order derivatives and analize their properties. Boundary conditions pose a challenge, which is discussed. Finally, a tree-based approach is used to calculate derivatives of fractional order efficiently in linear time, that can be combined with an arbitrary high order of discretisation accuracy by using the discretisation presented in this talk.

27.06.2017, 9:00, room 2.013, Benjamin Maier, "Scientific Marble Run"

Eine Murmel soll von einem vorgegebenen Punkt möglichst schnell zu einem anderen gegebenen Punkt gelangen. Wie muss die dazwischen liegende Murmelbahn aussehen?

Diese Fragestellung wurde theoretisch und praktisch untersucht. Theoretisch, indem die optimale Lösung ohne und mit Reibung ermittelt wurde. Praktisch, indem mithilfe des 3D-Druckers 9 verschiedene Bahnen produziert wurden, die teils von Mitarbeitern des SGS vorgeschlagen wurden. Durch Lichtschranken kann die jeweilige Laufzeit gemessen werden.

In diesem Vortrag wird die Theorie der Bahnen vorgestellt, die Modellerzeugung und praktische Umsetzung wird erklärt und schließlich wird das gedruckte Modell ausprobiert.

06.06.2017, 14:00, room 2.013, Malte Brunn, "Coupling of Particle Simulation and Lattice Boltzmann Background Flow on Adaptive Grids"

The lattice-Boltzmann method as well as classical molecular dynamics are established and widely used methods for the simulation and research of soft matter. Molecular dynamics is a computer simulation technique on microscopic scales solving the multi-body kinetic equations of the involved particles. The lattice-Boltzmann method describes the hydrodynamic interactions of fluids, gases, or other soft matter on a coarser scale. Many applications, however, are multi-scale problems and they require a coupling of both methods. A basic concept for short ranged interactions in molecular dynamics is the linked cells algorithm that is in O(N) for homogeneously distributed particles. Spatial adaptive methods for the lattice-Boltzmann scheme are used in order to reduce costly scaling effects on the runtime and memory for large-scale simulations. As basis for this work the highly flexible simulation software ESPResSo is used and adapted. The adaptive lattice-Boltzmann scheme, that is implemented in ESPResSo, uses a domain decomposition with tree-based grids along the space-filling Morton curve using the p4est software library. However, coupling the regular particle simulation with the adaptive lattice-Boltzmann method for highly parallel computer architectures is a challenging issue that raises several problems.

In this work, an approach for the domain decomposition of the linked cells algorithm based on space-filling curves and the p4est library is presented. In general, the grids for molecular dynamics and fluid simulations are not equal. Thus, strategies to distribute differently refined grids on parallel processes are explained, including a parallel algorithm to construct the finest common tree using p4est. Furthermore, a method for interpolation and extrapolation, that is needed for the viscous coupling of particles with the fluid, on adaptively refined grids are discussed. The ESPResSo simulation software is augmented by the developed methods for particle-fluid coupling as well as the Morton curve based domain decompositions in a minimally invasive manner. The original ESPResSo implementation for regular particle and fluid simulations is used as reference for the here developed algorithms.

25.04.2017, 10:00, room 2.013, Peter Vollmer, "Performanzanalyse und Optimierung einer verteilten Multi-Physik-Simulationssoftware"

In seiner Arbeit hat er Methoden zum Verbinden und Kommunikation mehrerer MPI-Prozesse analysiert. Anschließend wurden die Methoden auf zwei HPC Systemen in Stuttgart und München vermessen und auf ihre Anwendbarkeit innerhalb preCICE überprüft.

04.04.2017, 9:30, room 0.124

  • Alexander Van Craen, Jens Drodofsky, Marcel Breyer: "What are convenient languages for numerical computing?"
  • Tobias Skarman: "Visualisierung von Lastimbalancen in kurzreichweitigen Molekülsimulationen"
  • Daniel Eschbach: "Integration of a Generic Grid Interface in ESPResSo"

Winter Term 2016/17

06.02.2017, 10:45, room 2.013, Jan Gemander, Rico Hartung, Maurice Koch, "3D-Druck und Visualisierung in der Topologieoptimierung mit dünnen Gittern"

In our project, we examined various ways to visualise topologically optimised results with the example of a cantilever beam. One important aspect included the creation of a 3D printable model from the provided raw data, and finally printing out the result. This required to gain knowledge about the theory of printing technologies, model requirements, as well as suitable triangulation-based file formats. One other significant part was improving existing visualisations with computer aided imagery by generating animations of the model involving displacement and stress.

02.12.2016, 9:45, room 2.013, Patrick Diehl (Universität Bonn), "Modellierung und Simulation von Brüchen und Rissen in Festkörpern mittels Peridynamik"

In diesem Vortrag wird eine kürze Einführung in die Theorie der Peridynamik gegeben. Für die Modellierung eines linearen elastischen Materials wird das verbindungs-basierte softening Materialmodell verwendet. Hier wird die theoretische Relation der Modellparameter zum shear modulus und der fracture toughness der linear-elastischen Bruchmechanik skizziert. Die Validierung des Modells wird anhand von experimentellen Daten gezeigt.

Der zweite Teil des Vortrags zeigt Methoden aus der Visualisierung für die Extraktion von Fragmenten, Stresswellen und Rissflächen auf. Hierzu werden die neue gewonnen Informationen aus den Simulationen auf physikalische Plausibilität geprüft.

22.11.2016, 14:00, room 2.013, Michael Rehme, "WEB-Spline-Kollokation für ein nichtlineares elliptisches Randwertproblem"

WEB-Splines, weighted and extended B-Splines, bilden eine Basis des Splineraumes, die stabil bezüglich der Gitterweite ist und die somit die Einsatzmöglichkeiten von B-Splines erweitert. An der nichtlinearen Poisson-Gleichung wird demonstriert, wie mit Hilfe der WEB-Spline-Kollokation deutlich schneller, als mit der klassischen Finite-Elemente-Methode, Lösungen elliptischer Differentialgleichungen berechnet werden können. Für die so berechneten Lösungen werden zwei neue Fehlerabschätzungen vorgestellt, die auf dem Residuum der approximativen Lösung beruhen. Als Motivation wird die Interpolation mit erweiterten B-Splines gezeigt, die eine systematische Interpolation mit B-Splines auch auf krummlinigen Gebieten in zwei und drei Dimensionen erlaubt.

08.11.2016, 14:00, room 2.013, Felix Huber, "The Sparse Grid Combination Technique for Quantities of Interest"

The complexity of simulations using fine grids increases very fast. Especially in higer dimensions this quickly becomes a major problem. The combination technique tries to tackle this problem by approximating the fine grid solution by a combination of many coarser grids. This presentation will focus on a combination technique for so called quantities of interests like integrals, statistical moments or other scalar properties. Starting from an error model for these quantities I explain how the combination method works. Furthermore I will present my results of my Bachelor's thesis where we put the focus on integration problems and the plasma simulation GENE.

08.11.2016, 14:40, room 2.013, Yuancheng Zhou, "The Sparse Grid Combination Technique for Quantities of Interest, Part II"

Abstract: TBA

25.10.2016, 13:30, room 0.453, Tilak Wälde, "Study of bottlenecks of parallel simulations with ESPResSo"

Abstract: TBA

25.10.2016, 14:00, room 0.453, Juri Schröder, "Optimierung von unsicheren Systemen mit B-Splines auf dünnen Gittern"

Quantifizierung von Unsicherheiten (UQ) beschäftigt sich damit, wie sich die Auswirkung von fehlendem Wissen über Prozesse auf Zielgrößen quantifizieren lässt und ist eine wichtige Fragestellung z. B. in der Modellprädiktiven Regelung. Möchte man Auswertungen eines solchen unsicheren Modells durchführen, werden meist rechenintensive Simulationen benötigt, wodurch eine Optimierung von Parametern schwer durchführbar wird. In dieser Arbeit wird eine Methode vorgestellt, die versucht dieses Problem mit Hilfe dünner Gitter zu lösen. Konkret beinhaltet das die Erzeugung von Surrogaten auf denen die stochastische Analyse bzw. die Optimierung durchgeführt wird. Für die Anwendung gradientenbasierter Optimierungsverfahren werden glatte Funktionen benötigt, deshalb kommen B-Splines bei der Erzeugung der Surrogate zum Einsatz.

04.10.2016, 14:00, room 2.013, Dr. Tobias Weinzierl (Durham University, UK), "Stop talking to me: communication avoiding and reducing techniques in the ExaHyPE project"

ExaHyPE is a H2020 project where an international consortium of scientists write a simulation engine for hyperbolic equation system solvers based upon the ADER-DG paradigm. Two grand challenges are tackled with this engine: long-range seismic risk assessment and the search for gravitational waves emitted by binary neutron stars. The code itself is based upon a merger of flexible spacetree data structures with highly optimised compute kernels for the majority of the simulation cells.

This talk is a tour de force through ExaHyPE. We start with a brief sketch of the project and the underlying workflow of the ADER-DG scheme. It becomes obvious that the scheme - if not implemented naively - suffers significantly from high memory and data movement demands on modern architectures. In the main part of the talk, we thus highlight various techniques how to reduce the number of data movements to and from the memory subsystem, how to squeeze out bits from the MPI data exchange and how to eliminate some MPI messages completely. A brief discussion of first results closes the talk.

Summer Term 2016

30.09.2016, 13:00, room 2.013, Felix Kohlgrüber, "Visualization of Octree-Based Cartesian Grids"

Octrees können verwendet werden, um auf einfache Weise adaptiv verfeinerte dreidimensionale Gitter zu beschreiben. Dieser Ansatz kann durch das Verbinden mehrerer Octrees zu einem „Forest of Octrees“ erweitert werden, der eine höherer Flexibilität bei der Beschreibung des Gitters zulässt (siehe p4est Softwarebibliothek). In dieser Bachelor Thesis werden Möglichkeiten betrachtet, einen Forest of Octrees mit zusätzlichen Attributen interaktiv zu visualisieren. Ziel der Visualisierung ist, die Analyse der generierten Gitterstruktur zu vereinfachen und zu beschleunigen.

30.09.2016, 13:30, room 2.013, Daniel Eschbach

Es wurde eine Gitterschnittstelle entwickelt, die es mittelfristig erlauben soll, die Lattice-Boltzmann-Implementierung von ESPResSo umzuziehen von ihrem gegenwärtigen regulären kartesischen Gitter hin zu einem baumstrukturierten kartesischen Gitter, welches durch p4est implementiert wird. Die Gitterschnittstelle definiert ein logisches adaptives kartesisches Gitter. In dieser Arbeit wurde die Gitterschnittstelle zunächst durch eine Implementierung für ein reguläres kartesisches Gitter unterlegt. Dies erlaubte es, die Lattice-Boltzmann-Implementierung aus ESPResSo beinahe unverändert weiter zu betreiben, um sich zunächst auf die Entwicklung des Schnittstellenkonzepts selbst konzentrieren zu können. Die Testresultate zeigen, dass die Gitterschnittstelle konzeptionell funktioniert und keine relevanten Performance-Einbußen verursacht.

27.09.2016, 13:00, room 2.013, Benjamin Maier, "3D Simulation für Outdoor-Roboter"

Für zukünftige Generationen mobiler Service-Roboter für den Außeneinsatz ist es wichtig, sich mittels Sensoren in der Umgebung präzise lokalisieren zu können. Dies kann beispielsweise mithilfe eines Laserscanners geschehen, der kontinuierlich 3D-Abbildungen der Umwelt aufnimmt.

In der vorgestellten Masterarbeit wird eine Simulation für dieses Szenario aus einem realen Anwendungsfall erstellt. Hauptbestandteil ist dabei die Nachbildung des Laserscanners, für den in einem großen Punktwolken-Datensatz Strahlen verfolgt werden müssen. Um die Simulation in Echtzeit durchführen zu können, werden geeignete Datenstrukturen und effiziente Algorithmen untersucht. Bestimmte Ungenauigkeiten des Umweltdatensatzes bei der Beschreibung von Vegetation werden dabei gesondert behandelt, zudem wird ein Visualisierungsverfahren für den Datensatz umgesetzt.
Am Ende steht eine interaktive Simulation, die die Entwicklung zukünftiger Outdoor-Roboter erleichtert.

19.09.2016,  15:00, room 2.013. Dr. Nehzat Emamy (Johannes Gutenberg University of Mainz), "Coupled Problems using the DG method: ElectroFluid-Dynamics applications and complex fluid flows"

A  discontinuous  Galerkin  Finite  Element  Method  (DG)  solver  for  the  incompressible   fluid  flows has  been  developed  using  the BoSSS code. The projection scheme  for decoupling  between the velocity  and  pressure  has  been  modified  for  a  proper  and consistent  discretization  with the DG method.  The  Projection  Consistent  Pressure  (PCP)  solver  has  been   verified  and  used  for simulating  unsteady  vortical  flows,  flow  over  airfoils,  steady   stagnation  point  flows  and multiphase flows.  
 
For  part  a)  above,  an  electrostatics  solver  has  been  developed  for  heterogeneous  materials. The  DG  spatial  discretization  has  been  modified  for  high jump ratios in the dielectric property of two  immiscible  fluids.  The  electrostatics  and  flow  solvers  are  weakly  coupled   for  performing electro­fluid­dynamics  (EFD)  simulations,  where  a  suspending  droplet  in a surrounding medium deforms  to  a  spheroid  by  applying  steady  and  oscillating  electric  fields.  A  symmetry  boundary condition  has  been  implemented,  which  considerably  reduces  the  computational  costs  for  3D and oscillating problems.
 
In  part  b)   above,   the  PCP  flow  solver  is  extended  for  explicit  time  integration  of  the  viscous terms  in  the  momentum  equations.  This  enables  the  flow  solver  to  employ  the  stress  data computed  from  the  Molecular  Dynamics  (MD)  simulations.  Using the Greedy algorithm, number of  the  required  MD  simulations  are  optimized.  The  data  is  regularized  using  a  Tikhonov regularization technique.  

17.08.2016, 13:00, room 2.013. Anna Kulischkin, "Die Kombinationstechnik als Zeitintegrator in Parareal"

 Um die Rechenzeit beim Lösen zeitabhängiger partieller Differentialgleichungen zu reduzieren, wird das Parareal-Verfahren eingesetzt. Bei diesem Verfahren ermöglichen grobe und feine Zeitintegratoren eine Zeitparallelisierung. Untersucht wurde die Kombinationstechnik als grober Zeitintegrator für die Parareal-Implementierung. Dafür wurde die Kombinationstechnik für das zwei-dimensionale Modellproblem der Wärmeleitungsgleichung implementiert. Zum Auswerten der Ergebnisse wurde die Rechenzeit und die benötigte Anzahl der Iterationen sowie der dabei entstehende Fehler betrachtet. 

26.07.2016, 14:00, room 2.013. Dominik Lekar, "Routinen zur Auswertung von Simulationen mit ESPResSo zur virtuellen Weiterentwicklung von Innenraumfiltern"

Innenraumfilter dienen dazu, die Insassen und das Lüftungsgerät vor Staub, Pollen und anderen Partikeln zu schützen. Die derzeitige Entwicklung von solchen Filtermedien erfolgt meist nach der Trial-and-Error-Methode und erfordert daher einen hohen Versuchsaufwand. Um die Entwicklung der Filtermedien voranzubringen, wird in dieser Arbeit ein Skript für die Software für Molekulardynamik „ESPResSo“ erweitert. Ziel ist die kontinuierliche Beladung einzelner Fasern mit unterschiedlichen Partikeltypen. Die Evaluierung des Skripts geschieht durch die Auswertung von gewonnenen Simulationsergebnissen. Aus diesen wird ersichtlich, dass der Abscheidegrad eines Partikeltyps von seiner Trägheit abhängt und dieser durch die Wahl unterschiedlicher Parameter beeinflusst werden kann.

15.07.2016, 13:00, room 2.013. Felix Kohlgrüber, "Visualization of Octree-Based Cartesian Grids"

Octrees können verwendet werden, um auf einfache Weise adaptiv verfeinerte dreidimensionale Gitter zu beschreiben. Dieser Ansatz kann durch das Verbinden mehrerer Octrees zu einem „Forest of Octrees“ erweitert werden, der eine höherer Flexibilität bei der Beschreibung des Gitters zulässt (siehe p4est Softwarebibliothek). In dieser Bachelor Thesis werden Möglichkeiten betrachtet, einen Forest of Octrees mit zusätzlichen Attributen interaktiv zu visualisieren. Ziel der Visualisierung ist, die Analyse der generierten Gitterstruktur zu vereinfachen und zu beschleunigen.
Die Inhalte dieses Zwischenvortrags sind nach einer Einführung in das Thema die Demonstration des aktuellen Stands der Visualisierung sowie die Diskussion weiterer Visualisierungsmöglichkeiten.

12.07.2016, 14:00, room 0.453. Juri Schröder, "Optimierung von unsicheren Systemen mit B-Splines auf dünnen Gittern"

Quantifizierung von Unsicherheiten (UQ) beschäftigt sich damit, wie sich die Auswirkung von fehlendem Wissen über Prozesse auf Zielgrößen quantifizieren lässt. Möchte man Auswertungen eines solchen unsicheren Modells durchführen, werden meist rechenintensive Simulationen benötigt, wodurch eine Optimierung von Parametern schwer durchführbar wird. Abhilfe schafft das Erstellen einer Dünngitter-Surrogats-Funktion, welche das eigentliche Modell approximiert. Eine Optimierung hinsichtlich der Varianz bzw. des Erwartungswertes kann dann auf diesem Surrogat durchgeführt werden. Um gradientbasierte Verfahren anwenden zu können muss die erzeugte Funktion glatt sein, weshalb B-Splines als Basis-Funktionen zum Einsatz kommen.

08.07.2016, 14:30, room 2.014. Vincent Wagner, "Lastquantifizierung in Molekülsimulationen mit langreichweitigen Kräften"

Molekulardynamische Simulationen sind eine der Herausforderungen im Wissenschaftlichen Rechnen. Etwa die Hälfte der mit dem renommierten Gordon-Bell-Preis ausgezeichneten Publikationen der letzten zehn Jahre befasst sich mit Molekulardynamik. Essentiell sind hierbei die verwendeten Kraftfelder. Eine wichtige Klasse bilden dabei die sogenannten langreichweitigen Kräfte, wie z.B. Coulomb-Kräfte für elektromagnetische Wechselwirkungen oder Gravitationskräfte. Um diese Wechselwirkungen effizient zu berechnen, können baumbasierte Verfahren wie Barnes-Hut oder Fast-Multipole zum Einsatz kommen. Um auf aktuellen Höchstleistungsrechnern konkurrenzfähig zu sein, müssen Algorithmen stark parallelisiert werden. Bei inhomogenen Lastverteilungen spielt hier die Balancierung der Last zwischen den einzelnen Prozessen eine wichtige Rolle. In diesem Vortrag geht es um die Kombination genannter baumbasierten Verfahren und effizienter Parallelisierung.

01.07.2016, 13:30, room 2.013. Marcel Hurler, "Erkennung von Silent Faults mit der Kombinationstechnik"

Innerhalb dieser Arbeit werden zwei Verfahren vorgestellt, um bisher unerkannte Fehler während der Simulation von Diffusions- und Advektionsproblemen mit der Dünngitter Kombinationstechnik aufzudecken. Der Schwerpunkt liegt hierbei auf der Erkennung von Fehlern anhand der zeitlichen Entwicklung einer einzelnen Kombinationslösung, ohne Vergleiche zwischen anderen Kombinationslösungen herzustellen. Die Untersuchungen zeigen, dass die beiden Verfahren im Falle eines für die Lösung relevanten Fehlers zum Zeitpunkt der Korruption ein unnatürliches Verhalten aufweisen, welches ein hohes Potential besitzt, um von einem automatisierten Erkennugsverfahren detektiert werden zu können.

01.07.2016, 13:00, room 2.013. Benjamin Maier, "Hochgenaue 3D Simulation für Outdoor-Roboter"

Damit sich mobile autonome Roboter in ihrer Umgebung lokalisieren können, werden Laserscanner verwendet, um laufend ein Abbild der aktuellen Umgebung zu erfassen. In der Arbeit wird ein solches Szenario simuliert. Hauptbestandteil ist dabei die Nachbildung der Funktion des Laserscanners, die durch Strahlverfolgungen in einem großen Punktwolken-Datensatz geschieht. Dabei sind effiziente Datenstrukturen und schnelle Algorithmen notwendig.

06.06.2016, 13:15, room 0.124. Anna Kulischkin, "Die Kombinationstechnik als Zeitintegrator in Parareal"

Für die Parareal-Implementierung wird die Eignung der Kombinationstechnik als grober Zeitintegrator untersucht. Implementiert wurde die Kombinationstechnik für das zwei-dimensionale Modellproblem der Wärmeleitungsgleichung. Untersucht wird die Rechenzeit und das Verhalten der Lösung unter Anwendung unterschiedlicher Parameter, die für die Kombinationstechnik verwendet werden.

30.05.2016, 14:00, room 2.013. Daniel Eschbach, "Implementation einer allgemeinen Gitterschnittstelle in ESPResSo"

Am Beispiel des Molekulardynamik Codes ESPResSo wird eine Gitterschnittstelle entworfen, die den minimal-invasiven Austausch regulärer kartesischer Gitter durch dynamisch-adaptiver baumstrukturierter Gitter, realisiert durch die p4est Bibliothek, unterstützen soll. Ziel ist das Bereitstellen einer Schnittstelle, die erlaubt, beide Gitter mit dem gleichem Anwendungscode zu verwenden und flexibel austauschbar zu machen.

24.05.2016, 12:30, room 2.013. Daniel Pfister, "Implementation of a Parallel Multigrid Solver for the Solution of Higher-dimensional PDEs on Anisotronic Grids in DUNE"

In dieser Bachelorarbeit wird ein paralleler geometrischer Mehrgitterlöser erweitert um mit der der Dünngitter-Kombinationstechnik genutzt werden zu können. Zum Testen dieser Methode wird die stationäre Advektions-Diffusions Gleichung verwendet, welche mit der Finite-Volumen-Elemente Methode diskretisiert wird. Es werden geeignete Komponenten für den Mehrgitterlöser gewählt und ihre Konvergenz und parallele Effizienz wird in numerischen Experimenten getestet. Die Implementierung nutzt die Distributed and Unified Numerics Environment (DUNE) für den Löser und die Diskretisierung. Das SG++ Distributed Combigrid Modul wird für die Kombinationstechnik eingesetzt. Eine kleine Studie zur schwachen Skalierbarkeit wird durchgeführt um den Einfluss der Streckung der Gitter zu messen.

29.04.2016, 13:15, room 0.124. Tim Würtele, "Kompression von numerischen Datensätzen mittels mehrdimensionaler hierarchischer Teilraumschemata"

Anhand der in bzip2 verwendeten Kompressionspipeline wird ein Verfahren zur Kompression von hierarchisierten numerischen Datensätzen entwickelt, der Schwerpunkt liegt dabei auf der Vorbereitung der Datensätze für die Kompressionspipeline und deren Auswirkungen auf die Kompressionsleistung .

18.04.2016, 14:00, room 2.013. Dominik Lekar, "Simulation der Beladung eines Faser-Arrays mit ESPResSo"

Innenraumfilter dienen dazu, die Insassen und das Lüftungsgerät vor Staub, Pollen und anderen Partikeln zu schützen. Die derzeitige Entwicklung von solchen Filtermedien erfolgt meist nach dem Trial & Error-Verfahren und erfordert daher einen hohen Versuchsaufwand. Um die Entwicklung der Filtermedien voranzubringen, soll ein Skript für die Software für Molekulardynamik ESPResSo erweitert werden, um die Beladung eines Faser-Arrays mit kontinuierlich zugegebenen Partikeln zu simulieren.

18.04.2016, 14:30, room 2.013. Malte Brunn, "Data-Mining für adaptive dünne Gitter mit polynomiellen Basisfunktionen auf GPUs"

Mit wachsenden Datenmengen, gespeist durch immer genauere Messverfahren, größere Simulationen, und modernere Technik, steigt auch die Notwendigkeit dieser Datenflut Herr zu werden. Hochdimensionale Probleme, die herkömmliche Gitterverfahren in die Knie zwingen, können von Methoden für so genannte dünne Gitter oft noch bewältigt werden. Zudem erhofft man sich durch das Verwenden von Basisfunktionen höherer Ordnung ein besseres Konvergenz- und Approximationsverhalten. Diese Vorteile bringen allerdings einen erhöhten Rechenaufwand mit sich. In dieser Arbeit wurden die grundlegenden Operationen für Regressions- und Klassifizierungsaufgaben für dünne Gitter mit Hinblick auf die hoch-parallele Architektur von Grafikkarten optimiert. Dazu wird unter anderem die räumliche Struktur von raumfüllenden Kurven, wie die Morton-Kurve genutzt, um sowohl die Effizienz als auch die Komplexität der Algorithmen zu steigern.

05.04.2016, 14:00, room 2.013. Marcel Hurler, "Erkennung von Silent Faults mit der Kombinationstechnik"

Fehlertoleranz ist ein großes Thema bei der Entwicklung von Agorithmen für zukünftige Exascale Systeme. Im Rahmen der Arbeit soll untersucht werden wie die Kombinationstechnik sich zur Erkennung von sogenannten Silent Faults eignet.

Winter Term 2015/16

23.02.2016, 14:00, room 2.013. Jan Rapp, "Entwicklung eines Source-to-Source-Compilers für explizite Optimierung"

Moderne Hardwareplattformen benötigen auf die jeweilige Plattform zugeschnittenen, hochoptimierten Code, um nahe an die Peak-Performance zu kommen. Dieser Code kann zur Laufzeit mithilfe von Code-Generatoren erzeugt werden, was allerdings sehr aufwendig ist. Im Rahmen dieser Arbeit wird deswegen ein Source-To-Source Compiler erstellt, der bestimmte Optimierungen automatisch durchführt und damit die Entwicklung von hochperformantem Code vereinfacht.

23.02.2016, 14:30, room 2.013. Jaysen Blei, "Optimierung mit Lagrange-Polynomen auf dünnen Gittern"

Bei globalen Optimierungsproblemen geht es im Allgemeinen um die optimale Wahl von d unbekannten Parametern, damit eine Zielfunktion f einen möglichst kleinen (oder großen) Funktionswert annimmt. Selbst, wenn man annimmt, dass die Parameter voneinander unabhängig sind und jeweils in einem vorgegebenen Bereich liegen (z. B. f: [0, 1]d → ℝ), so steigt die Komplexität des Problems sehr schnell mit der Parameterzahl d, was uniformes Sampling des Definitionsbereichs schon für moderate Dimensionalitäten d ≥ 4 unmöglich macht (sog. „Fluch der Dimensionalität“). Bei vielen Anwendungen steckt hinter jeder Auswertung von f eine komplexe Simulation, sodass Algorithmen gesucht sind, die mit möglichst wenig Funktionsauswertungen möglichst gute Approximationen der Optimalstelle finden. Ersetzt man f durch eine Interpolierende u und wendet die bestehenden Optimierungsalgorithmen auf u an, so erhält man ein Verfahren, das wertvolle Auswertungen von f einspart. In dieser Studienarbeit werden zur Bildung der Interpolierenden globale Lagrange-Polynome auf Clenshaw-Curtis-Gittern verwendet und auf ihre praktische Eignung zur anschließenden gradientenbasierten Optimierung hin untersucht.

23.02.2016, 15:00, room 2.013. Tim Würtele, "Kompression von numerischen Datensätzen mittels mehrdimensionaler hierarchischer Teilraumschemata"

Auf Basis von bzip2, einem allgemeinen Datenkompressionsverfahren, wird ein Kompressionsverfahren für numerische Datensätze entwickelt. Dabei werden die Datensätze zunächst hierarchisiert und dann die Eigenschaften der hierarchischen Darstellung ausgenutzt, um eine bessere Kompression als mit allgemeinen Datenkompressionsverfahren zu erreichen. Untersucht wird der Einfluss von verschiedenen Parametern auf die Kompressionsrate und Kompressionsgeschwindigkeit.

16.02.2016, 10.15, room 2.013. Daniel Pfister, "Implementation of a parallel multigrid solver for the solution of higher-dimensional PDEs on anisotropic grids in DUNE"

Abstract wird nachgereicht.

02.02.2016, 14:00, room 0.453. Raphael Leiteritz, "A Highly-Parallel Adaptive Algorithm for Regression Tasks on Spatially Adaptive Sparse Grids"

Since today’s sensors are capturing ever growing datasets their interpretation proves to be a challenge to industry and the scientific community. The field of data mining describes dealing with these problems in an automated way. This work introduces a new algorithm that combines the advantages of two known algorithms and is implemented using the OpenCL framework. Furthermore, an experiment on a modern AMD Kaveri APU is conducted to show possible advantages of the Heterogeneous System Architecture (HSA) when doing GPGPU computations. It is shown that the new algorithm is competitive for all tested datasets on regular grids consisting of 45,000 and more grid points. The HSA experiment shows a boost from 1586 MB/s to 2379MB/s in transfer bandwidth and thus shows that this architecture is beneficial for memory bandwidth limited problems.

14.12.2015, 14:00, room 0.453. Max Franke, "Sparse Grid Data Mining with Massive Datasets"

Due to the inflated costs of disk space and the prevalence of sensor equipment everywhere, the scientific world is flooded by huge amounts of data. The intention being to somehow benefit from that data, data mining algorithms are used to evaluate those data. As conventional data mining methods scale at least linear with problem size and exponentially with input problem dimension, this poses a great problem as to the computing power required to mine these data. For the testing of data mining algorithms, very few real world reference datasets exist. Using an already in-place toolkit for data mining on sparse grids, the goal of this thesis is to generate one or more real world reference datasets for data mining purposes. For this purpose, multiple weather and photovoltaic datasets were used. It was possible to learn 6-dimensional datasets with 1.2 million data points and obtain a very good prediction of photovoltaic power. Thus, a dataset was obtained to test regression on. For classification, a 9-dimensional dataset with 200 000 data points was generated, which however didn’t have overly good results, with a 41% hit rate over 4 classes. Here, further processing of the data will be necessary.

14.12.2015, 14:00, room 0.453. Gregor Daiß, "Distributed Sparse Grid Clustering with Huge Datasets"

Clustering ist ein Verfahren, das in vielen unterschiedlichen Disziplinen eingesetzt wird, um Muster in Daten zu erkennen. Wachsende Datenvolumen erfordern hierzu effiziente Algorithmen, welche auch große Datenmengen in akzeptabler Zeit clustern können. In dieser Arbeit wird zu diesem Zweck ein Clustering Verfahren genutzt, das auf einer Dichteschätzung mit dünnen Gittern und einem k-nearest-neighbors Verfahren basiert. Dieser Algorithmus ist gut geeignet um große, höherdimensionale Datensätze zu clustern und in verrauschten Datensätzen Cluster beliebiger Form zu suchen. Um die heutigen Parallelrechner ausnutzen zu können, wird zur Implementierung OpenCL verwendet. Zur weiteren Aufteilung des
Problemes wird das Message Passing Interface genutzt, um das Clustering auf mehrere Rechner verteilen zu können. Mit dieser Implementierung wurde auf einem Rechencluster mit 64 Xeon Phi Coprozessoren ein zehndimensionaler, stark verrauschter Datensatz mit einer Million Datenpunkte in 1434 Sekunden geclustert, wobei sämtliche Cluster erkannt und 88.99% der Datenpunkte dem richtigen Cluster zugeordnet wurden.

17.11.15, 14:00, room 0.453. David Hardes, "Schnelle parallele Mehrgitterlöser auf kartesischen Gittern"

Mehrgitterverfahren sind verbreitete Verfahren, die dazu dienen, die Lösungsapproximation eines linearen Gleichungssystemes schnell und effizient zu berechnen.Um die Verfahrendurch Parallelisierung zu beschleunigen, muss man kommunikationsaufwändige Verfahren zur Glättung nutzen. Eine interessante Alternative dazu stellen die additiven Mehrgitterverfahren dar, die nicht versuchen, die verwendeten Operationen zu parallelisieren, sondern stattdessen alle Stufen der Gitterhierarchie parallel bearbeiten. Im Rahmen dieser Arbeit werden verschiedene Verfahren, unter anderem ein additives Mehrgitterverfahren, implementiert und im Hinblick auf Konvergenzeigenschaften, Speicher- und Laufzeitbedarf untersucht.

15.11.15, ab 14:00, room 0.453, Stephan Herb, "Entwicklung eines FEM Codes zur Fluid-Struktur Kopplung" (Abschlussvortrag)

Beschreibung: siehe unten

27.10.15, 14:00, room 0.453. Stephan Herb, "Entwicklung eines FEM Codes zur Fluid-Struktur Kopplung"

Mit dem Kopplungscode preCICE besteht eine leistungsfähige Bibliothek zur Kopplung vorhandener Löser zu komplexen Multi-Physik Szenarien. Diese bestehen zum Beispiel aus Fluid-, Struktur-, und Akustik Komponenten. Innerhalb von preCICE wurden Adapter zur Kopplung an vorhandene FEM-Codes geschaffen. Inbetriebnahme und Problemformulierung dieser Codes stellen jedoch schon komplexe Verfahren für sich da oder sind mit Lizenzkosten verbunden. Im Rahmen dieser Masterarbeit wird ein Code zur Simulation von Membranstrukturen basierend auf der Finite-Elemente-Methode (FEM) enwickelt werden und mittels preCICE an bestehende Löser zur Fluid-Simulation gekoppelt werden. Die Formulierung konkreter und nachprüfbarer Anforderungen an einen solchen Code ist Bestandteil der Arbeit. Besonderes Augenmerk soll dabei auf Einfachheit und künftige Wartbarkeit des Codes gelegt werden. In seinem Zwischenvortrag wird Stephan Herb v.a. auf die Auswahl der zugrundliegenden FEM-Bibliothek sowie auf Probleme bei der Implementierung eingehen.

27.10.15, 14:30, room 0.453. Steffen Hirschmann, "Lastbalancierungsverfahren für dynamische und heterogene Linked-Cell Molekülsimulation"

Molekulardynamik- und allgemein N-Teilchen-Simulationen sind eine der "sieben Zwerge" im High-Performance-Computing. Insbesondere inhomogene Szenarien, wie z.B. Agglomerationsprozesse oder Turbulenzen, sind eine Herausforderung. Um diese über einen längeren Zeitraum auf vielen Prozessoren effizient rechnen zu können, muss eine ungleiche Lastverteilung vermieden werden. Dies wird mittels Lastbalancierung erreicht. Im Zuge dieser Arbeit werden Lastmodelle und Lastbalancierungsverfahren für Teilchensimulationen mit kurzreichweitigen Kräften betrachtet. Es werden mehrere Verfahren vorgestellt und Ergebnisse zur Lastreduktion bei statischer Partitionierung vorgestellt.

Summer Term 2015

10.09.15, 13:30, room 02.013. Benjamin Maier, "Die Finite-Elemente-Methode mit dynamisch-adaptiven kartesischen Gittern"

Zur Lösung von Differentialgleichungen mit der Finite-Elemente-Methode (FEM) wird das zweidimensionale Rechengebiet häufig durch ein kartesisches Gitter diskretisiert. Der Rechenaufwand lässt sich verringern, wenn an "uninteressanten" Stellen statt des feinen Gitters adaptiv gröbere Elemente eingesetzt werden.
In diesem Vortrag wird eine parallele Implementierung eines geeigneten, dynamisch-adaptiven Gitters vorgestellt, das auf Quadtrees beruht. Dabei wird eine heuristische Lastbalancierung verwendet. Die Datenstruktur wird eingesetzt, um Strömungsprobleme mit der FEM zu berechnen. (Für bunte Bilder ist also gesorgt!)

10.09.15, 14:00, room 02.013. Johannes Walter, Zwischenvortrag "Entwurf und Implementierung eines Fehlersimulators für die Kombinationstechnik auf HPC Systemen"

Einer der Vorteile der Kombinationstechnik ist, das sie effektive Ansätze ermöglicht Fehler, die bei großen Simulationen auf zukünftigen HPC System auftreten werden, zu erkennen und zu behandeln, ohne dazu auf weniger effiziente Verfahren wie Checkpoint-Restart zurückgreifen zu müssen. Allerdings ist es im Moment nicht möglich diese Verfahren unter realistischen Bedingungen auf einem großen HPC System (wie zum Beispiel Hornet am HLRS) zu testen. Zum einen sind die Fehlerausfallwahrscheinlichkeiten von heutigen Systemen noch nicht hoch genug. Repräsentative Messungen sind daher nicht möglich. Zum anderen stehen auf diesen Systemen auch noch keine fehlertoleranten MPI Implementierungen zur Verfügung, die zum Erkennen und Behandeln von Fehlern auf Softwarebene nötig wären. In der Arbeit soll ein Fehlersimulator entwickelt werden und als Schicht zwischen der systemspezifischen MPI Implementierung und der Anwendungsschicht, d.h. unseremKombinationstechnik-Framework, implementiert werden.

25.08.15, 14:00, room 02.013. Jonas Schradi, "Implementation of a parallelized two-dimensional particle simulation with Linked Cells"

Simulations are believed to be the new key technology in scientific research, even being called ‘the third pillar of modern research’. Virtual experiments create new insights of complex systems. To describe the behaviour of a system precisely, many details have to be considered which is obstructive in creating fast results. One of the most detailed are particle simulations, which create insights on systems on a microscale. The aim of this work was to create a 2D-Particle Simulation, that combines the reduced complexity of the Linked Cell Algorithm with parallel programming to reduce calculation-duration rapidly. In simple implementations of particle simulations the complexity raises with O(N 2 ).The inclusion of load-balancing algorithms is prepared.

28.07.15, 14:00, room 02.140. Sebastian Staudenmaier, "Erfassung von Plattform-Parametern mit OpenCL"

Mit OpenCL besteht eine einheitliche Schnittstelle, um für verschiedenste Hardwareplattformen wie CPUs, GPUs oder Beschleunigerkarten zu programmieren. In dieser Arbeit soll darauf eingegangen, wie sich diese Hardware charakterisieren lässt, um Faktoren zu entlarven, die für die Portabilität der Performance abträglich sind. Es wird die Implementierung einer Bibliothek zur Abfrage von Hardwareparametern über die OpenCL-API sowie die Erstellung von Microbenchmarks zur wei teren Untersuchung der Hardware erläutert. Für diese Microbenchmarks werden Testergebnisse präsentiert und deren Bedeutung diskutiert. Im Weiteren werden Nutzungsvorschläge wie auch Erweiterungsmöglichkeiten für die Microbenchmarks genannt.

09.07.15, 9:45, room 02.013. Konstantinos Krestenitis, "Calculating the Minimum Distance Between Two Triangles on SIMD Hardware for DEM and Contact Point Generation"


07.07.15, 14:30, room 02.013. Steffen Hirschmann, "Lastbalancierungsverfahren für dynamische und heterogene Linked-Cell Molekülsimulation"

Molekulardynamik- und allgemein N-Teilchen-Simulationen sind eine der "sieben Zwerge" im High-Performance-Computing. Insbesondere inhomogene Szenarien, wie z.B. Agglomerationsprozesse oder Turbulenzen, sind eine Herausforderung. Um diese über einen längeren Zeitraum auf vielen Prozessoren effizient rechnen zu können, muss eine ungleiche Lastverteilung vermieden werden. Dies wird mittels Lastbalancierung erreicht. Im Zuge dieser Arbeit werden Lastmodelle und Lastbalancierungsverfahren für Teilchensimulationen mit kurzreichweitigen Kräften betrachtet. Erstere geben einen Aufschluss darüber, was überhaupt ausgeglichen werden soll und dienen zur Ergebnisevaluation. Letztere übernehmen das eigentliche Ausbalancieren der Last, indem sie gewisse oder alle Teilchen neu verteilen. Es werden mehrere Verfahren vorgestellt und näher betrachtet.

07.07.15, 15:00, room 02.013. Axel Reiser, "Echtzeit-Festkörper-Simulation mit der Lattice Boltzmann Methode"

Die Lattice Boltzmann Methode ist ein beliebtes Verfahren zur Simulation von Strömungen v.a. wegen der schnellen Berechnung. Bei diesem mesoskopischen Modell werden Fluidbewegungen mithilfe von probabilistischen Verteilungen erzeugt. Für die Kopplung mit der Festkörper-Simulation müssen verschiedene Probleme gelöst werden. So muss diese in den Programmablauf integriert werden und die Festkörper in das Gitter der Lattice Boltzmann Methode. Dann müssen neue Randbedingungen definiert werden, da die Festkörper nicht diskretisiert sind. Eine Folge der Kopplung ist auch, dass nun Initialisierungsverfahren für Zellen benötigt werden. Zuletzt müssen noch die Festkörper vom Fluid angetrieben werden. Diese Kopplungsverfahren werden analysiert. Dazu gehört die Verifikation, der Vergleich der Methoden und die Untersuchung der Laufzeit.

12.06.15, 10:00, room 02.013. Carsten Burstedde, "Efficient Implementation of Adaptive Cartesian Grids -- p4est"


09.06.15, 15:00 Uhr, room 02.013. Claudius Proissl, "Globale Optimierung mit Dünngittersurrogaten durch Lagrange-Interpolation"

Bei globalen Optimierungsproblemen geht es im Allgemeinen um die optimale Wahl von d unbekannten Parametern, damit eine Zielfunktion f einen möglichst kleinen (oder großen) Funktionswert annimmt. Selbst, wenn man annimmt, dass die Parameter voneinander unabhängig sind und jeweils in einem vorgegebenen Bereich liegen (z. B. f: [0, 1]d → ℝ), so steigt die Komplexität des Problems sehr schnell mit der Parameterzahl d, was uniformes Sampling des Definitionsbereichs schon für moderate Dimensionalitäten d ≥ 4 unmöglich macht (sog. „Fluch der Dimensionalität“). Beispiele für solche Optimierungsprobleme finden sich in Theorie und Praxis zuhauf; konkrete Beispiele beinhalten etwa klassische inverse Probleme zur Bestimmung von unbekannten Parametern eines Modells zur möglichst exakten Reproduktion von experimentell ermittelten Daten. Bei vielen Anwendungen steckt hinter jeder Auswertung von f eine komplexe Simulation, sodass Algorithmen gesucht sind, die mit möglichst wenig Funktionsauswertungen möglichst gute Approximationen der Optimalstelle finden. In dieser Arbeit wurde ein Algorithmus untersucht, der mit Lagrange-Interpolation auf dünnen Gittern arbeitet.

04.05.15, 13:30 Uhr, room 02.140. Albert Ziegenhagel, "A Form-Compiler for the Partition of Unity Code PaUnT"

Bei der Entwicklung von numerischer Software sind oft Personen mit unterschiedlichsten Hintergründen involviert. Typisch sind hierbei Mathematiker, Softwareentwickler und Ingenieure, wobei jede dieser Gruppen das Problem von einer anderen Richtung aus betrachtet. Dies stellt insbesondere im Bereich der Benutzerfrundlichkeit hohe Anforderungen an die Software die entwickelt wird. Es wird eine Schnittstelle zum Partition of Unity Code PaUnT präsentiert, welche diese Probleme adressiert. Basierend auf den Ideen des FEniCS Projekts enthält diese Schnittstelle einen Form-Compiler, der es erlaubt die schwachen Formulierungen der Problem-PDEs in einer Sprache zu formulieren, die sehr nahe an üblicher, mathematischer Notation ist und diese anschließend in effizienten C++ Code übersetzt. Es lassen sich damit Problemstellungen lösen, welche vom bisherigen Code nicht unterstützt wurden. Dabei wird ein hohes Augenmerk auf Elemente, wie das Anwenden von Enrichmentfunktionen, gelegt die typisch für die Partition of Unity Methode sind. Außerdem wird gezeigt, dass die Effizienz des Form Compilers und der Python Schnittstelle das Potential hat, mit der reinen C++ Version zu konkurrieren.

04.05.15, 14:30 Uhr, room 02.140. Klaudius Scheufele, "Robust Quasi-Newton Methods for Partitioned Fluid-Structure Simulations"

In recent years, quasi-Newton schemes have proven to be a robust and efficient way for the coupling of partitioned multi-physics simulations in particular for fluid-structure interaction. In this talk, the focus is put on the coupling of partitioned fluid-structure interaction, where minimal interface requirements are assumed for the respective field solvers, thus treated as black box solvers. The coupling is done through communication of boundary values between the solvers. A new quasi-Newton variant (IQN-IMVJ) based on a multi-vector update is investigated in combination with serial and parallel coupling systems. Due to implicit incorporation of passed information within the Jacobian update it renders the problem dependent parameter of retained previous time steps unnecessary. Besides, a whole range of coupling schemes are categorized and compared comprehensively with respect to robustness, convergence behaviour and complexity. Those coupling algorithms differ in the structure of the coupling, i. e., serial or parallel execution of the field solvers and the used quasi-Newton methods. A more in-depth analysis for a choice of coupling schemes is conducted for a set of strongly coupled FSI benchmark problems, using the in-house coupling library preCICE. It is confirmed that the multi-vector method works optimal without the need of tuning problem dependent parameters in advance.

27.04.15, 13:30 Uhr, room 02.140. Arash Bakhtiari, "A Distributed Memory Advection-Diffusion Solver with Dynamic Adaptive Trees"


Winter Term 2014/15

04.03.15, 14 Uhr, room 02.013. Malte Brunn, "Hierarchical basis functions of higher order for sparse grids on GPUs"

In this project, a parallel approach for interpolating data on regular sparse grids with piecewise polynomial basis functions is shown. Starting with a basic explanation of sparse grids, hierarchical (polynomial) basis functions and the interpolating method, one main focus is the underlying representation of the data as well as the algorithm itself, due to the problem’s highly recursive structure. With respect to massively parallel processor architectures (SIMD), the need for highly synchronous algorithms is described. Further, the results of an implementation in CUDA C/C++ for NVIDIA graphic cards are presented. The already existing implementation for common CPUs of the SG++ software toolkit is used as reference for runtime experiments and result validation. The parallel algorithm achieved speed-ups up to 90 on the GPU where the absolute error of the interpolated function at grid points was in order of the machine accuracy.

13.02.15, 13 Uhr, room 02.140. Constantin Schreiber, "Dünngitter-Diskretisierungen für Probleme mit variablen Koeffizienten"

In dieser Arbeit werden Verfahren untersucht, um die Steifigkeitsmatrix einer Finiten-Element-Diskretisierung auf einem anisotropen Teilraumschema effizient anzuwenden. Es wird dabei ein levelweiser Ansatz nach Peherstorfer und Zenger verwendet, der für den Einsatz bei allgemeineren Ansatzfunktionen und Operatoren erweitert werden soll.

04.11.14, 14 Uhr, room 02.140. Özcan Kara, "Design moderner Numerikbibliotheken am Beispiel von SG++"

Das Design von Schnittstellen erfordert besondere Sorgfalt. Zentrale Qualitätsmerkmale von guten Schnittstellen sind unter anderem Funktionalität, Verwendbarkeit, Erweiterbarkeit und Stabilität. Die Anforderungen an eine Schnittstelle steigt zusätzlich, wenn der Programmcode in sehr unterschiedlichen Hardwareumgebungen und die Bibliothek aus mehreren Programmiersprachen heraus verwendet werden kann. Herr Özcan Kara hat sich im Rahmen seiner Diplomarbeit mit dem Design von Schnittstellen beschäftigt, die diesen Anforderungen entsprechen. Zu diesem Zweck hat er die Numerikbibliothek SG++ untersucht und entsprechend modernem Software Engeneering verbessert. Die Ergebnisse seiner Diplomarbeit wird Herr Kara in diesem Vortrag vorstellen.