Diplom/Master


  • Josef Bauer
    Stochastische Kriterien für zufällige Attraktoren
    Abgabe: 10.11.2011
    Literaturvorlage: Crauel, Dimitroff, Scheutzow, "Criteria for strong and weak random attractors." J. Dynam. Differential Equations 21 (2009), no. 2, 233--247.
    Zusammenfassung: Diese Diplomarbeit behandelt verschiedene Konzepte für Attraktoren für zufällige dynamische Systeme und probabilistische Kriterien für deren Existenz. Inhaltlich werden zunächst die Grundlagen der zufälligen dynamischen Systeme und ihrer Attraktoren bereit gestellt. Der Hauptteil diskutiert dann vier probabilistische Charakterisierungen von zufälligen Attraktoren. Hierbei wird zwischen starken und schwachen Attraktoren und zwischen Attraktion von beschränkten oder kompakten Mengen unterschieden, und die jeweiligen Kriterien verglichen. Das Besondere an den Resultaten ist hierbei, dass die Kriterien nicht, wie normalerweise üblich, pfadweise Analoga von deterministischen Argumenten sind, sondern stochastische Methoden benutzt werden. Am Beispiel stochastischer Differentialgleichungen wird demonstriert, wie diese stochastischen Kriterien angewendet werden können. Hierbei werden ein kleines Beispiel zur Nichtexistenz als auch ein längeres Beispiel zur Existenz diskutiert.

  • Susan Steinke
    Risikoallokation in Versicherungsunternehmen
    Abgabe: Okt. 2011
    Zusammenfassung: Es werden verschiedene Ansätze für die Aggregation und Allokation von Risikokapital untersucht. Dies ist eine bedeutende Fragestellung für Versicherungen im Rahmen der voraussichtlich 2013 in Kraft tretenden EU-Richtlinie Solvency II. Die Arbeit stellt Grundkonzepte der Risikobewertung dar, wobei Begriffe wie Allokation, Aggregation, Risikomaß und Kohärenz im Detail diskutiert werden. Zentrale Beispiele sind der Value-at-Risk und der Tail-Value-at-Risk. Weiterhin wird der Shapley-Wert aus der Spieltheorie definiert. Diskutiert wird auch der rechtlichen Rahmen und die Grundlagen von Solvency II, in deren Rahmen Versicherungskonzerne eigene Risikobewertungsstandards entwickeln können. Ein auf dem Shapley-Wert basierende Kapitalallokationsmethode wird dann im Rahmen einer Modellklasse numerisch studiert, wobei das Softwarepaket ''RiskAnalytics'' der Gruppe ''PillarOne'' und die Statistiksoftware R verwendet wird. Anhand von vielfältigen Auswertungen wird die Qualität der vorgestellten Risikomaße untersucht und ihre praktischen Auswirkungen diskutiert.

  • Julian Schwab
    Modellierung des Ausübungsverhaltens von Kundenoptionen zur vorzeitigen Rückzahlung von amerikanischen Hypothekendarlehen,
    Abgabe: 27.07.11
    Zusammenfassung: Diese Diplomarbeit untersucht verschiedene in der Literatur diskutierte Modellierungs- und Bewertungsansätze für das Ausübungsverhalten von Kündigungsoptionen bei Hypothekendarlehen. Diese werden in Form von Modellrechnungen untersucht. Es werden eine Vielzahl verschiedener Methoden aus diversen nicht unbedingt verwandten Gebieten der Mathematik verwenden, um die Bewertung von amerikanischen MBS oder kündbare Hypothekendarlehen in Deutschland zu untersuchen. Dies sind zum Beispiel stochastische Analysis, stochastische Prozesse, Optimierung oder Numerik partieller Differentialgleichungen. Mittels Beispielrechnungen wurden die Abhängigkeiten der Berechnungsergebnisse von den einzelnen Modellparametern untersucht, und bei festgelegten Beispielparametern des Gesamtmodells die mögliche Schätzung des Parametersets demonstriert. Dabei führt die Kalibrierung zum Teil zu Parametern, die von den Original-Werten abweichenden. Ein gegenüber den Originalwerten erhöhter Anteil rationaler Rückzahlungen bei gleichzeitig gesenktem Niveau an Transaktionskosten führt zu quasi identischen, numerisch aber bevorzugten, Rückzahlungsquoten.

  • Christian Nolde
    Amplitudengleichungen für SPDEs vom Burgers-Typ – Ein numerischer Vergleich
    Abgabe: 31.03.2011
    Zusammenfassung: Diese Diplomarbeit untersucht mit numerischen Methoden experimentell die Approximation einer Variante der stochastischen Burgers-Gleichung durch Amplitudengleichungen. Das Ziel ist hierbei, die analytischen Resultate durch Simulationen zu untersuchen, um mögliche Verbesserungen zu sehen. Der Haupteil der Arbeit enthält eine Vielzahl von numerischen Auswertungen. Unter anderem werden die Güte der Approximation quantitativ überprüft, wobei die Fehler auf unerwartet langen Zeitskalen klein bleiben, und das Stabilisierungsverhalten von degeneriertem Rauschen wird qualitativ und quantitativ untersucht. Amplitudengleichungen sind ein Hilfsmittel um stochastische partielle Differentialgleichungen in der Nähe eines Stabilitätswechsels durch einfachere Modellgleichungen zu approximieren. Diese beschreiben die Amplitude dominierender Moden bzw. Muster, die ihre Stabilität ändern. Die verwendeten Algorithmen wurden in MATLAB implementiert, und setzen das spektrale Galerkin-Verfahren und die semi-implizite Zeitdiskretisierung um, wobei die Kombination von diskreter Sinus-Transformation und Cosinus-Transformation nicht unproblematisch ist, da nicht dieselben Stützstellen verwendet werden.

  • Roberto Gentile
    Teilchendynamik in zufälligen Strömungsfeldern.
    Abgabe: 10.09.2010
    Literaturvorlage: White Noise Limits for Inertial Particles in a Random Field., SIAM J. MMS 1(4), 527--553, (2003).
    Zusammenfassung: Diese Arbeit untersucht das Verhalten von Teilchen in einer turbulenten Flüssigkeit. Im zugrunde liegenden Modell wird das Geschwindigkeitsfeld der Flüssigkeit durch eine lineare stochastische partielle Differentialgleichung beschrieben, deren Lösung ein unendlich dimensionaler Ornstein-Uhlenbeck Prozess ist, und ein Gaußsches Feld beschreibt. Ziel der Arbeit ist es, in einer geeigneten Skalierung, rigoros ein effektives Modell für die Teilchendynamik herzuleiten, wenn das umgebende Strömungsfeld sich sehr schnell verändert. In heuristischen Untersuchungen des Skalierungsgrenzwertes, der dem Grenzwert eines sehr schnellen Strömungsfeldes entspricht, in dem die Zeitskalen der Strömung und der Teilchen entkoppelt, werden verschiedene Umskalierungen diskutiert, und mögliche Grenzwerte identifiziert. Die Hauptresultate der Arbeit sind in Kapitel der Existenzbeweis und die Eindeutigkeit für das Grenzwertmodell, das eine gewöhnliche Differentialgleichung ist, die durch unendlich dimensionales multiplikatives Rauschen gestört wird, und die Konvergenz des Skalierungsgrenzwertes der Teilchendynamik.

  • Franz Wöhrl
    Effektive Dynamik der Swift-Hohenberg-Gleichung
    Abgabe: 16.08.2010
    Zusammenfassung: Mit numerischen Methoden wird experimentell die Approximation der Swift-Hohenberg Gleichung durch Amplitudengleichungen untersucht. Ziel der Arbeit war es im Rahmen des DFG-Forschungsprojekts ''Mehrskalenanalyse stochastischer partieller Differentialgleichungen (SPDEs)“, sowohl die bereits vorhandenen als auch die angestrebten analytischen Resultate durch Simulationen zu untersuchen. Der Einfachheit halber wurde das Spektralgalerkinverfahren mit semi-impliziter Zeitdiskretisierung in MATLAB implementiert. Im Hauptteil der Arbeit wird zum einen die Güte der Approximation durch Amplitudengleichungen quantitativ überprüft, wobei sich überraschenderweise herausgestellt hat, dass die Approximationsfehler auf unerwartet langen Zeitskalen klein bleiben. Ein anderer Aspekt untersuchte qualitativ das Stabilisierungsverhalten von degeneriertem Rauschen. Ein weiterer Aspekt war die Auswirkung von Fehlertermen höherer Ordnung, die man überraschenderweise nicht im Winkel der dominierenden Fouriermode sehen kann. Abschließend behandelt die Arbeit noch Modulationsgleichungen auf großen Gebieten, und untersucht dort auch die Qualität der Approximation.

  • Alexander Tuch
    Hedging im Heston Model
    Abgabe: 30.03.2010
    Literaturvorlage: A. Cerny, J. Kallsen. Mean-variance hedging and optimal investment in Heston's model with correlation. Math. Finance 18, No. 3, 473--492 (2008).
    Zusammenfassung: Diese Arbeit diskutiert die Bewertung von Optionsscheinen, für Aktien, die durch das Heston-Modell beschrieben werden. Dieses Modell ist ein sogenanntes Modell der dritten Generation, in dem die Volatilität der Aktienkurse durch einen stochastischen Prozess beschrieben wird. Es wurde (1993) als eine mögliche Verbesserung des Black-Scholes-Modells vorgeschlagen und ist als Thema der aktuellen Forschung in den letzten Jahren intensiv untersucht worden. Die vorliegende Arbeit beinhaltet eine ausführliche Zusammenfassung der benötigten Grundlagen, insbesondere der Theorie der Semimartingale und beschreibt das Konzept mit zulässigen Handelsstrategien, Optionsscheine mittels eines Hedgingportfolios bezüglich eines Varianzoptimalen Martingalmaßes zu bewerten.

  • Konrad Klepel
    Stochastisch gestörte Differentialgleichungen mit langsamen Mannigfaltigkeiten
    Abgabe: 07.08.2009
    Zusammenfassung: Die Arbeit studiert das Verhalten stochastisch gestörter dynamischer Systeme, in denen es eine Trennung der Zeitskalen in langsame und schnelle Dynamik gibt. Für das deterministische System existieren dabei invariante Mannigfaltigkeiten, entlang denen sich eine Lösung nur sehr langsam bewegt, während die Mannigfaltigkeit selber stark abstoßend bzw anziehend ist. Die interessante Fragestellung ist nun, wie es durch Störungen möglich ist, die Nähe der Mannigfaltigkeit zu verlassen. Das Hauptresultat der Arbeit gibt für das stochastische System Schranken für die Verweildauer in der Nähe stablier deterministischen langsamen Mannigfaltigkeit an. Die Arbeit wird abgerundet durch verschiedenste numerische Beispiele bis hin zu einfachen Klimamodellen und Canards, in denen die Qualität der theoretischen Aussagen überprüft werden.

  • Gisela Höck
    Verzweigungsprozesse und Differentialgleichungen
    Abgabe: 03.09.2009
    Zusammenfassung: Die Arbeit studiert den Zusammenhang von Verzweigungsprozessen und nichtlinearen Differentialgleichungen. Es wird zum einen eine explizite Darstellung der Lösung durch Verzweigungsprozesse und der durch sie erzeugten Bäume studiert, und zum anderen die Verbesserung der Approximation durch geschicktes Stutzen der Bäume, welches auch durch numerische Monte-Carlo Simulationen anhand eines einfachen Beispiels illustriert wird.

  • Andreas Wagner
    A Multidimensional Heston Model and Applications
    Abgabe: 16.06.2009
    Zusammenfassung: Die Arbeit behandelt diverse Aspekte der Optionspreisbewertung im Heston Modell. Hierbei liegt ein besonderes Augenmerk auf der Kalibrierung des Modells und der Bewertung von Quanto-Optionen, bei denen eine Anlage in einer Fremdwährung erfolgt, und ein zugrundeliegendes Währungsrisiko mit berücksichtigt werden muss.. Das Heston Modell ist ein sogenanntes Modell der dritten Generation, in dem die Volatilität der Aktienkurse durch einen stochastischen Prozeß beschrieben wird. Es wurde 1993 als eine mögliche Verbesserung des klassischen Black-Scholes-Models vorgeschlagen.
    Ein zentrales Problem ist die Kalibrierung der Modelle, also die Schätzung der verwendeten Parameter. Die vorgeschlagenen Schätzer werden in dieser Arbeit durch mathematische Resultate motiviert, und mittels numerischer Experimente überprüft.