Beim surfen auf r-bloggers.com bin ich auf die Präsentation zu Real Time Scoring gestoßen – irgendwie kommen mir die Methoden bekannt vor…
Archiv des Autors: Christian Tegelkamp
Universität Duisburg-Essen / VDWI: Fachtagung Social Business Intelligence am 19.04.2013
Link
apoBank sucht Spezialist/-in Kreditrisikomodellierung
Status
Für mein Team suche ich einen / eine Spezialist/-in Kreditrisikomodellierung. Ich freue mich über Hinweise, Empfehlungen und Bewerbungen.
Visualisierung von Kreditportfoliomodell-Ergebnissen mit R und ggplot2
Neben der verlässlichen Berechnung von Risikowerten kommt der Visualisierung der Ergebnisse eine entscheidende Bedeutung zu, wenn die richtigen Steuerungsimpulse gesetzt werden sollen. Hierzu bietet R eine Unzahl von Möglichkeiten. Ich bin vor einigen Tagen hier auf einen Artikel zu ggplot2 gestoßen und musste das direkt selbst ausprobieren (bitte tapfer durchhalten, der Graph kommt ganz unten…): Weiterlesen
Migrationsrisiko: Ein Definitionsversuch
Einleitung
Die BaFin fordert in der Publikation „Aufsichtliche Beurteilung bankinterner Risikotragfähigkeitskonzepte“ in der Tz. 91, dass in der Risikotragfähigkeit zum Adressenausfallrisikodie grundsätzlich auch Migrationsrisiken zu analysieren sind. Doch was genau ist Migrationsrisiko überhaupt?
[1] Ratingmigration ist die Veränderung der Bonität eines Schuldners, ausgedrückt über eine Veränderung der Ratingeinstufung und damit der Ausfallwahrscheinlichkeit.
Warp 7 für Kreditportfolio-Simulationen mit mclapply und Amazon EC2: Energie!
Den Code meiner Simulationsanwendung habe ich jetzt für die Anwendung der Funktion mclapply aus dem Package Multicore angepasst, jetzt gilt es den Effekt der Parallelisierung auszuprobieren.
Lokale Simulation sequentiell:
1,15 Sekunden pro Lauf → etwa 190 Minuten für 10.000 Simulationen (eine Periode)
Lokale Simulation parallel:
0,35 Sekunden pro Lauf → etwa 60 Minuten für 10.000 Simulationen (eine Periode)
Amazon Cloud:
0,15 Sekunden pro Lauf → etwa 25 Minuten für 10.0000 Simulationen (eine Periode)
Bei Amazon habe ich dafür die High-Memory Quadruple Extra Large (Vierfach XL) Instance benutzt:
68,4 GB Speicher
26 EC2 Compute Units (8 virtuelle Kerne mit je 3,25 EC2 Recheneinheiten)
1.690 GB Instance-Speicher
64-Bit-Plattform
E/A-Leistung: Hoch
Als EBS-optimiert verfügbar: 1000 Mbps
API-Name: m2.4xlarge
Für diese Instanz berechnet Amazon laut Preisliste 1,80$ pro Stunde, als Spot Instance habe ich 0,18$ gezahlt. Eine stabile Berechnung würde damit dann etwa 0,075$ kosten.
Die nächste Stufe wäre dann die Bündelung mehrerer Instanzen über Hadoop…
Capital at Risk: Features des erweiterten Kreditportfoliomodells
CredaRate: Vorträge zum Rating Symposium vom 09. Januar 2013
Link
R-Project: list in array umwandeln
Dieser Artikel beschreibt, wie man aus einer Liste von Arrays mit der Software R einen zusammenfassenden Ergebnisarray erzeugt. Gestoßen bin ich auf diese Herausforderung, weil die Funktion mclapply aus dem Package multicore das Ergebnis in Form einer Liste zurückgibt. Für die effiziente Weiterverarbeitung benötige ich jedoch den einen mehrdimensionales Array, also muss ich die Liste umwandeln:
Das Beispiel betrachtet insgesamt 4 Simulationsläufe, Weiterlesen