Komplexe Vorgänge wie das Klima sind schwer vorauszusehen. Mathematiker bemühten dazu bisher streng theoretische Modellannahmen, deren Vorhersagekraft nicht genau bestimmt werden konnte. Prof. Dr. Holger Dette löst in dieser Hinsicht zwei Probleme auf einmal: Zusammen mit Prof. Dr. Efstathios Paparoditis von der Universität Zypern hat der RUB-Statistiker ein Qualitätsmaß für mathematische Modelle entwickelt. Darauf aufbauend erarbeiteten die Wissenschaftler einen statistischen Test, der Modellannahmen durch numerische Simulation per Computer auf ihre Vorhersagegenauigkeit prüft. Die Mathematiker berichten im renommierten „Journal of the Royal Statistical Society“ über ihre Ergebnisse.
Methode zur Modellvalidierung von Zeitreihen
Komplexe Prozesse mit einer Vielzahl von Einzeldaten, zum Beispiel im zeitlichen Verlauf von Aktienkursen, Klimadaten oder Konzentrationen von Verbindungen in chemischen Reaktionen, fasst man in sogenannten Zeitreihen zusammen. Ziel in der Analyse solcher Messungen von Merkmalen über einen längeren Zeitraum ist es, ein Modell für die Abhängigkeiten zwischen den einzelnen Werten zu erstellen, um das zukünftige Verhalten eines Prozesses, zum Beispiel der Klimaentwicklung in den nächsten Jahrzehnten, möglichst gut prognostizieren zu können. Dazu zerlegen Mathematiker die verfügbaren zeitlichen Messungen in Schwingungskomponenten, genauer in eine Summe von Sinus- und Kosinus-Funktionen. Mit einer solchen Spektralanalyse ist es möglich, zyklische Schwankungen in einer Zeitreihe zu erkennen und in das Vorhersagemodell für zukünftige Entwicklungen einzubinden, im Klimakontext zum Beispiel die unterschiedlichen Tagesdurchschnittstemperaturen in Winter und Sommer. Die bisher verfügbaren Methoden der Spektralanalyse basieren auf strengen mathematischen Modellannahmen. Die Qualität getroffener Aussagen hängt deshalb stark davon ab, ob diese Modellannahmen auch in der Realität zutreffen.
Basierend auf bereits vorliegenden Daten eines Prozesses erstellen Prof. Dette und sein zypriotischer Kollege mit dem neuen Verfahren eine Schätzung für das Maß der Anpassung eines Modells. Durch rechenintensive numerische Simulation, millionenfache Wiederholung des Prozesses mit Hilfe eines Computers, bestimmen die Wissenschaftler dann die Wahrscheinlichkeiten dafür, dass das postulierte Modell der Realität entspricht. „Das funktioniert im Wesentlichen wie bei einem Zufallsversuch mit einem Würfel. Je öfter man den Wurf wiederholt, desto mehr gleichen sich die durchschnittlichen Ergebnisse den tatsächlichen Wahrscheinlichkeiten an, mit denen ein Ergebnis eintritt. Mit dem Zusatz, dass die hier berechneten Prozesse natürlich deutlich komplizierter sind“, erklärt Holger Dette. Basierend auf dieser Wahrscheinlichkeit kann der Mathematiker entscheiden, ob ein gegebenes Modell für eine Prognose geeignet ist. „Es lässt sich mathematisch zeigen, dass dieses Verfahren bei einer hinreichend großen Datenmenge immer die richtige Entscheidung trifft“, so Holger Dette. Die entwickelte Methode eignet sich auch zur Klassifikation: Bei einer mehrdimensionalen Messreihe kann so entschieden werden, ob ein Objekt einer bestimmten Gruppe zuzuordnen ist. Prof. Dette nennt ein Beispiel: „Wenn man bei einem Patienten verschiedene Laborwerte in Zeitreihen zusammenfasst, lässt sich mit dem Verfahren erkennen, ob der Patient eine bestimmte Krankheit hat.“
Entscheidend für den Erfolg des entwickelten Verfahrens sind neue Methoden der asymptotischen Statistik, die die Bochumer Mathematiker, finanziert durch die Deutsche Forschungsgemeinschaft, seit Jahren im Sonderforschungsbereich SFB 475 „Komplexitätsreduktion in multivariaten Datenstrukturen“ erforschen. Zusammen mit Kollegen der Technischen Universität Dortmund arbeiten die Bochumer Wissenschaftler an einer statistischen Modellbildung für komplexe Prozesse mit vielfältigen intervenierenden Variablen und zum Teil unübersichtlichen Abhängigkeiten, die sich mit konventionellen Modellen nicht beschreiben lassen. Die im Juli dieses Jahres begonnenen Forschungsarbeiten im neuen SFB 823 „Statistik nichtlinearer dynamischer Prozesse“ sind stark durch die aktuelle Finanzkrise motiviert, in der fast alle ökonomischen Modelle bei Diagnose und Prognose versagt haben. Während 2007 in ruhigeren Börsenzeiten die Aktienmärkte unterschiedliche Entwicklungen und Trends zeigten, riss 2008 die Krise fast alle ins Minus, mit nahezu prozentual gleichen Verlusten. Die Entwicklung adäquater mathematischer Modelle für die Beschreibung solcher komplexen Prozesse ist ein langfristiges Ziel der Bochumer Wissenschaftler.