Zum Inhalt
Fakultät Statistik

Amortisierte Bayesianische Inferenz für Multilevel-Modelle

Probabilistische Multilevel-Modelle (MLMs) sind ein zentraler Baustein der Bayesianischen Datenanalyse. Trotz ihrer weithin anerkannten Vorteile ist die Berechnung und Auswertung von MLMs nach wie vor schwierig, insbesondere wenn die involvierten Likelihoods oder Prior-Verteilungen analytisch nicht lösbar sind.

Jüngste Entwicklungen im Bereich des generativen Deep Learning und der simulationsbasierten Inferenz haben vielversprechende Ergebnisse bei der Skalierung der Bayesianischen Inferenz durch Amortisierung gezeigt. Der Nutzen dieser auf Deep Learning basierenden generativen Modelle für das Erlernen Bayesianischer MLMs ist jedoch noch weitgehend unerforscht.

In diesem Projekt entwickeln wir einen allgemeines und effizientes neuronales Framework für die Schätzung und Auswertung komplexer Bayesianischer MLMs. Unser Framework wird die bisherigen Arbeiten zur simulations-basierten Bayesianischen Inferenz für einstufige Modelle erheblich erweitern. Darüber hinaus zielt es darauf ab, nicht nur die Inferenzphase eines Bayesianischen Workflows zu umfassen, sondern auch die Schritte der Modellevaluation, die bei standardmäßigen (nicht-amortisierten) Bayesianischen Methoden normalerweise einen Engpass beim Rechenaufwand darstellen. Somit hat das  Projekt das Potenzial, die modellbasierte Inferenz und das Verständnis komplexer Prozesse in den quantitativen Wissenschaften erheblich zu verbessern.

Projektmitglieder: Daniel Habermann

Förderung: Deutsche Forschungsgemeinschaft (DFG)