Bayessche Inferenz, bzw. Bayessches Lernen ist in der Bayesschen Statistik ein Ansatz zur statistischen Inferenz bzw. Maschinellem Lernen, der es ermöglicht, die Überzeugungen (prior) über eine Hypothese oder ein Modell durch die Integration neuer Daten (evidence) zu aktualisieren (posterior). Sie ist nach Thomas Bayes benannt.
Die Bayessche Inferenz beginnt mit einer Prior-Verteilung, die unsere anfängliche Überzeugung über die Hypothese oder das Modell darstellt. Wenn neue Beweise gesammelt werden, wird die Prior-Verteilung mithilfe des Satzes von Bayes aktualisiert, der eine Möglichkeit zur Berechnung der Posterior-Verteilung bietet. Die Posterior-Verteilung repräsentiert die aktualisierte Überzeugung über die Hypothese oder das Modell nach Berücksichtigung der neuen Beweise.
Einer der wichtigsten Vorteile der Bayesianischen Inferenz besteht darin, dass sie es ermöglicht, Vorwissen in die Analyse einzubeziehen. Wenn beispielsweise Vorinformationen über die Parameter eines Modells vorliegen, können diese Informationen genutzt werden, um möglicherweise genauere Schätzungen zu erhalten. Diese Vorgehensweise erfordert jedoch auch eine sorgfältige Wahl der Prior-Verteilung, welche einen erheblichen Einfluss auf die Posterior-Verteilung haben kann.
Die Bayesianische Inferenz kann in einer Vielzahl von Anwendungen eingesetzt werden, einschließlich Hypothesentests, Modellselektion und Parameterschätzung.
Die Möglichkeiten, Vorwissen einzubeziehen, kleine Stichprobengrößen und rauschhafte Daten zu verarbeiten sowie Unsicherheitsschätzungen zu liefern, macht sie zu einem leistungsstarken Werkzeug.
Algorithmen zur Approximation der Posterior-Verteilung
Zur Approximation der Posterior-Verteilung gibt es verschiedene Methoden in der Bayesianischen Inferenz. Eine davon ist das Markov Chain Monte Carlo (MCMC) Sampling. Diese Methode hat den Vorteil, dass sie sehr flexibel ist und auch bei komplexen Modellen eingesetzt werden kann.
Eine weitere Methode ist die Variational Inference (VI), die darauf abzielt, die Posterior-Verteilung durch eine einfachere Verteilung (z. B. einer Normalverteilung) zu approximieren. Das Ziel von VI ist es, eine einfache Approximation der Posterior-Verteilung zu finden, die möglichst nahe an der wahren Posterior-Verteilung liegt. Dies wird durch Minimierung einer Verlustfunktion erreicht, welche die Ähnlichkeit zwischen der approximierenden und der wahren Posterior-Verteilung misst.
Markov-Chain Monte Carlo
Zum Ziehen von Stichproben (engl. Sample) aus der Posterior-Verteilung wird folgende Akzeptanzwahrscheinlichkeit verwendet um von einem Zustand zu einem vorgeschlagenen Zustand überzugehen: wobei die Likelihood der Parameter ist, die Prior-Wahrscheinlichkeitsdichte und die (bedingte) Vorschlagsdichte.
Siehe auch
Literatur
- Approximate Bayesian Inference, Pierre Alquier, 2020, https://doi.org/10.3390/e22111272
Einzelnachweise
- ↑ Bayesian Inference. (2017). Javier Prieto Tejedor. ISBN 9789535135777