Bootstrap aggregating (Bagging) ist eine Ensemble-learning-Methode, um Vorhersagen aus verschiedenen Regressions- oder Klassifikationsmodellen (mit hoher Varianz in der Vorhersage) zu kombinieren und dadurch die Varianz zu verringern. Die Methode wurde ursprünglich von Leo Breiman entwickelt. Bootstrap aggregating wird beispielsweise bei Random Forests eingesetzt.

Vorgehensweise

Zunächst wird mithilfe des Bootstrapping-Verfahrens Stichprobenwiederholungen des Umfanges aus dem Originaldatensatz erzeugt und auf diesen werden dann Vorhersagemodelle () trainiert. Für einen Wert ergeben sich dann Vorhersagewerte . Die Ergebnisse der Modelle werden dann mit einer Aggregationsfunktion (z. B. Mittelwert, Median, Majority Voting etc.) zusammengefasst:

  • Ist der Vorhersagewert eine Klassenzugehörigkeit, dann könnte die am häufigsten vorhergesagte Klasse als Vorhersagewert genommen werden (Aggregierung über Majority-Voting)
  • Im Regressionsfall ergibt sich bei Aggregierung über den Mittelwert der Vorhersagewert als
oder allgemein mit Gewichten
.

Bei einer Aggregierungsfunktion, welche die einzelnen internen Modelle gewichtet, könnten die Gewichte z. B. von der Qualität der Modellvorhersage abhängen, d. h. „gute“ Modelle gehen mit einem größeren Gewicht ein als „schlechte“ Modelle.

Eigenschaften

Das Bagging führt im Fall von instabilen Modellen, d. h. Modellen, in denen sich die Struktur stark in Abhängigkeit von den Stichprobendaten ändert (siehe z. B. Classification and Regression Trees), meist zu deutlich verbesserten Vorhersagen.

Siehe auch

Einzelnachweise

  1. Leo Breiman: Bagging predictors. In: Machine Learning. 24. Jahrgang, Nr. 2, 1996, S. 123–140, doi:10.1007/BF00058655 (psu.edu [PDF]).

Literatur

  • Ian H. Witten, Eibe Frank, Mark A. Hall (2011), Data Mining: Practical Machine Learning Tools and Techniques (Third Edition), Morgan Kaufmann
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.