Die Regressions-Diskontinuitäts-Analyse, bzw. Regressionsdiskontinuitätsanalyse (englisch regression discontinuity design) ist ein Verfahren der schließenden Statistik und der Ökonometrie, das dazu angewandt wird, um kausale Effekte der Veränderung einer Variablen auf die Veränderung anderer Variablen zu identifizieren. Die grundlegende Idee ist dabei, eine Diskontinuität oder Unstetigkeit in einer beobachteten Kontrollvariable zu nutzen, die zu einer fast zufälligen Zuteilung in die Behandlungs- oder Kontrollgruppe führt. Die Regressions-Diskontinuitäts-Analyse gehört, wie der Instrumentvariablen-Ansatz und der Differenz-von-Differenzen-Ansatz zu den Verfahren, die sogenannte „natürliche“ oder „Quasi-Experimente“ ausnutzen.
Idee
In vielen Situationen, in denen kausale Effekte untersucht und quantifiziert werden sollen, besteht eine Korrelation zwischen der erklärenden Variable und dem Fehlerterm, was zu Endogenität und damit zu Inkonsistenz der Methode der kleinsten Quadrate führt: Selbst für große Stichproben wird der Kleinste-Quadrate-Schätzer nicht unverzerrt sein. Die Regressions-Diskontinuitäts-Analyse kann dazu verwendet werden, dieses Problem zu überwinden.
Die Grundidee der Regressions-Diskontinuitätsanalyse ist, eine Unstetigkeit in einer beobachtbaren Kontrollvariable zu finden, die einen Einfluss darauf hat, ob ein Individuum die Behandlung erhält oder nicht. Dies kann am besten anhand eines Beispiels illustriert werden. In einer 1999 veröffentlichten Studie untersuchten die Ökonomen Joshua Angrist und Viktor Lavy den Effekt von Klassengrößen auf die Leistungen von Schülern. Dabei nutzten sie die „Regel von Maimonides“, die noch heute in Israel benutzt wird, um die Klassengröße an öffentlichen Schulen zu regulieren. Gemäß dieser Regel darf eine Klasse maximal 40 Schüler haben. Hat sie mehr, so muss eine zweite Klasse gebildet werden. Hier entsteht eine starke Diskontinuität zwischen der Anzahl der Schüler eines Jahrgangs an einer Schule und der Klassengröße: Hat die Schule 39 Schüler, so gibt es eine Klasse von 39 Schülern; hat die Schule 40 Schüler, so gibt es zwei Klassen mit je 20 Schülern. Ob eine Schule nun 39 oder 40 Schüler hat, liegt nicht komplett unter der Kontrolle der beteiligten Individuen, sondern ist zumindest teilweise dem Zufall geschuldet. Aus diesem Grund kann es als eine exogene Variation angesehen werden, die eine konsistente Schätzung des Effekts der Klassengröße auf die Leistung der Schüler erlaubt.
Unterschieden werden muss bei der RD-Analyse zwischen der klassischen „scharfen RD-Analyse“ (englisch sharp regression discontinuity design) und der „unscharfen RD-Analyse“ (englisch fuzzy regression discontinuity design). Bei der scharfen RD-Analyse ist die „Behandlung“ eine deterministische Funktion der zugrundeliegenden Kontrollvariable, d. h. die Kontrollvariable bestimmt die Behandlung perfekt (wie im obigen Beispiel). Bei der unscharfen RD-Analyse bestimmt die Kontrollvariable die Behandlung nicht perfekt, beeinflusst aber ihre Wahrscheinlichkeit oder ihren Erwartungswert.
Mathematischer Hintergrund
Scharfe RD-Analyse
Das zugrundeliegende „wahre Modell“ sei
wobei eine Indikatorvariable ist, die angibt, ob eine Person „behandelt“ wurde oder nicht. Im obigen Beispiel wäre also „ist in einer kleinen Klasse“, wäre „Anzahl Schüler an der Schule“. sei die Stelle, an der die Diskontinuität liege, also im obigen Beispiel . Dann sind
Unter der Annahme, dass stetig ist, gilt ferner für den linksseitigen Grenzwert:
(wobei den Grenzwert links der Diskontinuität darstellen soll) Dann ist
- , der Effekt der Behandlung kann also als Differenz der beiden Erwartungswerte ausgedrückt werden.
Geschätzt werden können diese Erwartungswerte zum Beispiel, indem die Daten umskaliert werden, sodass der Nullpunkt ist und anschließend links und rechts davon zwei Kleinste-Quadrate-Schätzungen durchgeführt werden. Die Differenz der Erwartungswerte kann dann als Differenz der beiden Konstanten der Kleinste-Quadrate-Schätzungen berechnet werden. Alternativ ist auch eine Schätzung durch eine einzige Kleinste-Quadrate-Schätzung mit entsprechenden Interaktionstermen möglich.
Falls der Effekt der Behandlung für verschiedene Individuen unterschiedlich ist, kann gezeigt werden, dass die scharfe RD-Analyse den durchschnittlichen Behandlungseffekt (englisch average treatment effect), angibt.
Unscharfe RD-Analyse
Das zugrundeliegende wahre Modell sei wieder
Allerdings ist nun
Wobei Z keinen direkten Effekt auf Y hat. Dann kann berechnet werden
und folglich
- .
Geschätzt werden kann die unscharfe RD-Analyse wie eine Instrumentvariablenschätzung, mit als Instrument für . Dabei wird zuerst auf regressiert. Die dadurch gewonnenen geschätzten Werte werden dann in einer zweiten Regression als erklärende Variablen für benutzt (siehe auch Mathematischer Hintergrund zu Instrumentvariablen).
Vorteile
Die Anwendung der Regressions-Diskontinuitäts-Analyse hat zahlreiche Vorteile. Wenn die beobachtenden Individuen keinen Einfluss auf die Zuteilungsvariable ( im obigen Beispiel) haben, ist die Zuteilung in Behandlungs- und Kontrollgruppe zufällig und erlaubt ein Vorgehen analog zu einem tatsächlichen auf Zufallsauswahl basierenden Experiment, ohne ein solches durchgeführt zu haben. Tatsächlich genügt hierfür sogar schon, wenn die Individuen keine perfekte Kontrolle über die Zuteilungsvariable haben. Selbst wenn die „Probanden“ bis zu einem gewissen Grad bestimmen können, ist die schlussendliche Verteilung um die Diskontinuitätsstelle zufällig. Dies ist ein besonderer Vorteil von RDD gegenüber anderen quasi-experimentellen Forschungsansätzen, wo die quasi-zufällige Zuteilung oft angenommen und mit Hilfe von verbalen Argumenten verteidigt werden muss.
RDD ist darüber hinaus wichtiger Bestandteil einer ganzen quasi-experimentellen Forschungsagenda, die auch als „Glaubwürdigkeitsrevolution“ (englisch credibility revolution) in der angewandten Ökonomie bekannt ist. Vertreter dieser Agenda betonen, dass die vermehrte Anwendung von experimentellen und quasi-experimentellen Forschungsansätzen zu glaubwürdigeren Forschungsergebnissen geführt hat.
Nachteile
Ein potentielles Problem bei der Anwendung von RDD-Schätzern ist die Gefahr einer Fehlspezifikation der zugrunde liegenden funktionalen Form. Folgt das zugrundeliegende „wahre Modell“ beispielsweise keinem linearen Zusammenhang, so wäre eine wie oben beschriebene Schätzung im Allgemeinen verzerrt und nicht erwartungstreu. Mögliche Abhilfen hierfür sind das Einfügen höherer Polynome (zum Beispiel :) oder das Zurückgreifen auf nichtparametrische Schätzungen.
Als Teil der „quasi-experimentellen“ Forschungsmethode ist RDD darüber hinaus auch der Kritik an dieser ausgesetzt. Christopher Sims sieht RDD und verwandte Forschungsansätze als „nützlich, aber […] keine Allheimittel“ an, während Angus Deaton befürchtet, die Aufmerksamkeit der Forscher könnte sich dahingehend verlagern, dass die Durchführbarkeit einer Studie gegenüber ihrer Relevanz wichtiger wird. Wie bei allen quasi-experimentellen Ansätze ist auch bei RDD-Schätzern die externe Validität eingeschränkt. Streng genommen werden die gemessenen Effekte nur für die untersuchte Diskontinuität zuverlässig gemessen. Diese Erkenntnisse sind nur schwer in Bezug auf andere Kontexte (z. B. andere Länder, Bevölkerungsgruppen oder Politikmaßnahmen) zu verallgemeinern.
Geschichte
Die Regressions-Diskontinuitäts-Analyse wurde erstmals 1960 von den Psychologen Donald L. Thistlewaite und Donald T. Campbell benutzt. In der Ökonomie und Ökonometrie fand sie jedoch erst deutlich später, Ende der 90er und Anfang der 2000er Jahre breitere Anwendung. Erste wichtige Studien waren dabei unter anderem der bereits genannte Artikel von Angrist und Lavy sowie ein Artikel von Wilbert van der Klaauw aus dem Jahr 2002. Seither ist die RD-Analyse zu einem weit verbreiteten Instrument in der empirischen Ökonomie geworden.
Literatur
- Angrist, Joshua D./Pischke, Jörn-Steffen: Mostly Harmless Econometrics: An Empiricist's Companion, Princeton University Press, 2008
- Angrist, Joshua D./Lavy, Victor: Using Maimonides' Rule To Estimate The Effect Of Class Size On Scholastic Achievement, Quarterly Journal of Economics 114.2, Mai 1999, S. 533–575
- Lee, David S. / Lemieux, Thomas: Regression Discontinuity Designs in Economics, Journal of Economic Literature 48, Juni 2010, S. 281–355
- Donald L. Thistlewaite, Donald T. Campbell: Regression-Discontinuity Analysis: An alternative to the ex post facto experiment, 1960, Journal of Educational Psychology 51: 309–317
- van der Klaauw, Wilbert: Estimating the Effect of Financial Aid Offers on College Enrollment: A Regression-Discontinuity Approach, International Economic Review, 43.4, November 2010, S. 1249–1287
Anmerkungen
- ↑ Angrist & Pischke, Mostly Harmless Econometrics, 2008, S. 137
- ↑ Angrist & Pischke, Mostly Harmless Econometrics, 2008, S. 142
- ↑ Lee & Lemieux, Regression Discontinuity Designs in Economics, 2010, S. 283, S. 295
- ↑ Siehe z. B. Joshua D. Angrist und Jörn-Steffen Pischke: The Credibility Revolution in Empirical Economics: How Better Research Design is Taking the Con out of Econometrics, Journal of Economic Perspectives, 24.2, Sommer 2010, S. 3–30. In ähnlicher Weise Imbens, Guido W.: Better LATE than nothing: Some Comments on Deaton (2009) and Heckman and Urzua (2009), NBER Working Paper 14896, April 2009
- ↑ Lee & Lemieux, Regression Discontinuity Designs in Economics, 2010, S. 316
- ↑ Sims, Christopher: But Economics Is Not an Experimental Science, Journal of Economic Perspectives, 24.2, Sommer 2010, S. 59
- ↑ Deaton, Angus: Instruments of Development: Randomization in the Tropics, and the Search for the Elusive Keys to Economic Development, NBER Working Paper 14690, Januar 2009, S. 9f.
- ↑ Lee & Lemieux, Regression Discontinuity Designs in Economics, 2010, S. 281f.