Das Lemma von Stein ist in der Testtheorie, einem Teilgebiet der mathematischen Statistik, eine Aussage darüber, wie sich die Wahrscheinlichkeit für einen Fehler 2. Art bei Neyman-Pearson-Tests für größer werdende Stichproben verändert.
Die Aussage ist nach Charles Stein benannt, der sie 1952 bewies.
Rahmenbedingungen
Gegeben sei ein statistisches Modell mit einfacher Nullhypothese und einfacher Alternative , für die beide die Wahrscheinlichkeitsdichtefunktionen und existieren und echt positiv sind. Des Weiteren sei das entsprechende unendliche Produktmodell und die Projektion auf die Komponenten des Produktmodells.
Sei ein Neyman-Pearson-Test zum Niveau , der nur von abhängt. Des Weiteren bezeichne
die Kullback-Leibler-Entropie von und
Aussage
Unter den obigen Bedingungen gilt: Die Trennschärfe von strebt mit exponentieller Geschwindigkeit gegen 1. Genauer gilt
für große .
Interpretation
Nach dem Neyman-Pearson-Lemma sind Neyman-Pearson-Tests gleichmäßig beste Tests, haben also eine größere Trennschärfe als jeder weitere Test zum selben Niveau. Das Lemma von Stein ergänzt diese Aussage noch, indem es angibt, wie groß die Trennschärfe wird. Somit sind Neyman-Pearson-Tests nicht nur gleichmäßig besser als jeder andere Test, sondern auch noch gut in dem Sinne, dass ihre Trennschärfe beliebig nahe an 1 herankommt sowie dass dies sehr schnell mit wachsender Stichprobengröße geschieht.
Bestimmender Faktor bei der Konvergenzgeschwindigkeit ist die Kullback-Leibler-Entropie. Sie liefert ein Maß dafür, wie gut zwei Wahrscheinlichkeitsmaße aufgrund einer Stichprobe auseinandergehalten werden können.
Literatur
- Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, doi:10.1515/9783110215274.