In der Statistik wird mit der Deming-Regression eine Ausgleichsgerade für eine endliche Menge metrisch skalierter Datenpaare () nach der Methode der kleinsten Quadrate bestimmt. Es handelt sich um eine Variante der linearen Regression. Bei der Deming-Regression werden die Residuen (Messfehler) sowohl für die - als auch für die -Werte in das Modell einbezogen.

Die Deming-Regression ist somit ein Spezialfall der Regressionsanalyse; sie beruht auf einer Maximum-Likelihood-Schätzung der Regressionsparameter, bei der die Residuen beider Variablen als unabhängig und normalverteilt angenommen werden und der Quotient ihrer Varianzen als bekannt unterstellt wird.

Die Deming-Regression geht auf eine Arbeit von C.H. Kummell (1879) zurück; 1937 wurde die Methode von T.C. Koopmans wieder aufgegriffen und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall . Die Deming-Regression wiederum ist ein Spezialfall der York-Regression.

Rechenweg

Die gemessenen Werte und werden als Summen der „wahren Werte bzw. und der „Fehler“ bzw. aufgefasst, d. h. Die Datenpaare () liegen auf der zu berechnenden Geraden. und seien unabhängig mit und . Bekannt sei zumindest der Quotient der Fehlervarianzen .

Es wird eine Gerade

gesucht, die die gewichtete Residuenquadratsumme minimiert:

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

    (arithmetisches Mittel der )
    (arithmetisches Mittel der )
    (Stichprobenvarianz der )
    (Stichprobenvarianz der )
    (Stichprobenkovarianz der ).

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:

.

Die -Koordinaten berechnet man mit

.

Erweiterung York-Regression

York-Regression erweitert die Deming-Regression, da es korrelierte x- und y-Fehler erlaubt.

Einzelnachweise

  1. C. H. Kummell: Reduction of observation equations which contain more than one observed quantity. In: The Analyst. 6. Jahrgang, Nr. 4. Annals of Mathematics, 1879, S. 97–105, doi:10.2307/2635646.
  2. T. C. Koopmans: Linear regression analysis of economic time series. DeErven F. Bohn, Haarlem, Netherlands, 1937.
  3. W. E. Deming: Statistical adjustment of data. Wiley, NY (Dover Publications edition, 1985), 1943, ISBN 0-486-64685-8.
  4. P. Glaister: Least squares revisited. The Mathematical Gazette. Vol. 85 (2001), S. 104–107, JSTOR:3620485.
  5. York, D., Evensen, N. M., Martınez, M. L., and Delgado, J. D. B.: Unified equations for the slope, intercept, and standard errors of the best straight line, Am. J. Phys., 72, 367–375, 2004, doi:10.1119/1.1632486.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.