Suma residual de cuadrados

En estadística e inteligencia artificial, la suma residual de cuadrados (RSS), también conocida como suma de residuos cuadrados (SSR) o suma de cuadrados de estimación de errores (SSE), es la suma de los cuadrados de residuos (desviaciones predichas a partir de valores empíricos reales). de datos). Es una medida de la discrepancia entre los datos y un modelo de estimación, como una regresión lineal. Un RSS pequeño indica un ajuste estrecho del modelo a los datos. Se utiliza como criterio de optimización en la selección de parámetros y la selección de modelos .

En general, suma total de cuadrados = suma explicada de cuadrados + suma residual de cuadrados. Para ver una prueba de esto en el caso de mínimos cuadrados ordinarios (OLS) multivariante, consulte partición en el modelo OLS general .

Una variable explicativa

En un modelo con una sola variable explicativa (explanatory variable en inglés), RSS viene dado por:[1]

RSS = i = 1 n ( y i f ( x i ) ) 2 {\displaystyle \operatorname {RSS} =\sum _{i=1}^{n}(y_{i}-f(x_{i}))^{2}}

donde y i es el i -ésimo valor de la variable a predecir, x i es el i -ésimo valor de la variable explicativa, y f ( x i ) {\displaystyle f(x_{i})} es el valor pronosticado de y i (también denominado y i ^ {\displaystyle {\hat {y_{i}}}} ). En un modelo de regresión lineal simple estándar, y i = α + β x i + ε i {\displaystyle y_{i}=\alpha +\beta x_{i}+\varepsilon _{i}\,} , donde α {\displaystyle \alpha } y β {\displaystyle \beta } son coeficientes, y y x son la regresora y la regresora, respectivamente, y ε es el término de error . La suma de los cuadrados de los residuos es la suma de los cuadrados de ε ^ i {\displaystyle {\widehat {\varepsilon \,}}_{i}}  ; es decir

RSS = i = 1 n ( ε ^ i ) 2 = i = 1 n ( y i ( α ^ + β ^ x i ) ) 2 {\displaystyle \operatorname {RSS} =\sum _{i=1}^{n}({\widehat {\varepsilon \,}}_{i})^{2}=\sum _{i=1}^{n}(y_{i}-({\widehat {\alpha \,}}+{\widehat {\beta \,}}x_{i}))^{2}}

donde α ^ {\displaystyle {\widehat {\alpha \,}}} es el valor estimado del término constante α {\displaystyle \alpha } y β ^ {\displaystyle {\widehat {\beta \,}}} es el valor estimado del coeficiente de pendiente β {\displaystyle \beta } .

Expresión matricial para la suma residual de cuadrados OLS - MCO

El modelo de regresión general con n observaciones y k explicadores (explanators en inglés), el primero de los cuales es un vector unitario constante cuyo coeficiente es el intercepto de la regresión, es

y = X β + e {\displaystyle y=X\beta +e}

donde y es un vector n × 1 de observaciones de variables dependientes, cada columna de la matriz n × k , X es un vector de observaciones en uno de los k explicadores, β {\displaystyle \beta } es un vector k × 1 de coeficientes verdaderos, y e es un vector n × 1 de los errores subyacentes verdaderos. El estimador de mínimos cuadrados ordinarios para β {\displaystyle \beta } es

X β ^ = y {\displaystyle X{\hat {\beta }}=y\iff }
X T X β ^ = X T y {\displaystyle X^{\operatorname {T} }X{\hat {\beta }}=X^{\operatorname {T} }y\iff }
β ^ = ( X T X ) 1 X T y . {\displaystyle {\hat {\beta }}=(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y.}

El vector residual e ^ {\displaystyle {\hat {e}}} = y X β ^ = y X ( X T X ) 1 X T y {\displaystyle y-X{\hat {\beta }}=y-X(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y}  ; entonces la suma residual de los cuadrados es:

RSS = e ^ T e ^ = e ^ 2 {\displaystyle \operatorname {RSS} ={\hat {e}}^{\operatorname {T} }{\hat {e}}=\|{\hat {e}}\|^{2}} ,

(equivalente al cuadrado de la norma de residuos). En su totalidad:

RSS = y T y y T X ( X T X ) 1 X T y = y T [ I X ( X T X ) 1 X T ] y = y T [ I H ] y {\displaystyle \operatorname {RSS} =y^{\operatorname {T} }y-y^{\operatorname {T} }X(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }y=y^{\operatorname {T} }[I-X(X^{\operatorname {T} }X)^{-1}X^{\operatorname {T} }]y=y^{\operatorname {T} }[I-H]y} ,

donde H es la matriz sombrero, o la matriz de proyección en regresión lineal.

Relación con la correlación producto-momento de Pearson

La línea de regresión de mínimos cuadrados está dada por

y = a x + b {\displaystyle y=ax+b} ,

donde b = y ¯ a x ¯ {\displaystyle b={\bar {y}}-a{\bar {x}}} y a = S x y S x x {\displaystyle a={\frac {S_{xy}}{S_{xx}}}} , donde S x y = i = 1 n ( x ¯ x i ) ( y ¯ y i ) {\displaystyle S_{xy}=\sum _{i=1}^{n}({\bar {x}}-x_{i})({\bar {y}}-y_{i})} y S x x = i = 1 n ( x ¯ x i ) 2 . {\displaystyle S_{xx}=\sum _{i=1}^{n}({\bar {x}}-x_{i})^{2}.}

Por lo tanto,

RSS = i = 1 n ( y i f ( x i ) ) 2 = i = 1 n ( y i ( a x i + b ) ) 2 = i = 1 n ( y i a x i y ¯ + a x ¯ ) 2 = i = 1 n ( a ( x ¯ x i ) ( y ¯ y i ) ) 2 = a 2 S x x 2 a S x y + S y y = S y y a S x y = S y y ( 1 S x y 2 S x x S y y ) {\displaystyle {\begin{aligned}\operatorname {RSS} &=\sum _{i=1}^{n}(y_{i}-f(x_{i}))^{2}=\sum _{i=1}^{n}(y_{i}-(ax_{i}+b))^{2}=\sum _{i=1}^{n}(y_{i}-ax_{i}-{\bar {y}}+a{\bar {x}})^{2}\\[5pt]&=\sum _{i=1}^{n}(a({\bar {x}}-x_{i})-({\bar {y}}-y_{i}))^{2}=a^{2}S_{xx}-2aS_{xy}+S_{yy}=S_{yy}-aS_{xy}=S_{yy}\left(1-{\frac {S_{xy}^{2}}{S_{xx}S_{yy}}}\right)\end{aligned}}}

donde S y y = i = 1 n ( y ¯ y i ) 2 . {\displaystyle S_{yy}=\sum _{i=1}^{n}({\bar {y}}-y_{i})^{2}.}

La correlación producto-momento de Pearson está dada por r = S x y S x x S y y ; {\displaystyle r={\frac {S_{xy}}{\sqrt {S_{xx}S_{yy}}}};} por lo tanto, RSS = S y y ( 1 r 2 ) . {\displaystyle \operatorname {RSS} =S_{yy}(1-r^{2}).}

Véase también

Referencias

  1. Archdeacon, Thomas J. (1994). Correlation and regression analysis : a historian's guide. University of Wisconsin Press. pp. 161-162. ISBN 0-299-13650-7. OCLC 27266095. 

Bibliografía

  • Draper, N.R.; Smith, H. (1998). Applied Regression Analysis (3rd edición). John Wiley. ISBN 0-471-17082-8. 
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q15096882
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q15096882