Regresión Múltiple: Fundamentos y Ejemplos


«`html





Regresión Múltiple: Fundamentos y Ejemplos

Introducción

La regresión múltiple es una herramienta estadística poderosa que permite modelar la relación entre una variable dependiente y varias variables independientes. A diferencia de la regresión lineal simple, que solo considera una variable predictora, la regresión múltiple amplía este concepto para incluir múltiples predictores, lo que la hace invaluable en campos como la economía, la medicina y las ciencias sociales. En este artículo, exploraremos sus fundamentos, teoremas clave, ejemplos prácticos y aplicaciones.

Fundamentos de la Regresión Múltiple

El modelo de regresión múltiple se expresa como:

$$ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \dots + \beta_p X_p + \epsilon $$

Donde:

  • $Y$ es la variable dependiente.
  • $X_1, X_2, \dots, X_p$ son las variables independientes.
  • $\beta_0, \beta_1, \dots, \beta_p$ son los coeficientes del modelo.
  • $\epsilon$ es el término de error.

El objetivo es estimar los coeficientes $\beta$ que minimicen la suma de los errores al cuadrado.

Estimación de los Coeficientes

Los coeficientes se estiman utilizando el método de mínimos cuadrados ordinarios (MCO). La solución en forma matricial es:

$$ \hat{\beta} = (X^T X)^{-1} X^T Y $$

Ejemplo 1: Estimación de Coeficientes

Supongamos que tenemos los siguientes datos:

Y X1 X2
3 1 2
5 2 3
7 3 4

Calculamos $X^T X$ y $X^T Y$, y luego resolvemos para $\hat{\beta}$:

$$ \hat{\beta} = \begin{bmatrix} 1 \\ 1 \end{bmatrix} $$

Por lo tanto, el modelo estimado es $Y = 1 + 1 \cdot X_1 + 1 \cdot X_2$.

Teoremas Clave

Teorema 1: Insesgadez de los Estimadores MCO

Bajo los supuestos del modelo clásico de regresión lineal, los estimadores MCO son insesgados, es decir, $E(\hat{\beta}) = \beta$.

Demostración:

Dado que $\hat{\beta} = (X^T X)^{-1} X^T Y$ y $Y = X \beta + \epsilon$, sustituyendo:

$$ \hat{\beta} = (X^T X)^{-1} X^T (X \beta + \epsilon) = \beta + (X^T X)^{-1} X^T \epsilon $$

Tomando esperanza y asumiendo $E(\epsilon) = 0$, se cumple $E(\hat{\beta}) = \beta$.

Teorema 2: Varianza de los Estimadores

La varianza de $\hat{\beta}$ está dada por:

$$ \text{Var}(\hat{\beta}) = \sigma^2 (X^T X)^{-1} $$

Demostración:

Usando la expresión de $\hat{\beta}$ y asumiendo $\text{Var}(\epsilon) = \sigma^2 I$:

$$ \text{Var}(\hat{\beta}) = (X^T X)^{-1} X^T \text{Var}(\epsilon) X (X^T X)^{-1} = \sigma^2 (X^T X)^{-1} $$

Ejercicios Resueltos

Ejercicio 1: Interpretación de Coeficientes

Dado el modelo $Y = 2 + 0.5 X_1 – 1.2 X_2$, interpreta los coeficientes.

Solución:

El intercepto ($\beta_0 = 2$) es el valor esperado de $Y$ cuando $X_1 = X_2 = 0$. $\beta_1 = 0.5$ indica que por cada unidad que aumenta $X_1$, $Y$ aumenta en 0.5 unidades, manteniendo $X_2$ constante. $\beta_2 = -1.2$ indica que por cada unidad que aumenta $X_2$, $Y$ disminuye en 1.2 unidades, manteniendo $X_1$ constante.

Ejercicio 2: Predicción con Regresión Múltiple

Usando el modelo $Y = 1 + 2 X_1 – 0.5 X_2$, predice $Y$ para $X_1 = 3$ y $X_2 = 4$.

Solución:

Sustituyendo: $Y = 1 + 2(3) – 0.5(4) = 1 + 6 – 2 = 5$.

Aplicaciones Prácticas

La regresión múltiple se utiliza en:

  • Economía: Predecir el PIB basado en múltiples indicadores.
  • Medicina: Estimar el riesgo de una enfermedad usando variables como edad, peso y presión arterial.
  • Marketing: Analizar el impacto de diferentes estrategias en las ventas.

Para profundizar en aplicaciones, revisa nuestro artículo sobre aplicaciones de la regresión.

Conclusión

La regresión múltiple es una técnica esencial para modelar relaciones complejas entre variables. Hemos cubierto sus fundamentos, teoremas clave y ejemplos prácticos. Con esta base, puedes aplicar estos conceptos en diversos campos para obtener insights valiosos a partir de datos.



«`

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *