Introducción
La regresión múltiple es una herramienta estadística poderosa que permite modelar la relación entre una variable dependiente y varias variables independientes. A diferencia de la regresión lineal simple, que solo considera una variable predictora, la regresión múltiple amplía este concepto para incluir múltiples predictores, lo que la hace invaluable en campos como la economía, la medicina y las ciencias sociales. En este artículo, exploraremos sus fundamentos, teoremas clave, ejemplos prácticos y aplicaciones.
Fundamentos de la Regresión Múltiple
El modelo de regresión múltiple se expresa como:
$$ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \dots + \beta_p X_p + \epsilon $$
Donde:
- $Y$ es la variable dependiente.
- $X_1, X_2, \dots, X_p$ son las variables independientes.
- $\beta_0, \beta_1, \dots, \beta_p$ son los coeficientes del modelo.
- $\epsilon$ es el término de error.
El objetivo es estimar los coeficientes $\beta$ que minimicen la suma de los errores al cuadrado.
Estimación de los Coeficientes
Los coeficientes se estiman utilizando el método de mínimos cuadrados ordinarios (MCO). La solución en forma matricial es:
$$ \hat{\beta} = (X^T X)^{-1} X^T Y $$
Ejemplo 1: Estimación de Coeficientes
Supongamos que tenemos los siguientes datos:
Y | X1 | X2 |
---|---|---|
3 | 1 | 2 |
5 | 2 | 3 |
7 | 3 | 4 |
Calculamos $X^T X$ y $X^T Y$, y luego resolvemos para $\hat{\beta}$:
$$ \hat{\beta} = \begin{bmatrix} 1 \\ 1 \end{bmatrix} $$
Por lo tanto, el modelo estimado es $Y = 1 + 1 \cdot X_1 + 1 \cdot X_2$.
Teoremas Clave
Teorema 1: Insesgadez de los Estimadores MCO
Bajo los supuestos del modelo clásico de regresión lineal, los estimadores MCO son insesgados, es decir, $E(\hat{\beta}) = \beta$.
Demostración:
Dado que $\hat{\beta} = (X^T X)^{-1} X^T Y$ y $Y = X \beta + \epsilon$, sustituyendo:
$$ \hat{\beta} = (X^T X)^{-1} X^T (X \beta + \epsilon) = \beta + (X^T X)^{-1} X^T \epsilon $$
Tomando esperanza y asumiendo $E(\epsilon) = 0$, se cumple $E(\hat{\beta}) = \beta$.
Teorema 2: Varianza de los Estimadores
La varianza de $\hat{\beta}$ está dada por:
$$ \text{Var}(\hat{\beta}) = \sigma^2 (X^T X)^{-1} $$
Demostración:
Usando la expresión de $\hat{\beta}$ y asumiendo $\text{Var}(\epsilon) = \sigma^2 I$:
$$ \text{Var}(\hat{\beta}) = (X^T X)^{-1} X^T \text{Var}(\epsilon) X (X^T X)^{-1} = \sigma^2 (X^T X)^{-1} $$
Ejercicios Resueltos
Ejercicio 1: Interpretación de Coeficientes
Dado el modelo $Y = 2 + 0.5 X_1 – 1.2 X_2$, interpreta los coeficientes.
Solución:
El intercepto ($\beta_0 = 2$) es el valor esperado de $Y$ cuando $X_1 = X_2 = 0$. $\beta_1 = 0.5$ indica que por cada unidad que aumenta $X_1$, $Y$ aumenta en 0.5 unidades, manteniendo $X_2$ constante. $\beta_2 = -1.2$ indica que por cada unidad que aumenta $X_2$, $Y$ disminuye en 1.2 unidades, manteniendo $X_1$ constante.
Ejercicio 2: Predicción con Regresión Múltiple
Usando el modelo $Y = 1 + 2 X_1 – 0.5 X_2$, predice $Y$ para $X_1 = 3$ y $X_2 = 4$.
Solución:
Sustituyendo: $Y = 1 + 2(3) – 0.5(4) = 1 + 6 – 2 = 5$.
Aplicaciones Prácticas
La regresión múltiple se utiliza en:
- Economía: Predecir el PIB basado en múltiples indicadores.
- Medicina: Estimar el riesgo de una enfermedad usando variables como edad, peso y presión arterial.
- Marketing: Analizar el impacto de diferentes estrategias en las ventas.
Para profundizar en aplicaciones, revisa nuestro artículo sobre aplicaciones de la regresión.
Conclusión
La regresión múltiple es una técnica esencial para modelar relaciones complejas entre variables. Hemos cubierto sus fundamentos, teoremas clave y ejemplos prácticos. Con esta base, puedes aplicar estos conceptos en diversos campos para obtener insights valiosos a partir de datos.
«`