Regresión Avanzada: Modelos y Aplicaciones


«`html





Regresión Avanzada: Modelos y Aplicaciones

Introducción

La regresión es una de las herramientas más poderosas en el análisis de datos y el aprendizaje automático. Desde la regresión lineal básica hasta modelos más sofisticados como la regresión logística o los modelos de efectos mixtos, estas técnicas permiten entender relaciones complejas entre variables y hacer predicciones precisas. En este artículo, exploraremos modelos avanzados de regresión, sus fundamentos matemáticos y aplicaciones prácticas en campos como la economía, la medicina y la ingeniería. Si deseas repasar los conceptos básicos, puedes consultar nuestro artículo sobre Introducción a la Regresión Lineal.

Modelos de Regresión Avanzada

1. Regresión Polinómica

La regresión polinómica extiende la regresión lineal al permitir relaciones no lineales entre las variables independientes y dependientes. El modelo se expresa como:

$$ y = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n + \epsilon $$

Donde $\epsilon$ es el término de error. Este modelo es útil cuando la relación entre variables no es lineal, como en el crecimiento de poblaciones o en fenómenos físicos.

2. Regresión Logística

La regresión logística se utiliza cuando la variable dependiente es categórica (binaria o multinomial). La función logística (o sigmoide) transforma la salida lineal a un valor entre 0 y 1:

$$ p(y=1) = \frac{1}{1 + e^{-(\beta_0 + \beta_1 x)}} $$

Este modelo es ampliamente usado en medicina para predecir la probabilidad de enfermedades.

3. Modelos de Efectos Mixtos

Los modelos de efectos mixtos combinan efectos fijos y aleatorios, útiles en datos agrupados o jerárquicos. Por ejemplo, en estudios educativos donde los estudiantes están agrupados por escuelas:

$$ y_{ij} = \beta_0 + \beta_1 x_{ij} + u_j + \epsilon_{ij} $$

Donde $u_j$ es el efecto aleatorio de la escuela $j$.

4. Regresión Ridge y Lasso

Estas técnicas de regularización evitan el sobreajuste en modelos con muchas variables. Ridge añade una penalización $L_2$ y Lasso una penalización $L_1$ a la función de costo:

$$ \text{Ridge: } \min_{\beta} \left( \sum (y_i – X_i \beta)^2 + \lambda \sum \beta_j^2 \right) $$
$$ \text{Lasso: } \min_{\beta} \left( \sum (y_i – X_i \beta)^2 + \lambda \sum |\beta_j| \right) $$

Teoremas Fundamentales

Teorema 1: Teorema de Gauss-Markov

En el modelo de regresión lineal $y = X\beta + \epsilon$, si los errores $\epsilon$ son no correlacionados, con media cero y varianza constante, entonces los estimadores MCO (Mínimos Cuadrados Ordinarios) son MELI (Mejores Estimadores Lineales Insesgados).

Demostración: Bajo las condiciones del teorema, la varianza de cualquier estimador lineal insesgado es mayor o igual que la de MCO. Esto se deriva de la optimización de la matriz de covarianza.

Teorema 2: Consistencia de MCO

Si los errores son i.i.d. con $E(\epsilon|X) = 0$ y $E(\epsilon^2|X) = \sigma^2$, entonces los estimadores MCO son consistentes: $\hat{\beta} \xrightarrow{p} \beta$.

Demostración: Usando la Ley de Grandes Números y el supuesto de exogeneidad, se muestra que $\frac{X’X}{n} \xrightarrow{p} Q$ y $\frac{X’\epsilon}{n} \xrightarrow{p} 0$, lo que implica la consistencia.

Teorema 3: Propiedades de Lasso

Bajo ciertas condiciones de dispersión, Lasso selecciona correctamente las variables relevantes con probabilidad tendiendo a 1 cuando $n \to \infty$.

Demostración: Se basa en la optimalidad de las condiciones KKT y la restricción de la norma $L_1$ que favorece la esparsidad.

Ejercicios Resueltos

Ejercicio 1: Regresión Polinómica

Ajusta un modelo cuadrático a los datos $(1,2), (2,3), (3,5), (4,8)$.

Solución: El modelo es $y = \beta_0 + \beta_1 x + \beta_2 x^2$. Resolviendo el sistema normal $X’X \beta = X’y$:

$$ \begin{pmatrix} 4 & 10 & 30 \\ 10 & 30 & 100 \\ 30 & 100 & 354 \end{pmatrix} \begin{pmatrix} \beta_0 \\ \beta_1 \\ \beta_2 \end{pmatrix} = \begin{pmatrix} 18 \\ 53 \\ 187 \end{pmatrix} $$

La solución es $\beta = (1.5, -0.5, 0.5)$, luego $y = 1.5 – 0.5x + 0.5x^2$.

Ejercicio 2: Regresión Logística

Dados los datos $(1,0), (2,0), (3,1), (4,1)$, estima $\beta_0$ y $\beta_1$ en el modelo logístico.

Solución: Maximizando la verosimilitud, iteramos con el método de Newton-Raphson hasta convergencia. Tras 3 iteraciones, obtenemos $\beta_0 = -4.357$ y $\beta_1 = 1.606$.

Ejercicio 3: Regresión Ridge

Para los datos del Ejercicio 1, aplica Ridge con $\lambda = 1$.

Solución: Resolvemos $(X’X + \lambda I)\beta = X’y$:

$$ \begin{pmatrix} 5 & 10 & 30 \\ 10 & 31 & 100 \\ 30 & 100 & 355 \end{pmatrix} \beta = \begin{pmatrix} 18 \\ 53 \\ 187 \end{pmatrix} $$

La solución es $\beta = (1.47, -0.48, 0.49)$, mostrando cómo Ridge reduce ligeramente los coeficientes.

Ejercicio 4: Interpretación de Coeficientes

En un modelo logístico con $\beta_0 = -2$ y $\beta_1 = 0.5$, interpreta el efecto de $x$.

Solución: Un aumento de 1 unidad en $x$ multiplica la razón de probabilidades por $e^{0.5} \approx 1.648$, aumentando la probabilidad de $y=1$.

Ejercicio 5: Selección de Modelo

Compara AIC y BIC para un modelo lineal y uno polinómico de grado 2 con RSS = 15.2 y 12.8 respectivamente (n=30, p=2 y p=3).

Solución:
$$ \text{AIC}_1 = 30 \ln(15.2/30) + 2 \times 2 = -45.3 $$
$$ \text{AIC}_2 = 30 \ln(12.8/30) + 2 \times 3 = -47.1 $$
$$ \text{BIC}_1 = 30 \ln(15.2/30) + \ln(30) \times 2 = -40.1 $$
$$ \text{BIC}_2 = 30 \ln(12.8/30) + \ln(30) \times 3 = -39.8 $$
AIC prefiere el modelo polinómico, mientras BIC prefiere el lineal por su penalización más fuerte a la complejidad.

Aplicaciones Prácticas

Los modelos avanzados de regresión tienen aplicaciones en diversos campos:

  • Medicina: Predicción de riesgo de enfermedades usando regresión logística.
  • Economía: Modelos de efectos mixtos para datos panel en estudios de crecimiento económico.
  • Marketing: Uso de regresión polinómica para modelar respuesta a campañas publicitarias.
  • Ingeniería: Optimización de procesos con regresión Ridge/Lasso en presencia de multicolinealidad.

Para profundizar en aplicaciones económicas, visita nuestro artículo sobre Regresión en Econometría.

Conclusión

En este artículo hemos explorado modelos avanzados de regresión, desde técnicas polinómicas hasta métodos de regularización como Ridge y Lasso. Hemos presentado teoremas fundamentales que sustentan estos métodos y resuelto ejercicios prácticos. Estas herramientas son esenciales para el análisis de datos moderno, permitiendo modelar relaciones complejas y hacer predicciones precisas en diversos campos. El dominio de estos conceptos abre puertas a aplicaciones innovadoras en ciencia de datos e investigación cuantitativa.



«`

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *