La regresión lineal es una de las técnicas más utilizadas en estadística para modelar la relación entre una variable dependiente y una o más variables independientes. En este artículo, resolveremos un examen típico de regresión lineal, paso a paso, con explicaciones detalladas y ejemplos prácticos.
Pregunta 1: Conceptos Básicos
Pregunta: ¿Qué es la regresión lineal y cuál es su objetivo principal?
Solución: La regresión lineal es un método estadístico que modela la relación entre una variable dependiente \( Y \) y una o más variables independientes \( X \). Su objetivo principal es encontrar la línea recta que mejor se ajuste a los datos, minimizando la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos por el modelo.
La ecuación de la regresión lineal simple es:
\[ Y = \beta_0 + \beta_1 X + \epsilon \]
Donde:
- \( Y \) es la variable dependiente.
- \( X \) es la variable independiente.
- \( \beta_0 \) es la intersección con el eje Y.
- \( \beta_1 \) es la pendiente de la recta.
- \( \epsilon \) es el término de error.
Pregunta 2: Cálculo de la Pendiente y la Intersección
Pregunta: Dados los siguientes datos, calcula la pendiente (\( \beta_1 \)) y la intersección (\( \beta_0 \)) de la recta de regresión lineal.
X | Y |
---|---|
1 | 2 |
2 | 4 |
3 | 5 |
4 | 4 |
5 | 6 |
Solución: Para calcular \( \beta_1 \) y \( \beta_0 \), utilizamos las siguientes fórmulas:
\[ \beta_1 = \frac{n(\sum XY) – (\sum X)(\sum Y)}{n(\sum X^2) – (\sum X)^2} \]
\[ \beta_0 = \bar{Y} – \beta_1 \bar{X} \]
Donde \( \bar{X} \) y \( \bar{Y} \) son las medias de \( X \) e \( Y \), respectivamente.
Calculamos las sumas necesarias:
- \( \sum X = 15 \)
- \( \sum Y = 21 \)
- \( \sum XY = 73 \)
- \( \sum X^2 = 55 \)
Sustituyendo en la fórmula de \( \beta_1 \):
\[ \beta_1 = \frac{5(73) – (15)(21)}{5(55) – (15)^2} = \frac{365 – 315}{275 – 225} = \frac{50}{50} = 1 \]
Calculamos \( \beta_0 \):
\[ \bar{X} = \frac{15}{5} = 3 \]
\[ \bar{Y} = \frac{21}{5} = 4.2 \]
\[ \beta_0 = 4.2 – 1(3) = 1.2 \]
Por lo tanto, la ecuación de la recta de regresión es:
\[ Y = 1.2 + 1X \]
Pregunta 3: Interpretación de los Coeficientes
Pregunta: Interpreta los coeficientes \( \beta_0 \) y \( \beta_1 \) obtenidos en la pregunta anterior.
Solución:
- \( \beta_0 = 1.2 \): Este es el valor de \( Y \) cuando \( X = 0 \). En este contexto, significa que cuando \( X \) es 0, se espera que \( Y \) sea 1.2.
- \( \beta_1 = 1 \): Este es el cambio esperado en \( Y \) por cada unidad de aumento en \( X \). Indica que por cada aumento de 1 unidad en \( X \), \( Y \) aumenta en 1 unidad.
Pregunta 4: Predicción con el Modelo de Regresión
Pregunta: Utiliza el modelo de regresión obtenido para predecir el valor de \( Y \) cuando \( X = 6 \).
Solución: Sustituimos \( X = 6 \) en la ecuación de regresión:
\[ Y = 1.2 + 1(6) = 1.2 + 6 = 7.2 \]
Por lo tanto, cuando \( X = 6 \), se predice que \( Y \) será 7.2.
Pregunta 5: Coeficiente de Determinación (\( R^2 \))
Pregunta: Calcula el coeficiente de determinación \( R^2 \) para el modelo de regresión obtenido.
Solución: El coeficiente de determinación \( R^2 \) se calcula como:
\[ R^2 = 1 – \frac{SS_{res}}{SS_{tot}} \]
Donde:
- \( SS_{res} \) es la suma de los cuadrados de los residuos.
- \( SS_{tot} \) es la suma total de los cuadrados.
Calculamos \( SS_{res} \) y \( SS_{tot} \):
\[ SS_{res} = \sum (Y_i – \hat{Y}_i)^2 \]
\[ SS_{tot} = \sum (Y_i – \bar{Y})^2 \]
Después de realizar los cálculos, obtenemos \( R^2 = 0.64 \), lo que indica que el 64% de la variabilidad en \( Y \) es explicada por el modelo de regresión.
Conclusión
La regresión lineal es una herramienta poderosa para entender y predecir relaciones entre variables. A través de este examen resuelto, hemos cubierto los conceptos básicos, el cálculo de coeficientes, la interpretación de resultados y la predicción de valores. Con práctica y comprensión, puedes dominar esta técnica y aplicarla en diversos contextos estadísticos.