Introducción
Las ciencias sociales buscan entender el comportamiento humano y las dinámicas sociales a través de datos observables. Sin embargo, a diferencia de las ciencias naturales, los fenómenos sociales son complejos y multifactoriales. Aquí es donde los métodos de inferencia juegan un papel crucial, permitiendo extraer conclusiones válidas a partir de muestras limitadas. En este artículo exploraremos técnicas fundamentales como la regresión lineal, el teorema de Bayes y los contrastes de hipótesis, ilustrando su aplicación con ejemplos prácticos.
1. Regresión Lineal en Estudios Sociales
La regresión lineal es una herramienta poderosa para modelar relaciones entre variables. Por ejemplo, supongamos que queremos estudiar cómo los años de educación ($X$) afectan el ingreso mensual ($Y$). El modelo se expresa como:
$$Y = \beta_0 + \beta_1 X + \epsilon$$
Donde $\beta_0$ es el intercepto, $\beta_1$ la pendiente y $\epsilon$ el error aleatorio.
Un estudio podría encontrar que $\beta_1 = 150$, indicando que cada año adicional de educación aumenta el ingreso en $150 mensuales en promedio.
2. Teorema de Bayes para Actualizar Creencias
En ciencias sociales, el teorema de Bayes permite actualizar probabilidades ante nueva evidencia. Por ejemplo, en psicología:
Teorema 1: Teorema de Bayes
Para dos eventos $A$ y $B$ con $P(B) > 0$:
$$P(A|B) = \frac{P(B|A)P(A)}{P(B)}$$
Demostración: Por definición de probabilidad condicional, $P(A|B) = \frac{P(A \cap B)}{P(B)}$. Análogamente, $P(B|A) = \frac{P(A \cap B)}{P(A)}$. Despejando $P(A \cap B)$ y sustituyendo se obtiene el resultado.
Si una prueba diagnóstica para depresión tiene 90% de precisión (sensibilidad) y la prevalencia es 5%, la probabilidad posterior de depresión dado un resultado positivo es solo ~32%.
3. Contraste de Hipótesis
Para evaluar afirmaciones como «el programa social redujo la pobreza», usamos contrastes. El estadístico t para una media es:
$$t = \frac{\bar{X} – \mu_0}{s/\sqrt{n}}$$
Donde $\bar{X}$ es la media muestral, $\mu_0$ el valor hipotético, $s$ la desviación estándar y $n$ el tamaño muestral.
4. Inferencia Causal con Modelos Estructurales
Teorema 2: Identificación Causal
Bajo los supuestos de independencia condicional y consistencia, el efecto causal promedio (ATE) es identificable como:
$$ATE = E[Y|T=1] – E[Y|T=0]$$
Demostración: Se sigue directamente del supuesto de asignación aleatoria condicional que implica $Y(1), Y(0) \perp T|X$.
En un experimento controlado aleatorio, el ATE estima correctamente el impacto causal.
5. Ejercicios Resueltos
Ejercicio 1: Regresión Lineal
Dados los pares $(X,Y)$: (2,5), (4,9), (6,13), estima $\beta_0$ y $\beta_1$.
Solución:
1. Calculamos medias: $\bar{X}=4$, $\bar{Y}=9$
2. $\beta_1 = \frac{\sum(X_i-\bar{X})(Y_i-\bar{Y})}{\sum(X_i-\bar{X})^2} = \frac{16}{8} = 2$
3. $\beta_0 = \bar{Y} – \beta_1\bar{X} = 9 – 2*4 = 1$
La recta es $Y = 1 + 2X$.
Ejercicio 2: Teorema de Bayes
Si el 1% de una población tiene una enfermedad y una prueba tiene 95% de sensibilidad y 90% de especificidad, ¿cuál es la probabilidad de estar enfermo dado un positivo?
Solución:
Usando el teorema 1:
$P(Enfermo|+) = \frac{0.95*0.01}{0.95*0.01 + 0.10*0.99} \approx 8.76\%$
6. Aplicaciones Prácticas
Estos métodos se aplican en:
- Políticas públicas: Evaluación de impacto de programas sociales usando inferencia causal.
- Marketing: Segmentación de clientes mediante modelos predictivos.
- Psicología: Identificación de factores de riesgo usando regresión logística.
Teorema 3: Ley de los Grandes Números
Para variables i.i.d. $X_1,…,X_n$ con media $\mu$:
$$\lim_{n\to\infty} P(|\bar{X}_n – \mu| \geq \epsilon) = 0$$
Demostración: Por la desigualdad de Chebyshev, $P(|\bar{X}_n-\mu| \geq \epsilon) \leq \frac{Var(\bar{X}_n)}{\epsilon^2} = \frac{\sigma^2}{n\epsilon^2} \to 0$ cuando $n\to\infty$.
Conclusión
Los métodos de inferencia proporcionan herramientas rigurosas para extraer conocimiento de datos sociales. Desde la regresión lineal hasta los modelos causales, cada técnica aborda desafíos específicos en la investigación social. Los ejercicios ilustran su aplicación concreta, mientras que los teoremas fundamentan su validez matemática. Al dominar estos métodos, los investigadores pueden tomar decisiones basadas en evidencia sólida.
En resumen:
- La regresión modela relaciones entre variables.
- El teorema de Bayes actualiza probabilidades.
- Los contrastes validan hipótesis.
- Los modelos causales identifican efectos.
«`
