Introducción
El álgebra lineal numérica es una rama fundamental de las matemáticas aplicadas que combina teoría y computación para resolver problemas en ingeniería, física, ciencia de datos y más. Con el auge de la computación de alto rendimiento, técnicas como la factorización de matrices, el cálculo de valores propios y la resolución de sistemas lineales se han vuelto esenciales. En este artículo, exploraremos métodos numéricos clave, demostraremos teoremas fundamentales y resolveremos ejercicios prácticos.
Factorización LU
La factorización LU descompone una matriz $A$ en el producto de una matriz triangular inferior $L$ y una superior $U$:
$$ A = LU $$
Ejemplo 1: Factorización LU
Dada la matriz:
$$ A = \begin{bmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{bmatrix} $$
Su factorización LU es:
$$ L = \begin{bmatrix} 1 & 0 & 0 \\ -0.5 & 1 & 0 \\ 0 & -0.666 & 1 \end{bmatrix}, \quad U = \begin{bmatrix} 2 & -1 & 0 \\ 0 & 1.5 & -1 \\ 0 & 0 & 1.333 \end{bmatrix} $$
Métodos Iterativos para Sistemas Lineales
Métodos como Jacobi y Gauss-Seidel son útiles para matrices grandes y dispersas:
$$ x^{(k+1)} = D^{-1}(b – (L + U)x^{(k)}) \quad \text{(Jacobi)} $$
Ejercicio 1: Método de Jacobi
Resolver el sistema $Ax = b$ con $A = \begin{bmatrix} 4 & 1 \\ 1 & 3 \end{bmatrix}$ y $b = \begin{bmatrix} 1 \\ 2 \end{bmatrix}$.
Solución:
1. Descomponer $A = D + R$ donde $D = \begin{bmatrix} 4 & 0 \\ 0 & 3 \end{bmatrix}$.
2. Iterar $x^{(k+1)} = D^{-1}(b – Rx^{(k)})$ hasta convergencia.
3. Solución aproximada: $x \approx \begin{bmatrix} 0.0909 \\ 0.6364 \end{bmatrix}$.
Valores y Vectores Propios
El cálculo de valores propios es crucial en dinámica de sistemas y PCA. El método de la potencia estima el valor propio dominante:
$$ \lambda_{\text{max}} \approx \frac{v^T A v}{v^T v} $$
Teorema 1: Convergencia del Método de la Potencia
Enunciado: Si $A$ tiene un valor propio dominante $\lambda_1$ con multiplicidad 1, entonces el método de la potencia converge a $\lambda_1$.
Demostración: Sea $v_0 = \sum c_i v_i$ la descomposición en vectores propios. Tras $k$ iteraciones:
$$ A^k v_0 = \lambda_1^k \left(c_1 v_1 + \sum_{i>1} c_i (\lambda_i/\lambda_1)^k v_i \right) \to c_1 \lambda_1^k v_1 $$
Descomposición QR
La factorización QR descompone $A$ en una matriz ortogonal $Q$ y una triangular superior $R$:
$$ A = QR $$
Ejemplo 2: Algoritmo de Gram-Schmidt
Para $A = \begin{bmatrix} 1 & 1 \\ 1 & 0 \end{bmatrix}$:
1. $q_1 = a_1 / \|a_1\| = \begin{bmatrix} 1/\sqrt{2} \\ 1/\sqrt{2} \end{bmatrix}$
2. $q_2 = a_2 – (q_1^T a_2)q_1$, normalizado.
Resultado:
$$ Q = \begin{bmatrix} 0.707 & -0.707 \\ 0.707 & 0.707 \end{bmatrix}, \quad R = \begin{bmatrix} 1.414 & 0.707 \\ 0 & 0.707 \end{bmatrix} $$
Teoremas Clave
Teorema 2: Desigualdad de Courant-Fischer
Enunciado: Para una matriz simétrica $A$, los valores propios $\lambda_i$ satisfacen:
$$ \lambda_k = \min_{\dim(S)=k} \max_{x \in S, \|x\|=1} x^T A x $$
Demostración: Usando el teorema del min-max y propiedades de subespacios invariantes.
Teorema 3: Estabilidad de la Factorización LU
Enunciado: Si $A$ es estrictamente diagonal dominante, la factorización LU es estable sin pivoteo.
Demostración: La dominancia diagonal garantiza $|l_{ij}| \leq 1$ y evita crecimiento exponencial de errores.
Ejercicios Resueltos
Ejercicio 2: Solución por Cholesky
Resolver $A x = b$ con $A = \begin{bmatrix} 4 & 2 \\ 2 & 5 \end{bmatrix}$, $b = \begin{bmatrix} 6 \\ 3 \end{bmatrix}$.
Solución:
1. Factorizar $A = LL^T$ obteniendo $L = \begin{bmatrix} 2 & 0 \\ 1 & 2 \end{bmatrix}$.
2. Resolver $Ly = b$: $y = \begin{bmatrix} 3 \\ 0 \end{bmatrix}$.
3. Resolver $L^T x = y$: $x = \begin{bmatrix} 1.5 \\ 0 \end{bmatrix}$.
Ejercicio 3: Método de Gauss-Seidel
Iterar dos pasos para $A = \begin{bmatrix} 3 & 1 \\ 1 & 2 \end{bmatrix}$, $b = \begin{bmatrix} 5 \\ 5 \end{bmatrix}$, $x^{(0)} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}$.
Solución:
1. Primera iteración: $x_1 = (5 – 1 \cdot 0)/3 = 1.666$, $x_2 = (5 – 1 \cdot 1.666)/2 = 1.666$.
2. Segunda iteración: $x_1 = (5 – 1 \cdot 1.666)/3 = 1.111$, $x_2 = 1.944$.
Aplicaciones Prácticas
- Gráficos 3D: Rotaciones y escalamientos usan multiplicación de matrices.
- Machine Learning: PCA se basa en descomposición espectral.
- Mecánica de Fluidos: Sistemas lineales discretizan ecuaciones diferenciales.
Conclusión
El álgebra lineal numérica proporciona herramientas computacionales esenciales para resolver problemas complejos. Desde factorizaciones matriciales hasta métodos iterativos, estas técnicas son la base de simulaciones científicas y análisis de datos. Dominar tanto la teoría como la implementación es clave para aplicaciones modernas.
«`
