Álgebra Lineal Numérica: Técnicas Computacionales


«`html





Álgebra Lineal Numérica: Técnicas Computacionales

Introducción

El álgebra lineal numérica es una rama fundamental de las matemáticas aplicadas que combina teoría y computación para resolver problemas en ingeniería, física, ciencia de datos y más. Con el auge de la computación de alto rendimiento, técnicas como la factorización de matrices, el cálculo de valores propios y la resolución de sistemas lineales se han vuelto esenciales. En este artículo, exploraremos métodos numéricos clave, demostraremos teoremas fundamentales y resolveremos ejercicios prácticos.

Factorización LU

La factorización LU descompone una matriz $A$ en el producto de una matriz triangular inferior $L$ y una superior $U$:

$$ A = LU $$

Ejemplo 1: Factorización LU

Dada la matriz:

$$ A = \begin{bmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{bmatrix} $$

Su factorización LU es:

$$ L = \begin{bmatrix} 1 & 0 & 0 \\ -0.5 & 1 & 0 \\ 0 & -0.666 & 1 \end{bmatrix}, \quad U = \begin{bmatrix} 2 & -1 & 0 \\ 0 & 1.5 & -1 \\ 0 & 0 & 1.333 \end{bmatrix} $$

Métodos Iterativos para Sistemas Lineales

Métodos como Jacobi y Gauss-Seidel son útiles para matrices grandes y dispersas:

$$ x^{(k+1)} = D^{-1}(b – (L + U)x^{(k)}) \quad \text{(Jacobi)} $$

Ejercicio 1: Método de Jacobi

Resolver el sistema $Ax = b$ con $A = \begin{bmatrix} 4 & 1 \\ 1 & 3 \end{bmatrix}$ y $b = \begin{bmatrix} 1 \\ 2 \end{bmatrix}$.

Solución:

1. Descomponer $A = D + R$ donde $D = \begin{bmatrix} 4 & 0 \\ 0 & 3 \end{bmatrix}$.

2. Iterar $x^{(k+1)} = D^{-1}(b – Rx^{(k)})$ hasta convergencia.

3. Solución aproximada: $x \approx \begin{bmatrix} 0.0909 \\ 0.6364 \end{bmatrix}$.

Valores y Vectores Propios

El cálculo de valores propios es crucial en dinámica de sistemas y PCA. El método de la potencia estima el valor propio dominante:

$$ \lambda_{\text{max}} \approx \frac{v^T A v}{v^T v} $$

Teorema 1: Convergencia del Método de la Potencia

Enunciado: Si $A$ tiene un valor propio dominante $\lambda_1$ con multiplicidad 1, entonces el método de la potencia converge a $\lambda_1$.

Demostración: Sea $v_0 = \sum c_i v_i$ la descomposición en vectores propios. Tras $k$ iteraciones:

$$ A^k v_0 = \lambda_1^k \left(c_1 v_1 + \sum_{i>1} c_i (\lambda_i/\lambda_1)^k v_i \right) \to c_1 \lambda_1^k v_1 $$

Descomposición QR

La factorización QR descompone $A$ en una matriz ortogonal $Q$ y una triangular superior $R$:

$$ A = QR $$

Ejemplo 2: Algoritmo de Gram-Schmidt

Para $A = \begin{bmatrix} 1 & 1 \\ 1 & 0 \end{bmatrix}$:

1. $q_1 = a_1 / \|a_1\| = \begin{bmatrix} 1/\sqrt{2} \\ 1/\sqrt{2} \end{bmatrix}$

2. $q_2 = a_2 – (q_1^T a_2)q_1$, normalizado.

Resultado:

$$ Q = \begin{bmatrix} 0.707 & -0.707 \\ 0.707 & 0.707 \end{bmatrix}, \quad R = \begin{bmatrix} 1.414 & 0.707 \\ 0 & 0.707 \end{bmatrix} $$

Teoremas Clave

Teorema 2: Desigualdad de Courant-Fischer

Enunciado: Para una matriz simétrica $A$, los valores propios $\lambda_i$ satisfacen:

$$ \lambda_k = \min_{\dim(S)=k} \max_{x \in S, \|x\|=1} x^T A x $$

Demostración: Usando el teorema del min-max y propiedades de subespacios invariantes.

Teorema 3: Estabilidad de la Factorización LU

Enunciado: Si $A$ es estrictamente diagonal dominante, la factorización LU es estable sin pivoteo.

Demostración: La dominancia diagonal garantiza $|l_{ij}| \leq 1$ y evita crecimiento exponencial de errores.

Ejercicios Resueltos

Ejercicio 2: Solución por Cholesky

Resolver $A x = b$ con $A = \begin{bmatrix} 4 & 2 \\ 2 & 5 \end{bmatrix}$, $b = \begin{bmatrix} 6 \\ 3 \end{bmatrix}$.

Solución:

1. Factorizar $A = LL^T$ obteniendo $L = \begin{bmatrix} 2 & 0 \\ 1 & 2 \end{bmatrix}$.

2. Resolver $Ly = b$: $y = \begin{bmatrix} 3 \\ 0 \end{bmatrix}$.

3. Resolver $L^T x = y$: $x = \begin{bmatrix} 1.5 \\ 0 \end{bmatrix}$.

Ejercicio 3: Método de Gauss-Seidel

Iterar dos pasos para $A = \begin{bmatrix} 3 & 1 \\ 1 & 2 \end{bmatrix}$, $b = \begin{bmatrix} 5 \\ 5 \end{bmatrix}$, $x^{(0)} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}$.

Solución:

1. Primera iteración: $x_1 = (5 – 1 \cdot 0)/3 = 1.666$, $x_2 = (5 – 1 \cdot 1.666)/2 = 1.666$.

2. Segunda iteración: $x_1 = (5 – 1 \cdot 1.666)/3 = 1.111$, $x_2 = 1.944$.

Aplicaciones Prácticas

  • Gráficos 3D: Rotaciones y escalamientos usan multiplicación de matrices.
  • Machine Learning: PCA se basa en descomposición espectral.
  • Mecánica de Fluidos: Sistemas lineales discretizan ecuaciones diferenciales.

Conclusión

El álgebra lineal numérica proporciona herramientas computacionales esenciales para resolver problemas complejos. Desde factorizaciones matriciales hasta métodos iterativos, estas técnicas son la base de simulaciones científicas y análisis de datos. Dominar tanto la teoría como la implementación es clave para aplicaciones modernas.



«`

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *