Introducción
Las transformaciones lineales son uno de los conceptos más fundamentales en álgebra lineal, con aplicaciones que van desde la física hasta la inteligencia artificial. Estas funciones preservan las operaciones de suma y multiplicación por escalar, lo que las hace herramientas poderosas para modelar sistemas lineales. En este artículo, exploraremos ejemplos concretos, teoremas clave y aplicaciones prácticas que demuestran su utilidad en diversos campos.
Definición y Propiedades Básicas
Una transformación lineal $T: V \rightarrow W$ entre dos espacios vectoriales $V$ y $W$ sobre un campo $F$ satisface:
- $T(u + v) = T(u) + T(v)$ para todo $u, v \in V$.
- $T(\alpha u) = \alpha T(u)$ para todo $\alpha \in F$ y $u \in V$.
Ejemplo 1: Transformación de Rotación
La rotación de un vector en $\mathbb{R}^2$ por un ángulo $\theta$ es una transformación lineal. Si $T: \mathbb{R}^2 \rightarrow \mathbb{R}^2$ está definida por:
$$ T\left(\begin{bmatrix} x \\ y \end{bmatrix}\right) = \begin{bmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} $$
Esta matriz se llama matriz de rotación y preserva las propiedades de linealidad.
Teoremas Fundamentales
Teorema 1: Representación Matricial
Toda transformación lineal $T: \mathbb{R}^n \rightarrow \mathbb{R}^m$ puede representarse mediante una matriz $A$ de tamaño $m \times n$ tal que $T(x) = Ax$.
Demostración:
Sea $\{e_1, e_2, \dots, e_n\}$ la base estándar de $\mathbb{R}^n$. Definimos $A$ como la matriz cuyas columnas son $T(e_1), T(e_2), \dots, T(e_n)$. Para cualquier vector $x = \sum_{i=1}^n x_i e_i$, aplicando linealidad:
$$ T(x) = \sum_{i=1}^n x_i T(e_i) = A \begin{bmatrix} x_1 \\ \vdots \\ x_n \end{bmatrix} = Ax $$
Teorema 2: Dimensión del Núcleo e Imagen
Para una transformación lineal $T: V \rightarrow W$, se cumple que:
$$ \dim(V) = \dim(\ker(T)) + \dim(\text{Im}(T)) $$
Demostración:
Sea $\{v_1, \dots, v_k\}$ una base de $\ker(T)$. Extendemos esta base a una base $\{v_1, \dots, v_k, v_{k+1}, \dots, v_n\}$ de $V$. Mostramos que $\{T(v_{k+1}), \dots, T(v_n)\}$ es una base de $\text{Im}(T)$. La linealidad garantiza que generan la imagen, y son linealmente independientes porque cualquier combinación lineal nula implica que el vector está en $\ker(T)$.
Ejercicios Resueltos
Ejercicio 1: Verificación de Linealidad
Demuestra que $T: \mathbb{R}^2 \rightarrow \mathbb{R}^2$ dada por $T(x, y) = (2x – y, x + 3y)$ es lineal.
Solución:
Sean $u = (x_1, y_1)$ y $v = (x_2, y_2)$. Entonces:
$$ T(u + v) = T(x_1 + x_2, y_1 + y_2) = (2(x_1 + x_2) – (y_1 + y_2), (x_1 + x_2) + 3(y_1 + y_2)) $$
$$ = (2x_1 – y_1, x_1 + 3y_1) + (2x_2 – y_2, x_2 + 3y_2) = T(u) + T(v) $$
Para escalares: $T(\alpha u) = (2\alpha x_1 – \alpha y_1, \alpha x_1 + 3\alpha y_1) = \alpha T(u)$. Por lo tanto, $T$ es lineal.
Ejercicio 2: Núcleo e Imagen
Encuentra el núcleo y la imagen de $T(x, y, z) = (x + y, y – z, x + z)$.
Solución:
Núcleo: Resolvemos $T(x, y, z) = (0, 0, 0)$:
$$ x + y = 0, \quad y – z = 0, \quad x + z = 0 $$
La solución es $x = -y = -z$, por lo que $\ker(T) = \{(t, -t, t) \mid t \in \mathbb{R}\}$.
Imagen: La matriz asociada es:
$$ \begin{bmatrix} 1 & 1 & 0 \\ 0 & 1 & -1 \\ 1 & 0 & 1 \end{bmatrix} $$
Las columnas generan $\text{Im}(T)$. Como el rango es 2, la imagen es un plano en $\mathbb{R}^3$.
Aplicaciones Prácticas
1. Gráficos por Computadora: Las rotaciones, escalamientos y traslaciones (usando coordenadas homogéneas) se modelan con transformaciones lineales.
2. Procesamiento de Señales: La transformada de Fourier es un operador lineal que descompone señales en frecuencias.
3. Machine Learning: Redes neuronales aplican transformaciones lineales (pesos) seguidas de funciones no lineales (activación).
Conclusión
Las transformaciones lineales son herramientas versátiles en matemáticas y ciencias aplicadas. Desde su representación matricial hasta teoremas como el de la dimensión, proporcionan un marco teórico sólido. Los ejemplos y ejercicios ilustran su uso en problemas concretos, mientras que las aplicaciones muestran su relevancia en tecnología moderna. Dominar estos conceptos es esencial para avanzar en álgebra lineal y sus aplicaciones.
«`
