Eigendecomposition/es

    From Marovi AI
    This page is a translated version of the page Eigendecomposition and the translation is 100% complete.
    Other languages:
    Article
    Topic area linear-algebra
    Prerequisites Linear Algebra, Matrix


    Resumen

    La descomposición espectral es la factorización de una matriz cuadrada en una forma canónica expresada en términos de sus valores propios y vectores propios. Cuando una matriz $ A \in \mathbb{R}^{n \times n} $ admite la descomposición $ A = Q \Lambda Q^{-1} $, donde $ \Lambda $ es una matriz diagonal de valores propios y las columnas de $ Q $ son los vectores propios correspondientes, se dice que la matriz es diagonalizable. Esta factorización expone la geometría intrínseca de la aplicación lineal representada por $ A $: a lo largo de cada dirección de vector propio, la aplicación actúa como un simple escalado por el valor propio asociado. La descomposición espectral sustenta una amplia gama de métodos en álgebra lineal numérica, estadística, procesamiento de señales y aprendizaje automático, incluidos análisis de componentes principales, agrupamiento espectral, análisis de cadenas de Markov y el estudio de sistemas dinámicos. También es la base conceptual de factorizaciones matriciales más generales como la descomposición en valores singulares, que extiende la idea a matrices no cuadradas y no diagonalizables.

    Intuición

    Una aplicación lineal puede estirar, rotar y cizallar vectores de maneras complicadas, pero los vectores propios son las direcciones especiales a lo largo de las cuales la aplicación solo estira o comprime. Si $ A v = \lambda v $ para algún vector no nulo $ v $ y un escalar $ \lambda $, entonces $ v $ es un vector propio y $ \lambda $ es su valor propio. Geométricamente, aplicar $ A $ a $ v $ deja invariante la recta generada por $ v $; solo cambia la magnitud (y posiblemente el signo). La descomposición espectral reúne una base completa de tales direcciones invariantes, lo que convierte la acción de $ A $ en $ n $ escalados unidimensionales independientes. Por eso a menudo se describe la descomposición espectral como la búsqueda de un sistema de coordenadas en el que una aplicación lineal se vuelve "lo más simple posible", a saber, diagonal. En esa base, los cálculos como la multiplicación repetida, las potencias de matriz y las exponenciales matriciales se reducen a operaciones sobre escalares.

    Formulación matemática

    Sea $ A \in \mathbb{C}^{n \times n} $. Los valores propios de $ A $ son las raíces de su polinomio característico,

    $ {\displaystyle p_A(\lambda) = \det(A - \lambda I),} $

    que es un polinomio de grado $ n $. Por el teorema fundamental del álgebra, $ A $ tiene exactamente $ n $ valores propios sobre $ \mathbb{C} $ contando multiplicidades. Para cada valor propio $ \lambda_i $, los vectores propios asociados forman el núcleo de $ A - \lambda_i I $; este subespacio es el espacio propio de $ \lambda_i $, y su dimensión es la multiplicidad geométrica. La multiplicidad algebraica es la multiplicidad de $ \lambda_i $ como raíz de $ p_A $. Una matriz es diagonalizable si y solo si la multiplicidad algebraica de cada valor propio es igual a su multiplicidad geométrica; equivalentemente, si sus vectores propios generan $ \mathbb{C}^n $. En ese caso,

    $ {\displaystyle A = Q \Lambda Q^{-1}, \qquad \Lambda = \operatorname{diag}(\lambda_1, \ldots, \lambda_n),} $

    donde las columnas de $ Q $ son vectores propios dispuestos en el mismo orden que los valores propios en la diagonal de $ \Lambda $. Cuando $ A $ es real simétrica (o compleja hermítica), el teorema espectral garantiza que $ A $ es diagonalizable mediante una matriz ortogonal (respectivamente unitaria) y que todos los valores propios son reales, por lo que $ A = Q \Lambda Q^\top $ con $ Q^\top Q = I $.

    Cálculo

    Para matrices de tamaño pequeño, la descomposición espectral puede realizarse escribiendo el polinomio característico, hallando sus raíces y resolviendo los sistemas lineales correspondientes para los vectores propios. Este enfoque es numéricamente inestable y poco práctico para $ n $ grande, porque la búsqueda de raíces en aritmética de precisión finita amplifica los errores y los propios coeficientes del polinomio pueden estar mal condicionados. Las bibliotecas numéricas de producción utilizan en su lugar algoritmos iterativos. El algoritmo QR, introducido por Francis y Kublanovskaya en 1961, es el método dominante para matrices densas generales: factoriza repetidamente $ A_k = Q_k R_k $ y forma $ A_{k+1} = R_k Q_k $, con desplazamientos y una reducción preliminar a la forma de Hessenberg para acelerar la convergencia. Para matrices simétricas, el algoritmo QR simétrico o los métodos de divide y vencerás sobre la forma tridiagonal alcanzan complejidad $ O(n^3) $ con sólida estabilidad numérica.[1] Cuando solo se necesitan unos pocos valores propios extremos, los métodos de subespacios de Krylov, como el algoritmo de Lanczos (caso simétrico) y la iteración de Arnoldi (caso no simétrico), son mucho más eficientes, ya que solo requieren productos matriz-vector y dominan las aplicaciones a gran escala.[2]

    Aplicaciones

    La descomposición espectral aparece a lo largo de las matemáticas aplicadas. En estadística, el análisis de componentes principales realiza la descomposición espectral de una matriz de covarianza muestral para identificar las direcciones de máxima varianza, proporcionando una base para la reducción de dimensionalidad. En teoría de grafos y aprendizaje no supervisado, los métodos espectrales utilizan los vectores propios de los laplacianos de grafos para incrustar nodos con fines de agrupamiento o particionamiento. En sistemas dinámicos, los valores propios de una matriz de transición determinan el comportamiento asintótico: un sistema lineal en tiempo discreto $ x_{k+1} = A x_k $ es estable si y solo si todos los valores propios están estrictamente dentro del disco unidad en $ \mathbb{C} $. La exponencial matricial $ e^{A t} $, que resuelve EDOs lineales en tiempo continuo, tiene la forma cerrada $ Q e^{\Lambda t} Q^{-1} $ cuando $ A $ es diagonalizable, con $ e^{\Lambda t} $ diagonal. En mecánica cuántica, los valores propios de un operador hermítico son los posibles resultados de medición, y sus vectores propios forman una base ortonormal completa para el espacio de estados. En aprendizaje profundo, la descomposición espectral aparece en la optimización de segundo orden, donde la estructura espectral del hessiano caracteriza la curvatura local.

    Variantes y generalizaciones

    Varias descomposiciones extienden o especializan la descomposición espectral básica. La descomposición en valores singulares se generaliza a matrices rectangulares y siempre existe, incluso cuando la descomposición espectral falla; para una matriz real $ A $, los valores singulares son las raíces cuadradas de los valores propios de $ A^\top A $. La forma canónica de Jordan trata las matrices no diagonalizables produciendo "bloques de Jordan" diagonales por bloques en lugar de escalares puros en la diagonal; es teóricamente importante pero numéricamente frágil, porque pequeñas perturbaciones pueden cambiar la estructura de los bloques. La descomposición de Schur $ A = U T U^* $, con $ U $ unitaria y $ T $ triangular superior, siempre existe para cualquier matriz cuadrada compleja y es el caballo de batalla para el cálculo estable: conserva los valores propios en la diagonal de $ T $ evitando los problemas de condicionamiento de la diagonalización completa. Los problemas de valores propios generalizados de la forma $ A v = \lambda B v $ aparecen en el análisis de vibraciones y en estadística, y se resuelven mediante el algoritmo QZ.

    Limitaciones

    No toda matriz cuadrada es diagonalizable. Las matrices defectuosas — aquellas con menos vectores propios linealmente independientes que su dimensión — no admiten descomposición espectral; el ejemplo más simple es la matriz de cizalla $ 2 \times 2 $ con ambos valores propios iguales a uno pero solo un espacio propio unidimensional. Incluso cuando son diagonalizables, el condicionamiento del problema de valores propios depende de la estructura de la matriz: las matrices casi defectuosas tienen matrices de vectores propios $ Q $ con números de condición muy grandes, lo que hace que $ Q^{-1} $ sea numéricamente peligroso. Las matrices no normales (aquellas que no conmutan con su traspuesta conjugada) pueden tener valores propios extremadamente sensibles a las perturbaciones, por lo que la descomposición espectral debe usarse con cautela en análisis de estabilidad o sensibilidad sobre tales matrices; el pseudoespectro suele ser una herramienta más informativa. Para matrices dispersas muy grandes, calcular la descomposición espectral completa es generalmente inviable, y se prefieren los métodos iterativos o aleatorizados.

    Comparaciones

    La descomposición espectral y la descomposición en valores singulares están estrechamente relacionadas pero son distintas. La SVD se aplica a cualquier matriz y siempre produce factores ortonormales, lo que la hace numéricamente robusta y la elección por defecto para aplicaciones prácticas como la aproximación de rango bajo, el cálculo de la pseudoinversa y el PCA. La descomposición espectral solo se aplica a matrices cuadradas y puede no existir, pero conserva información direccional sobre la aplicación lineal subyacente que la SVD no preserva: la SVD siempre devuelve valores singulares no negativos, mientras que los valores propios pueden ser negativos o complejos, codificando rotación, reflexión y crecimiento. La descomposición de Schur es un primo numéricamente más estable de la descomposición espectral, preferido siempre que no se requiera estrictamente la diagonalización completa. Por lo tanto, la elección entre estas factorizaciones se guía por si la aplicación necesita valores propios, valores singulares o simplemente una reducción triangular.

    Referencias

    1. Golub, G. H., and Van Loan, C. F., Matrix Computations, 4th ed., Johns Hopkins University Press, 2013.
    2. Saad, Y., Numerical Methods for Large Eigenvalue Problems, 2nd ed., SIAM, 2011.