Descomposición de matrices
En álxebra linear, unha descomposición de matrices ou factorización de matrices é unha factorización dunha matriz nun produto de matrices. Hai tipos diferentes de descomposicións de matriz, e cada un atopa o seu uso nunha clase particular de problemas.
Exemplo
[editar | editar a fonte]En análise numérica, algunhas descomposicións empréganse para desenvolver algoritmos de matrices eficiente.
Por exemplo, ao solucionar un sistema de ecuacións lineais , a matriz pode ser descomposta mediante da descomposición LU. A descomposición LU factoriza unha matriz nunha matriz triangular inferior e unha matriz triangular superior [1]. Deste xeito, de quixermos resolver os sistemas e , precisaremos facer menos sumas e multiplicacións que ao resolver o sistema orixinal , malia que pode precisar máis cifras significativas nunha aritmética inexacta, como a de coma flotante.
De xeito semellante, a descomposición QR expresa como o produto , onde é unha matriz ortogonal e unha matriz triangular superior[2]. O sistema é solucionado por , e o sistema é solucionado por substitución cara atrás. O número de sumas e multiplicacións que son requiridas é ao redor do dobre que as de utilizar a descomposición LU, mais non precisa máis cifras significativas ao ser a descomposición QR numericamente estable.
Descomposicións relacionadas con solucionar sistemas de ecuacións lineais
[editar | editar a fonte]Descomposición LU
[editar | editar a fonte]- Aplicábel a: matriz cadrada .
- Descomposición: , onde é triangular inferior e é triangular superior.
- Relacionado: a descomposición LDU é da forma , onde é triangular inferior con uns na diagonal, é triangular superior con uns na diagonal, e é unha matriz diagonal.
- Relacionado: a descomposición LUP é da forma , onde é triangular inferior, é triangular superior, e é un matriz de permutación.
- Existencia: para calquera matriz cadrada sempre existe unha descomposición . Cando é a matriz identidade, a descomposición LUP redúcese á descomposición LU. Se existe a descomposición , entón tamén existe a descomposición LDU.[3]
- Comentarios: as descomposicións LUP e LU son útiles para solucionar un sistema de ecuacións lineais n×n (con n ecuacións e n incógnitas). Estas descomposicións resumen o algoritmo de eliminación de Gauss en forma matricial, onde a matriz representa calquera intercambio de filas que se levara. No caso de que o algoritmo rematase nunha forma de escada por filas sen ter precisado ningún intercambio de filas, entón , e logo existe a descomposición LU.
Factorización de rango
[editar | editar a fonte]- Aplicábel a: matriz m×n de rango r
- Descomposición: , onde é unha matriz mxn de rango por columnas máximo e é unha matriz r×n de rango por filas máximo.
- Unicidade: non é unha descomposición única, porque se é unha posíbel factorización, se escollemos e , estas novas matrices forman outra factorización factíbel para calquera matriz de dimensións compatíbeis.
- Comentario: a factorización de rango adóitase usar para computar a matriz pseudoinversa de Moore–Penrose de ,[4] que permite obter todas as solucións do sistema linear .
- Aplicábel a: matrices cadradas, hermíticas, definidas positivas.
- Descomposición: onde é triangular superior cuxa diagonal principal está formada por reais positivos.
- Comentario: se a matriz é hermítica e semidefinida positiva, entón ten unha descomposición da forma se a diagonal de pode ter elementos nulos
- Unicidade: para matrices definitivas positivas, a descomposición de Cholesky é única. Con todo, no caso de semidefinida positiva non é única.
- Comentario: no caso particular de que é unha matriz real simétrica, a descomposición é e é un caso particular da descomposición LU, onde .
- Comentario: unha alternativa é a descomposición LDL, que pode evitar a obtención de raíces cadradas.
Descomposición QR
[editar | editar a fonte]- Aplicábel a: matrices m×n
- Descomposición: onde é unha matriz unitaria (ortogonal se é unha matriz real) de orde m×m, e é unha matriz triangular superior m×n.
- Unicidade: En xeral non é única, mais se té rango máximo, entón existe unha única con todos os elementos da diagonal positivos. Se é cadrada, tamén é única.
- Comentario: A descomposición QR é un xeito alternativo para solucionar o sistema de ecuacións sen inverter a matriz . O feito de que ao ser unha matriz unitaria, fai que sexa equivalente a , que é máis doado de resolver ao ser triangular.
As descomposicións baseadas en autovalores e conceptos relacionados
[editar | editar a fonte]Descomposición en autovalores
[editar | editar a fonte]- Tamén chamada descomposición espectral.
- Aplicábel a: matriz cadrada con autovalores linearmente independentes (non necesariamente distintos).
- Descomposición: , onde é unha matriz diagonal formada polos autovalores de , e as columnas de é son os correspondentes autovectores de .
- Existencia: Unha matriz de orde n×n sempre ten n autovalores (reais ou complexos), que se poden ordenar (de máis dunha maneira) para formar unha matriz diagonal n×n e a súa correspondente matriz de vectores non nulos en columnas que satisfai a ecuación dos autovalores . será invertíbel se e soamente se os autovalores son linearmente independentes (é dicir, cada autovalor ten a multiplicidade xeométrica igual á súa multiplicidade alxebraica). Unha suficiente condición (mais non necesaria) para que sucedese é que todos os autovalores fosen diferentes, e neste caso as multiplicidades xeométricas e alxébricas serían iguais a 1.
- Comentario: sempre pode normalizar o autovectores para teñan módulo 1.
- Comentario: Cada matriz normal (matriz tal que , onde e unha matriz conxugada) pode ser descomposta en autovalores. Para a matriz normal (e só para unha matriz normal), os autovectores tamén se poden facer ortonormais () e a descomposición en autovalores leríase como . En particular, toda matriz unitaria, hermítica ou antihermítica (no caso real, toda matriz ortogonal, simétrica ou antisimétrica, respectivamente) é normal e polo tanto posúen a propiedade.
- Comentario: Para calquera matriz real simétrica , descomposición en autovalores se pode escrita como , onde ámbalas dúas matrices e son matrices reais.
- Comentario: A descomposición en autovalores é útil para entender a solución dun sistema de ecuacións diferenciais ordinarias ou ecuacións lineares en diferenzas. Por exemplo, a ecuación diferencial con condición inicial pódese resolver por , o que é equivalente a , onde e son as matrices formadas desde os autovalores e autovectores de . Xa que é diagonal, para elevala á potencia chega con elevar cada elemento da diagonal. Isto é moito máis fácil de facer e entender que elevar a unha potencia , xa que en xeral non é diagonal.
Descomposición de Jordan
[editar | editar a fonte]Forma canónica de Jordan e descomposición Jordan–Chevalley
- Aplicábel a: matriz cadrada
- Comentario: a forma canónica de Jordan xeneraliza a descomposición en autovalores nos caso onde hai autovalores repetido e a matriz non diagonaliza. A descomposición Jordan–Chevalley faino sen ter que escoller unha base.
Descomposición de Schur
[editar | editar a fonte]- Aplicábel a: matriz cadrada
- Comentario: hai a descomposición de Schur real e a complexa, coa diferenza de que unha matriz complexa sempre ten unha descomposición complexa, mais unha matriz real pode tela ou non. Unha matriz real só ten unha descomposición de Schur se soamente se todos os seus autovalores son reais.
- Descomposición (versión complexa): , onde é unha matriz unitaria, é a súa trasposta conxugada e é unha matriz triangular superior, chamada forma complexa de Schur que ten os autovalores de ao longo da diagonal. Se é unha matriz normal, entón é diagonal e a descomposición de Schur coincide coa descomposición en autovalores.
- Descomposición (versió real): , onde é unha matriz real ortogonal, é a trasposta de V, e é unha matriz real triangular superior por bloques nomeada forma Schur real. Os bloques da diagonal de son de tamaño 1×1 (no caso de representaren autovalores reais) ou 2×2 (no caso de seren derivados desde pares de autovalores complexos conxugados).
Descomposición QZ
[editar | editar a fonte]- Tamén chamou: descomposición de Schur xeneralizada
- Aplicábel a: matrices cadradas e
- Comentario: hai dúas versións desta descomposición: complexa e real.
- Descomposición (versión complexa): e onde e son matrices unitarias, e o superíndice * representa que a trasposta conxugada, e e son matrices triangulares superiores.
- Comentario: na descomposición QZ complexa, os cocientes dos elementos da diagonal de entre os elementos correspondentes da diagonal de , , son os autovalores xeneralizados que solucionan o problema dos autovalores xeneralizados (onde é un escalar descoñecido e é un vector non nulo descoñecido).
- Descomposición (versión real): e , onde , , , , , e son matrices de só entradas reais. Neste caso e son matrices ortogonais, o superíndice representa a transposición, e e son matrices triangulares superiores de bloques. Os bloques da diagonal de e son de tamaño 1×1 ou 2×2.
Factorización de Takagi
[editar | editar a fonte]- Aplicábel a: matriz cadrada, complexa, simétrica.
- Descomposición: , onde é unha matriz real diagonal non negativa, é unha matriz unitaria e denota a matriz trasposta de .
- Comentario: Os elementos de diagonal de son as raíces non negativas dos autovalores de .
- Comentario: pode ser complexo malia que sexa real.
- Comenario: Isto non é un caso especial da descomposición en autovalores (ver arriba), que emprega no canto de .
Descomposición de valores singulares
[editar | editar a fonte]- Aplicábel a: matriz m×n.
- Descomposición: , onde é un e matriz diagonal non negativa, e e satisfán e . é a conxugada trasposta de (ou sinxelamente a trasposta no caso de conter só números reais), e denota a matriz identidade (dalgunha dimensión).
- Comentario: Aos elementos da diagonal de chamaranse valores singulares de .
- Comentario: Como na descomposición en autovalores, a descomposición de valor singular implica atopar direccións base ao longo das cales a multiplicación matricial é equivalentes a multiplicación escalar, mais é un resultado máis xeral porque a matriz inicial non necesita ser cadrada.
- Comentario: esta descomposición tamén é coñecida como SVD (en inglés "singular value decomposition").
- Unicidade: os valores singulares de determínanse sempre de maneira única, mais e non son únicas en xeral.
Outras descomposicións
[editar | editar a fonte]Descomposición polar
[editar | editar a fonte]- Aplicable a: matriz complexa cadrada .
- Descomposición: (descomposición polar dereita) ou (descomposición polar esquerda), onde é unha matriz unitaria e e son matrices hermíticas semidefinidas positivas.
- Unicidade: é sempre única e igual a (que sempre é hermítica e semidefinida positiva). Se é invertíbel, entón é única.
- Comentario: Como calquera matriz hermítica admite unha descomposición espectral cunha matriz unitaria, pódese escribir como . Como é semidefinida positiva, todos os elementos en son non negativos. Xa que o produto de dúas matrices unitarias é unitario, tendo , pódese escribir que é a descomposición do valor singular. Así, a existencia da descomposición polar vén dada pola existencia da descomposición do valor singular.
Descomposición alxébrica polar
[editar | editar a fonte]- Aplicábel a: matriz cadrada, complexa, non singular A.[5]
- Descomposición: , onde é unha matriz ortogonal complexa e é matriz simétrica complexa.
- Unicidade: Se non ten autovalores reais negativos, entón a descomposición é única.[6]
- Comentario: A existencia desta descomposición é equivalente a sendo similar a .[7]
- Comentario: Unha variante desta descomposición é , onde é unha matriz real e é unha matriz circular.[6]
Descomposición de Mostow
[editar | editar a fonte]- Aplicábel a: matriz cadrada, complexa, non singular .[8][9]
- Descomposición: , onde é unha matriz unitaria, é real antisimétrica e é real simétrica.
- Comentario: A matriz tamén se pode descompoñer como , onde é unitario, é real antisimétrica e é real simétrica.[6]
Forma normal de Sinkhorn
[editar | editar a fonte]- Aplicábel a: matriz real cadrada A con elementos estritamente positivos.
- Descomposición: , onde é dobremente estocástica (que os seus elementos son non negativos e que a suma dos elementos das filas e a suma dos elementos das columnas son iguais a 1) e e son matrices diagonais reais con elementos estritamente positivos.
Descomposición sectorial[10]
[editar | editar a fonte]- Aplicábel a: matriz cadrada, complexa co rango numérico contido no sector
- Descomposición: , onde C é unha matriz complexa invertíbel e para todo .[10][11]
Forma normal de Williamson [12]
[editar | editar a fonte]- Aplicábel a: matriz cadrada, definida positiva, real 2nx2n.
- Descomposición: , onde é unha matriz simétrica e é unha matriz diagonal non negativa.
Notas
[editar | editar a fonte]- ↑ A notación de matrices e para falar de matrices triangulares inferiores e superiores provén dos termos ingleses lower e upper, "inferior" e "superior" respectivamente, e que fan referencia á localización dos elementos da matriz que no son cero: por debaixo da diagonal principal no caso das inferiores, por riba no caso das superiores.
- ↑ A notación de provén do termos ingleses right, "dereita", e que fai referencia á localización dos elementos da matriz que no son cero: a dereita da diagonal principal.
- ↑ Simon & Blume 1994 Chapter 7.
- ↑ Piziak, R.; Odell, P. L. (1 de xuño de 1999). "Full Rank Factorization of Matrices". Mathematics Magazine 72 (3): 193. JSTOR 2690882. doi:10.2307/2690882.
- ↑ Choudhury & Horn 1987
- ↑ 6,0 6,1 6,2 Bhatia, Rajendra (2013-11-15). "The bipolar decomposition". Linear Algebra and its Applications 439 (10): 3031–3037. doi:10.1016/j.laa.2013.09.006.
- ↑ Horn & merino 1995
- ↑ Mostow, G. D. (1955). Some new decomposition theorems for semi-simple groups. Mem. Amer. Math. Soc. 14. American Mathematical Society. pp. 31–54.
- ↑ Nielsen, Frank; Bhatia, Rajendra (2012). Matrix Information Geometry (en inglés). Springer. p. 224. ISBN 9783642302329. arXiv:1007.4402. doi:10.1007/978-3-642-30232-9.
- ↑ 10,0 10,1 Zhang, Fuzhen (30 de xuño de 2014). "A matrix decomposition and its applications". Linear and Multilinear Algebra 63 (10): 2033–2042. doi:10.1080/03081087.2014.933219.
- ↑ Drury, S.W. (Novembro de 2013). "Fischer determinantal inequalities and Highamʼs Conjecture". Linear Algebra and its Applications 439 (10): 3129–3133. doi:10.1016/j.laa.2013.08.031.
- ↑ Idel, Martin; Soto Gaona, Sebastián; Wolf, Michael M. (2017-07-15). "Perturbation bounds for Williamson's symplectic normal form". Linear Algebra and its Applications 525: 45–58. arXiv:1609.01338. doi:10.1016/j.laa.2017.03.013.
Véxase tamén
[editar | editar a fonte]Bibliografía
[editar | editar a fonte]- Choudhury, Dipa; Horn, Roger A. (Abril 1987). "A Complex Orthogonal-Symmetric Analog of the Polar Decomposition". SIAM revista on Algebraic and Discrete Methods 8 (2): 219–225. doi:10.1137/0608019.
- Fredholm, I. (1903). "Sur une classe d'´equations fonctionnelles". Acta Mathematica (en francés) 27: 365–390. doi:10.1007/bf02421317.
- Hilbert, D. (1904). "Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen". Nachr. Königl. Ges. Gött (en alemán) 1904: 49–91.
- Horn, Roger A.; Merino, Dennis I. (Xaneiro 1995). "Contragredient equivalence: A canonical form and some applications". Linear Algebra and its Applications 214: 43–92. doi:10.1016/0024-3795(93)00056-6.
- Meyer, C. D. (2000). Matrix Analysis and Applied Linear Algebra. Society for Industrial and Applied Mathematics. ISBN 978-0-89871-454-8.
- Schmidt, E. (1907). Zur Theorie der linearen und nichtlinearen Integralgleichungen. I Teil. Entwicklung willkürlichen Funktionen nach System vorgeschriebener. Mathematische Annalen (en alemán) 63. pp. 433–476. doi:10.1007/bf01449770.
- Simon, C.; Blume, L. (1994). Mathematics for Economists. Norton. ISBN 978-0-393-95733-4.
- Stewart, G. W. (2011). "Fredholm, Hilbert, Schmidt: three fundamental papers on integral equations" (PDF). Consultado o 20 de marzo de 2019.
- Townsend, A.; Trefethen, L. N. (2015). "Continuous analogues of matrix factorizations". Proceedings of the Royal Society 471: 20140585. Bibcode:2014RSPSA.47140585T. PMC 4277194. PMID 25568618. doi:10.1098/rspa.2014.0585.