Saltar ao contido

Matriz ortogonal

Na Galipedia, a Wikipedia en galego.
(Redirección desde «Matriz ortonormal»)

En álxebra linear, unha matriz ortogonal, ou matriz ortonormal, é unha matriz cadrada de coeficientes reais cuxas columnas e filas son vectores ortonormais.

Unha forma de expresalo é

onde QT é a transposta de Q e I é a matriz identidade.

Isto leva á caracterización equivalente: unha matriz Q é ortogonal se a súa transposición é igual á súa inversa:

onde Q−1 é a inversa de Q.

Unha matriz ortogonal Q é necesariamente invertíbel (con inverso Q−1 = QT), unitaria (Q−1 = Q), onde Q é a adxunta hermitiana (conxugada transposta) de Q e, polo tanto, normal (QQ = QQ) nos números reais. O determinante de calquera matriz ortogonal é +1 ou −1. Como transformación linear, unha matriz ortogonal conserva o produto interno dos vectores e, polo tanto, actúa como unha isometría do espazo euclidiano, como unha rotación ou unha reflexión Noutras palabras, é unha transformación unitaria.

O conxunto das matrices ortogonais n × n, baixo multiplicación, forma o grupo O(n), coñecido como grupo ortogonal. O subgrupo SO(n) que consta das matrices ortogonais co determinante +1 chámase grupo ortogonal especial. Como transformación linear, cada matriz ortogonal especial actúa como unha rotación.

Descrición xeral

[editar | editar a fonte]
Comprensión visual da multiplicación pola transposta dunha matriz. Se A é unha matriz ortogonal e B é a súa transposta, o ij-ésimo elemento do produto AAT desaparecerá se i≠j, porque a i-ésima fila de A é ortogonal á j-ésima fila de A.

Aínda que aquí só consideramos matrices de reais, a definición pódese usar para matrices con entradas de calquera corpo. No entanto, as matrices ortogonais xorden naturalmente a partir do produto escalar, mais para as matrices de números complexos hai que remitirse ao requisito de unitario.

As matrices ortogonais preservan o produto escalar,[1] polo tanto, para os vectores u e v nun espazo euclidiano real n-dimensional

onde Q é unha matriz ortogonal.

Así as isometrías lineares de dimensión finita (rotacións, reflexións e as súas combinacións) producen matrices ortogonais. E viceversa: as matrices ortogonais implican transformacións ortogonais. No entanto, a álxebra linear inclúe transformacións ortogonais entre espazos que poden non ser nin de dimensión finita nin da mesma dimensión, e estes non teñen un equivalente en matriz ortogonal.

As matrices ortogonais son importantes por varias razóns, tanto teóricas como prácticas. As matrices ortogonais n × n forman un grupo baixo a multiplicación matricial, o grupo ortogonal denotado por O(n), que xunto aos seus subgrupos, é ​​moi utilizado en matemáticas e ciencias físicas.

Abaixo amósanse algúns exemplos de pequenas matrices ortogonais e posíbeis interpretacións.

  •    (Transformación identidade)
  •    (rotación sobre a orixe)
  •    (reflexión a través do eixo "x")
  •    (permutación de eixos de coordenadas)

Construcións elementais

[editar | editar a fonte]

Dimensións máis baixas

[editar | editar a fonte]

As matrices ortogonais máis simples son as matrices [1] e [−1] de dimensións 1 × 1, que podemos interpretar como a identidade e o como a reflexión da liña real a través da orixe.

As matrices de dimensións 2 × 2 teñen a forma

nas que a ortogonalidade esixe satisfacer as tres ecuacións

Tendo en conta a primeira ecuación, sen perda de xeneralidade sexa p = cos θ, q = sen θ; entón t = −q, u = p ou t = q, u = −p. Podemos interpretar o primeiro caso como unha rotación de θ (onde θ = 0 é a identidade), e o segundo como unha reflexión a través dunha liña nun ángulo de θ/2.

O caso especial da matriz de reflexión con θ = 90° xera unha reflexión sobre a recta a 45° dada por y = x e polo tanto troca x e y; é unha matriz de permutación, cun único 1 en cada columna e fila (e doutro xeito 0):

A identidade tamén é unha matriz de permutación.

Unha reflexión é a súa propia inversa, o que implica que unha matriz de reflexión é simétrica (igual á súa transposta) así como ortogonal. O produto de dúas matrices de rotación é unha matriz de rotación, e o produto de dúas matrices de reflexión tamén é unha matriz de rotación.

Dimensións máis altas

[editar | editar a fonte]

Independentemente da dimensión, sempre é posíbel clasificar as matrices ortogonais como puramente rotacionais ou non, mais para matrices 3 × 3 e maiores, as matrices non de rotación poden ser máis complicadas que as reflexións. Por exemplo,

representan unha simetría central a través da orixe e unha rotación impropia, respectivamente, sobre o eixo z.

As rotacións complícanse en dimensións máis altas; xa non poden caracterizarse completamente por un ángulo e poden afectar a máis dun subespazo plano. É común describir unha matriz de rotación 3 × 3 en termos dun eixo e un ángulo, mais isto só funciona en tres dimensións. Por riba das tres dimensións son necesarios dous ou máis ángulos, cada un asociado a un plano de rotación.

No entanto, temos bloques de construción elementais para permutacións, reflexións e rotacións que se aplican en xeral.

Primitivas

[editar | editar a fonte]

A permutación máis elemental é unha transposición obtida a partir da matriz identidade trocando dúas filas. Calquera matriz de permutación n × n pode construírse como un produto de non máis de n − 1 transposicións.

Unha reflexión de Householder constrúese a partir dun vector non nulo v como

Aquí o numerador é unha matriz simétrica mentres que o denominador é un número, a magnitude ao cadrado de v.

Unha rotación de Givens actúa nun subespazo bidimensional (planar) abranguido por dous eixos de coordenadas, xirando nun ángulo elixido.

Unha rotación de Jacobi ten a mesma forma que unha rotación de Givens, mais úsase para poñer a cero as dúas entradas fóra da diagonal dunha submatriz simétrica 2 × 2.

Propiedades

[editar | editar a fonte]

Propiedades da matriz

[editar | editar a fonte]

Unha matriz cadrada real é ortogonal se e só se as súas columnas forman unha base ortonormal do espazo euclidiano Rn co produto escalar euclidiano, que tamén e o caso se e só se as súas filas forman unha base ortonormal de Rn.

O determinante de calquera matriz ortogonal é +1 ou −1. Isto despréndese dos feitos básicos sobre os determinantes, como segue:

A inversa non é verdade; ter un determinante de ±1 non é garantía de ortogonalidade, mesmo con columnas ortogonais, como mostra o seguinte contraexemplo.

Nas matrices de permutación o determinante coincide coa sinatura, sendo +1 ou −1 xa que a paridade da permutación é par ou impar, pois o determinante é unha función alterna das filas.

Máis forte que a restrición do determinante é o feito de que unha matriz ortogonal sempre pode ser diagonalizada sobre os números complexos para mostrar un conxunto completo de valores propios onde todos eles deben ter módulo (complexo) 1.

Propiedades do grupo

[editar | editar a fonte]

O inverso de toda matriz ortogonal é de novo ortogonal, así como o produto matricial de dúas matrices ortogonais. De feito, o conxunto de todas as matrices ortogonais n × n satisfai todos os axiomas dun grupo. É un grupo de Lie compacto de dimensión n(n − 1)/2, chamado grupo ortogonal e denotado por O(n).

As matrices ortogonais cuxo determinante é +1 forman un subgrupo normal conexo de O(n) de índice 2, o grupo ortogonal especial SO(n) de rotacións. O grupo cociente O(n)/SO(n) é isomorfo a O(1), co mapa de proxección escollendo [+1] ou [−1] segundo o determinante.

As matrices ortogonais co determinante −1 non inclúen a identidade, polo que non forman un subgrupo senón só un coset; tamén é (separadamente) conexo.

Considere agora as matrices (n + 1) × (n + 1) ortogonais coa entrada inferior dereita igual a 1. O resto da última columna (e da última fila) deben ser ceros e o produto de dúas matrices calquera ten a mesma forma. O resto da matriz é unha matriz ortogonal n × n; así O(n) é un subgrupo de O(n + 1) (e de todos os grupos superiores).

Dado que unha reflexión elemental en forma de Matriz de Householder pode reducir calquera matriz ortogonal a esta forma restrinxida, unha serie desas reflexións pode levar calquera matriz ortogonal á identidade; polo tanto, un grupo ortogonal é un grupo de reflexión. A última columna pódese fixar a calquera vector unitario, e cada opción dá unha copia diferente de O(n) en O(n + 1); deste xeito O(n + 1) é un fibrado sobre a esfera unitaria Sn con fibra O(n).

Do mesmo xeito, SO(n) é un subgrupo de SO(n + 1); e calquera matriz ortogonal especial pode xerarse cunha Rotación de Givens usando un procedemento análogo. A estrutura do fibrado persiste: SO(n) ↪ SO(n + 1) → Sn. Unha soa rotación pode producir un cero na primeira fila da última columna, e a series de rotacións n − 1 poñerán a cero todas menos a última fila da última columna dunha matriz de rotación n × n. Dado que os planos son fixos, cada xiro só ten un grao de liberdade, o seu ángulo. Por indución, SO(n) ten, polo tanto

graos de liberdade, e tamén o fai O(n).

As matrices de permutación son aínda máis sinxelas; non forman un grupo de Lie, senón só un grupo finito, de orde n! que é a do grupo simétrico Sn. Polo mesmo tipo de argumento, Sn é un subgrupo de Sn + 1. As permutacións pares producen o subgrupo de matrices de permutación do determinante +1, de orde n!/2 que é o grupo alternante.

Forma canónica

[editar | editar a fonte]

De forma máis ampla, o efecto de calquera matriz ortogonal sepárase en accións independentes en subespazos bidimensionais ortogonais. É dicir, se Q é ortogonal especial, sempre se pode atopar unha matriz ortogonal P, unha mudanza de base (rotacional), que leva a Q en forma diagonal de bloque:

onde as matrices R1, ..., Rk son matrices 2 × 2 de rotación, e coas entradas restantes a cero.

Excepcionalmente, un bloque de rotación pode ser diagonal, ±I. Así, negando unha columna se é necesario, e observando que unha reflexión 2 × 2 diagonaliza a +1 e −1, calquera matriz ortogonal pódese levar á forma

As matrices R1, ..., Rk dan pares conxugados de valores propios situados na circunferencia unitaria no plano complexo; polo que esta descomposición confirma que todos os valores propios teñen valor absoluto 1. Se n é impar, hai polo menos un autovalor real, +1 ou −1; para unha rotación 3 × 3, o vector propio asociado a +1 é o eixo de rotación.

Álxebra de Lie

[editar | editar a fonte]

Supoña que as entradas de Q son funcións diferenciábeis de t e que t = 0Q = I. Diferenciar a condición de ortogonalidade

produce

A avaliación en t = 0 (Q = I) implica entón

En termos de grupos de Lie, isto significa que a álxebra de Lie dun grupo de matrices ortogonais consta de matrices antisimétricas. Indo na outra dirección, a exponencial dunha matriz de calquera matriz antisimétrica é unha matriz ortogonal (de feito, ortogonal especial).

Por exemplo, a física de obxectos tridimensionais que se chama velocidade angular é unha rotación diferencial e por tanto un vector da álxebra de Lie tanxente a SO(3).

Dado ω = (, , ), sendo v = (x, y, z) un vector unitario, a forma correcta de matriz antisimétrica de ω é

A exponencial desta é a matriz ortogonal para a rotación arredor do eixo v polo ángulo θ; facendo c = cos θ/2, s = sen θ/2, temos

Álxebra linear numérica

[editar | editar a fonte]

Beneficios

[editar | editar a fonte]

A análise numérica aproveita moitas das propiedades das matrices ortogonais para a álxebra linear numérica, e xorden de forma natural. Por exemplo, moitas veces é desexábel calcular unha base ortonormal para un espazo, ou unha mudanza ortogonal de bases; ambos transformacións adoptan a forma de matrices ortogonais.

Ter determinante ±1 e todos os eigenvalores de magnitude 1 é de gran beneficio para a estabilidade numérica. Unha implicación é que o número de condicionamento é 1 (que é o mínimo), polo que os erros non se amplían ao multiplicar cunha matriz ortogonal. Moitos algoritmos, por este motivo, usan matrices ortogonais como as reflexións de Householder e as rotacións de Givens.

As permutacións son esenciais para o éxito de moitos algoritmos, incluíndo o cabalo de batalla da eliminación de Gauss con pivote parcial (onde as permutacións fan o pivote). Porén, raramente aparecen explicitamente como matrices; a súa forma especial permite unha representación máis eficiente, como unha lista de índices n.

Así mesmo, os algoritmos que usan matrices de Householder e Givens normalmente usan métodos especializados de multiplicación e almacenamento. Por exemplo, unha rotación de Givens afecta só a dúas filas dunha matriz que multiplica, mudando unha multiplicación matricial completa de orde n3 a unha orde moito máis eficiente n. Cando os usos destas reflexións e rotacións introducen ceros nunha matriz, o espazo libre é suficiente para almacenar datos suficientes para reproducir a transformada e facelo de forma robusta. (Seguindo a Stewart (1976), "non" almacenamos un ángulo de rotación, que non é efectivo computacionalmente.)

Descomposicións

[editar | editar a fonte]

Unha serie de descomposicións matriciais importantes (Golub & Van Loan 1996) implican matrices ortogonais, incluíndo especialmente:

Descomposición QR
M = QR, Q ortogonal, R triangular superior.
Descomposición de valores singulares
M = UΣVT, U e V matriz ortogonal, Σ diagonal.
Desomposición propia dunha matriz simétrica (descomposición segundo o teorema espectral)
S = QΛQT, S simétrica, Q ortogonal, Λ diagonal.
Descomposición polar
M = QS, Q ortogonal, S positiva-semidefinida simétrica.

Considere un sistema sobredeterminado de ecuacións lineares, como pode ocorrer con medicións repetidas dun fenómeno físico para compensar os erros experimentais.

Escribimos , onde é de dimensións m × n, m > n. Unha descomposición QR reduce a R triangular superior. Por exemplo, se é de dimensións 5 × 3 entón R ten a forma

O problema de mínimos cadrados lineares consiste en atopar o x que minimiza , o que equivale a proxectar b no subespazo abranguido polas columnas de . Asumindo que as columnas de A (e, polo tanto, R) son independentes, a solución de proxección atópase a partir de ATAx = ATb.

Agora ATA é cadrada (n × n) e invertíbel, e tamén é igual a RTR. Pero as filas inferiores de ceros en R son superfluas no produto, que xa está en forma factorizada triangular superior triangular inferior, como na eliminación gaussiana (descomposición de Cholesky). Aquí a ortogonalidade é importante non só para reducir ATA = (RTQT)QR a RTR, senón tamén para permitir a solución sen aumentar os problemas numéricos.

No caso dun sistema linear que está indeterminado, que se corresponde con unha matriz non invertíbel, a descomposición de valores singulares (SVD) é igualmente útil. Con A factorizado como UΣVT, unha solución satisfactoria usa a pseudoinversa de Moore-Penrose, VΣ+U, onde Σ+ só substitúe cada entrada diagonal distinta de cero polo seu recíproco. Estabelece x como VΣ+UTb.

O caso dunha matriz invertíbel cadrada tamén ten interese. Supoña, por exemplo, que A é unha matriz de rotación 3 × 3 que foi calculada como a composición de numerosas voltas e voltas. A coma flotante non coincide co ideal matemático dos números reais, polo que A perdeu gradualmente a súa verdadeira ortogonalidade. Un proceso de Gram-Schmidt podería ortogonalizar as columnas, mais non é o método máis fiábel, nin o máis eficiente nin o máis invariante.

A descomposición polar factoriza unha matriz nunha parella de matrices, onde unha delas é a única matriz ortogonal máis próxima á matriz dada, ou unha das máis próximas se a matriz dada é singular. (A proximidade pódese medir mediante calquera norma matricial invariante baixo unha mudanza de base ortogonal).

Para unha matriz case ortogonal, pódese conseguir unha converxencia rápida cara ao factor ortogonal mediante unha variante do "Método de Newton" debido a Higham (1986), promediando repetidamente a matriz coa súa transposta inversa. Dubrulle (1999) publicou un método acelerado cun test de converxencia adecuado.

Por exemplo, considere unha matriz non ortogonal para a cal o algoritmo de media simple leva sete pasos

e no que a aceleración recórtao a dous pasos (con γ = 0,353553, 0,565685).

Gram-Schmidt produce unha solución inferior, mostrada por unha distancia de Frobenius de 8,28659 en lugar do mínimo 8,12404.

Matriz ortogonal máis próxima

[editar | editar a fonte]

O problema de atopar a matriz ortogonal Q máis próxima a unha matriz dada M está relacionado co problema de Procusto ortogonal. Hai varias formas diferentes de obter a solución única, a máis sinxela é tomar a descomposición en valores singulares de M e substituír os valores singulares por uns.

Outro método expresa o R explicitamente pero require o uso dunha raíz cadrada dunha matriz:[2]

Isto pódese combinar co método babilónico para extraer a raíz cadrada dunha matriz para dar unha recorrencia que converxe a unha matriz ortogonal cadráticamente:

onde Q0 = M.

Estas iteracións son estábeis sempre que o número de condicionamento de M sexa inferior a tres.[3]

Usando unha aproximación de primeira orde do inverso e a mesma inicialización resulta na iteración modificada:

.
.
.

Spin e pin

[editar | editar a fonte]

Un problema técnico sutil afecta algúns usos das matrices ortogonais. Non só os compoñentes do grupo co determinante +1 e −1 non son conexos entre si, mesmo a compoñente +1, SO(n), non é simplemente conexo (agás SO(1), que é trivial). Así, ás veces é vantaxoso, ou mesmo necesario, traballar cun recubrimento de SO(n),o grupo spin, Spin(n).

Así mesmo, O(n) ten grupos de recubrimento, os grupos de pin, Pin(n). Para n > 2, Spin(n) é simplemente conexo e, polo tanto, o grupo de recubrimento universal para SO(n). De lonxe, o exemplo máis famoso dun grupo de spin é Spin(3), que non é máis que SU(2), ou o grupo de cuaternións unitarios.

Os grupos Pin e Spin atópanse dentro das álxebras de Clifford, que se poden construír a partir de matrices ortogonais.

Matrices rectangulares

[editar | editar a fonte]
Artigo principal: Matriz semiortogonal.

Se Q non é unha matriz cadrada, as condicións QTQ = I e QQT = I non son equivalentes. A condición QTQ = I di que as columnas de Q son ortonormais. Isto só pode ocorrer se Q é unha matriz m × n con nm (debido á dependencia linear). Do mesmo xeito, QQT = I di que as filas de Q son ortonormais, o que require nm.

Non existe unha terminoloxía estándar para estas matrices. Chámanse de varias maneiras "matrices semi-ortogonais", "matrices ortonormais", "matrices ortogonais" e ás veces simplemente "matrices con filas/columnas ortonormais".

Para o caso nm, as matrices con columnas ortonormais poden denominarse k-marcos ortogonais e son elementos da variedade de Stiefel.

  1. "Apuntes de matemáticas en liña de Paul", The Paulmar University]8. 3(c)
  2. "Buscando a matriz ortonormal máis próxima", Berthold K.P. Corno, MIT.
  3. "Método de Newton para a raíz cadrada da matriz" Arquivado 2011-09-29 en Wayback Machine., Nicholas J. Higham, Mathematics of Computation, Number 191846, Volume 19.

Véxase tamén

[editar | editar a fonte]

Bibliografía

[editar | editar a fonte]

Outros artigos

[editar | editar a fonte]

Ligazóns externas

[editar | editar a fonte]