Matriz congruente

Em matemática, matriz congruente é uma relação de equivalência no conjuntos das matrizes reais quadradas. Duas matriz A {\displaystyle A} e B {\displaystyle B} são congruentes, se existe uma matriz invertível P {\displaystyle P} , do mesmo tipo, tal que A = P T B P {\displaystyle A=P^{T}BP} .[1][2]

Definição

Uma matriz real quadrada n × n {\displaystyle n\times n} A {\displaystyle A} é congruente à matriz real quadrada n × n {\displaystyle n\times n} B {\displaystyle B} quando existe uma matriz P {\displaystyle P} invertível tal que A = P T B P {\displaystyle A=P^{T}BP} .[1][2]

Observamos que esta definição exige que P {\displaystyle P} seja uma matriz quadrada de mesma ordem de A {\displaystyle A} e B {\displaystyle B} .

Relação de equivalência

A relação de congruência define uma relação de equivalência no conjunto das matrizes reais quadradas M n {\displaystyle \mathbb {M} _{n}} , i.e.:[1]

  1. (reflexividade) toda matriz A M n {\displaystyle A\in \mathbb {M} _{n}} é congruente a si mesma;
  2. (simetria) se A M n {\displaystyle A\in \mathbb {M} _{n}} é congruente a B M n {\displaystyle B\in \mathbb {M} _{n}} , então B {\displaystyle B} é congruente a A {\displaystyle A} ;
  3. (transitividade) se A M n {\displaystyle A\in \mathbb {M} _{n}} é congruente a B M n {\displaystyle B\in \mathbb {M} _{n}} e B {\displaystyle B} é congruente a C M n {\displaystyle C\in \mathbb {M} _{n}} , então A {\displaystyle A} é congruente a C {\displaystyle C} .

Da relação de simetria, vemos que está bem definido dizer que duas matrizes são congruentes (como exposto na introdução).

Demonstração
  1. Basta observar que A = I n T A I n {\displaystyle A=I_{n}^{T}AI_{n}} , onde I n {\displaystyle I_{n}} é a matriz identidade em M n {\displaystyle \mathbb {M} _{n}} .
  2. Se A M n {\displaystyle A\in \mathbb {M} _{n}} é congruente a B M n {\displaystyle B\in \mathbb {M} _{n}} , então, por definição, existe P M n {\displaystyle P\in \mathbb {M} _{n}} invertível tal que A = P T B P {\displaystyle A=P^{T}BP} . Escolhendo Q = P 1 {\displaystyle Q=P^{-1}} , vemos que B = Q T A Q {\displaystyle B=Q^{T}AQ} , i.e. B {\displaystyle B} é congruente a A {\displaystyle A} .
  3. Se A M n {\displaystyle A\in \mathbb {M} _{n}} é congruente a B M n {\displaystyle B\in \mathbb {M} _{n}} e B {\displaystyle B} é congruente a C M n {\displaystyle C\in \mathbb {M} _{n}} , então existem P , Q M n {\displaystyle P,Q\in \mathbb {M} _{n}} tais que A = P T B P {\displaystyle A=P^{T}BP} e B = Q T C Q {\displaystyle B=Q^{T}CQ} . Mas, então, temos A = P T ( Q T C Q ) P = ( Q P ) T C ( Q P ) {\displaystyle A=P^{T}(Q^{T}CQ)P=(QP)^{T}C(QP)} , i.e. A {\displaystyle A} é congruente a C {\displaystyle C} .

Aplicações

Matrizes de uma forma bilinear

Seja f : V × V R {\displaystyle f:V\times V\to \mathbb {R} } uma forma bilinear, onde V {\displaystyle V} é um espaço euclidiano de dimensão finita n {\displaystyle n} . Seja, ainda, B u = { u 1 , u 2 , , u n } {\displaystyle B_{u}=\{\mathbf {u} _{1},\mathbf {u} _{2},\ldots ,\mathbf {u} _{n}\}} e B v = { v 1 , v 2 , , v n } {\displaystyle B_{v}=\{\mathbf {v} _{1},\mathbf {v} _{2},\ldots ,\mathbf {v} _{n}\}} duas bases para V {\displaystyle V} . Então, são congruentes as matrizes A = [ f ( u i , u j ) ] i , j = 1 n , n {\displaystyle A=[f(\mathbf {u} _{i},\mathbf {u} _{j})]_{i,j=1}^{n,n}} e B = [ f ( v i , v j ) ] i , j = 1 n , n {\displaystyle B=[f(\mathbf {v} _{i},\mathbf {v} _{j})]_{i,j=1}^{n,n}} da forma bilinear nas bases B u {\displaystyle B_{u}} e B v {\displaystyle B_{v}} , respectivamente.[1]

Demonstração

Sejam u , v V {\displaystyle \mathbf {u} ,\mathbf {v} \in V} e suas representações nas bases B u {\displaystyle B_{u}} e B v {\displaystyle B_{v}} :

u = i = 1 n c i u i = i = 1 n c i v i {\displaystyle \mathbf {u} =\sum _{i=1}^{n}c_{i}\mathbf {u} _{i}=\sum _{i=1}^{n}c'_{i}\mathbf {v} _{i}}
e v = i = 1 n d i u i = i = 1 n d i v i {\displaystyle {\text{e}}\quad \mathbf {v} =\sum _{i=1}^{n}d_{i}\mathbf {u} _{i}=\sum _{i=1}^{n}d'_{i}\mathbf {v} _{i}} .

Seja, agora, P {\displaystyle P} a matriz de mudança da base B v {\displaystyle B_{v}} para a base B u {\displaystyle B_{u}} , i.e.:

c = P c e d = P d {\displaystyle \mathbf {c} =P\mathbf {c} '\quad {\text{e}}\quad \mathbf {d} =P\mathbf {d} '\quad }

onde, c = ( c 1 , c 2 , , c n ) {\displaystyle \mathbf {c} =(c_{1},c_{2},\ldots ,c_{n})} e notação análoga para c {\displaystyle \mathbf {c} '} , d {\displaystyle \mathbf {d} } e d {\displaystyle \mathbf {d} '} .

Além disso, temos:

f ( u , v ) = f ( i = 1 n c i u i , j = 1 n d j u j ) = i = 1 n j = 1 n c i f ( u i , u j ) d i {\displaystyle f(\mathbf {u} ,\mathbf {v} )=f\left(\sum _{i=1}^{n}c_{i}\mathbf {u} _{i},\sum _{j=1}^{n}d_{j}\mathbf {u} _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{n}c_{i}f(\mathbf {u} _{i},\mathbf {u} _{j})d_{i}}

e

f ( u , v ) = f ( i = 1 n c i v i , j = 1 n d j v j ) = i = 1 n j = 1 n c i f ( v i , v j ) d i {\displaystyle f(\mathbf {u} ,\mathbf {v} )=f\left(\sum _{i=1}^{n}c'_{i}\mathbf {v} _{i},\sum _{j=1}^{n}d'_{j}\mathbf {v} _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{n}c'_{i}f(\mathbf {v} _{i},\mathbf {v} _{j})d'i}

donde, c T A d = c T B d {\displaystyle \mathbf {c} ^{T}A\mathbf {d} ={\mathbf {c} '}^{T}B\mathbf {d} '} . O que, por sua vez, implica:

c T ( P T A P ) d = c T B d {\displaystyle {\mathbf {c} '}^{T}(P^{T}AP)\mathbf {d} '={\mathbf {c} '}^{T}B\mathbf {d} '} .

Como os vetores u {\displaystyle \mathbf {u} } e v {\displaystyle \mathbf {v} } são arbitrários, temos B = P T A P {\displaystyle B=P^{T}AP} , i.e., A {\displaystyle A} e B {\displaystyle B} são matrizes congruentes. Isso completa a prova.

Matrizes ortogonalmente diagonalizáveis

Se a matriz A {\displaystyle A} é ortogonalmente diagonalizável, então exite uma matriz diagonal D {\displaystyle D} congruente a A {\displaystyle A} .[3]

Demonstração

Com efeito, uma matriz A {\displaystyle A} é ortogonalmente diagonalizável se, e somente se, existe uma matriz diagonal D {\displaystyle D} tal que:

D = P 1 A P {\displaystyle D=P^{-1}AP}

onde, P {\displaystyle P} é uma matriz ortogonal, i.e. P 1 = P T {\displaystyle P^{-1}=P^{T}} . Isto é dizer, D = P T A P {\displaystyle D=P^{T}AP} , o que conclui a demonstração.

Ver também

Referências

  1. a b c d CALLIOLI, C.A.; Álgebra linear e aplicações, ed. 6, 1990.
  2. a b LIPSCHUTZ, S.; Lipson, M.; Álgebra linear, Coleção Schaum, Bookman, 2011.
  3. Kolman, B. (2013). Álgebra linear com aplicações 9 ed. [S.l.]: LTC. ISBN 9788521622086 


  • v
  • d
  • e
Classes de matriz
Elementos explicitamente restritos
Constante
Condições sobre
autovalores e autovetores
Satisfazendo condições
sobre produtos ou inversas
Com aplicações específicas
Usada em estatística
  • Bernoulli
  • Centro
  • Correlação
  • Covariância
  • Dispersão
  • Duplamente estocástica
  • Informação de Fisher
  • Projeção
  • Precisão
  • Estocástica
  • Transição
Usada em teoria dos grafos
Usada em ciência e engenharia
Termos relacionados
  • Categoria:Matrizes
  • v
  • d
  • e
Tópicos relacionados com álgebra linear
Conceitos básicos
Matrizes
Álgebra linear numérica