Artigos

8.5: Computando valores próprios


Na prática, o problema de encontrar autovalores de uma matriz virtualmente nunca é resolvido encontrando as raízes do polinômio característico. Isso é difícil para matrizes grandes e os métodos iterativos são muito melhores. Dois desses métodos são descritos resumidamente nesta seção.

O Método de Poder

No Capítulo [cap: 3], nossa justificativa inicial para diagonalizar matrizes era ser capaz de calcular as potências de uma matriz quadrada, e os autovalores eram necessários para fazer isso. Nesta seção, estamos interessados ​​em calcular com eficiência os autovalores e pode não ser surpresa que o primeiro método que discutimos use as potências de uma matriz.

Lembre-se de que um valor próprio ( lambda ) de uma matriz (n vezes n ) (A ) é chamado de autovalor dominante if ( lambda ) tem multiplicidade (1 ), e [| lambda | > | mu | quad mbox {para todos os autovalores} mu neq lambda ] Qualquer autovetor correspondente é chamado de autovetor dominante de (A ). Quando tal autovalor existe, uma técnica para encontrá-lo é a seguinte: Seja ( vect {x} _ {0} ) in ( RR ^ n ) uma primeira aproximação de um autovetor dominante ( lambda ), e calcular aproximações sucessivas ( vect {x} _ {1}, vect {x} _ {2}, dots ) ​​como segue: [ vect {x} _ {1} = A vect {x} _ {0} quad vect {x} _ {2} = A vect {x} _ {1} quad vect {x} _ {3} = A vect {x} _ { 2} quad cdots ] Em geral, definimos [ vect {x} _ {k + 1} = A vect {x} _ {k} quad mbox {para cada} k geq 0 ] Se a primeira estimativa ( vect {x} _ {0} ) for boa o suficiente, esses vetores ( vect {x} _ {n} ) se aproximarão do autovetor dominante ( lambda ) (ver abaixo de). Esta técnica é chamada de método de poder (porque ( vect {x} _ {k} = A ^ {k} vect {x} _ {0} ) para cada (k geq 1 )). Observe que se ( vect {z} ) é qualquer autovetor correspondente a ( lambda ), então [ frac { vect {z} dotprod (A vect {z})} { vectlength vect {z} vectlength ^ 2} = frac { vect {z} dotprod ( lambda vect {z})} { vectlength vect {z} vectlength ^ 2} = lambda ] Porque o vetores ( vect {x} _ {1}, vect {x} _ {2}, dots, vect {x} _ {n}, dots ) ​​autovetores dominantes aproximados, isso sugere que definimos os Quocientes de Rayleigh da seguinte forma: [r_ {k} = frac { vect {x} _ {k} dotprod vect {x} _ {k + 1}} { vectlength vect {x} _ {k} vectlength ^ 2} quad mbox {for} k geq 1 ] Então os números (r_ {k} ) se aproximam do autovalor dominante ( lambda ).

025326 Use o método de potência para aproximar um autovetor dominante e um autovalor de (A = leftB begin {array} {rr} 1 & 1 2 & 0 end {array} rightB ).

Os valores próprios de (A ) são (2 ) e (- 1 ), com vetores próprios ( leftB begin {array} {rr} 1 1 end {array} rightB ) e ( leftB begin {array} {rr} 1 -2 end {array} rightB ). Tome ( vect {x} _ {0} = leftB begin {array} {rr} 1 0 end {array} rightB ) como a primeira aproximação e calcule ( vect {x} _ {1}, vect {x} _ {2}, dots, ) sucessivamente, de ( vect {x} _ {1} = A vect {x} _ {0}, vect {x} _ {2} = A vect {x} _ {1}, pontos ). O resultado é [ vect {x} _ {1} = leftB begin {array} {rr} 1 2 end {array} rightB, vect {x} _ {2} = leftB begin {array} {rr} 3 2 end {array} rightB, vect {x} _ {3} = leftB begin {array} {rr} 5 6 end {array} rightB, vect {x} _ {4} = leftB begin {array} {rr} 11 10 end {array} rightB, vect {x} _ {3} = leftB begin {array} {rr} 21 22 end {array} rightB, dots ] Esses vetores estão se aproximando de múltiplos escalares do autovetor dominante ( leftB begin {array} {rr} 1 1 end {array} rightB ). Além disso, os quocientes de Rayleigh são [r_ {1} = frac {7} {5}, r_ {2} = frac {27} {13}, r_ {3} = frac {115} {61}, r_ {4} = frac {451} {221}, dots ] e estes estão se aproximando do autovalor dominante (2 ).

Para ver por que o método de potência funciona, sejam ( lambda_ {1}, lambda_ {2}, dots, lambda_ {m} ) os autovalores de (A ) com ( lambda_ {1} ) dominante e sejam ( vect {y} _ {1}, vect {y} _ {2}, dots, vect {y} _ {m} ) os autovetores correspondentes. O que é necessário é que a primeira aproximação ( vect {x} _ {0} ) seja uma combinação linear desses vetores próprios: [ vect {x} _ {0} = a_ {1} vect {y} _ {1} + a_ {2} vect {y} _ {2} + dots + a_ {m} vect {y} _ {m} quad mbox {com} a_ {1} neq 0 ] Se (k geq 1 ), o fato de que ( vect {x} _ {k} = A ^ {k} vect {x} _ {0} ) e (A ^ k vect {y} _ {i} = lambda_ {i} ^ k vect {y} _ {i} ) para cada (i ) dá [ vect {x} _ {k} = a_ {1} lambda_ {1} ^ k vect {y} _ {1} + a_ {2} lambda_ {2} ^ k vect {y} _ {2} + dots + a_ {m} lambda_ {m} ^ k vect {y} _ {m} quad mbox {for} k geq 1 ] Portanto [ frac {1} { lambda_ {1} ^ k} vect {x} _ {k} = a_ {1} vect {y} _ {1} + a_ {2} left ( frac { lambda_ {2}} { lambda_ {1}} right) ^ k vect {y} _ { 2} + dots + a_ {m} left ( frac { lambda_ {m}} { lambda_ {1}} right) ^ k vect {y} _ {m} ] O lado direito se aproxima (a_ {1} vect {y} _ {1} ) conforme (k ) aumenta porque ( lambda_ {1} ) é dominante ( left ( left | frac { lambda_ {i }} { lambda_ {1}} right | <1 mbox {para cada} i> 1 right) ). Porque (a_ {1} neq 0 ), isso significa que ( vect {x} _ {k} ) se aproxima do autovetor dominante (a_ {1} lambda_ {1} ^ k vect {y } _ {1} ).

O método de potência requer que a primeira aproximação ( vect {x} _ {0} ) seja uma combinação linear de autovetores. (No Exemplo [exa: 025326] os autovetores formam uma base de ( RR ^ 2 ).) Mas mesmo neste caso o método falha se (a_ {1} = 0 ), onde (a_ {1 } ) é o coeficiente do autovetor dominante (tente ( vect {x} _ {0} = leftB begin {array} {rr} -1 2 end {array} rightB ) no Exemplo [exa: 025326]). Em geral, a taxa de convergência é bastante lenta se qualquer uma das razões ( left | frac { lambda_ {i}} { lambda_ {1}} right | ) estiver perto de (1 ). Além disso, como o método requer multiplicações repetidas por (A ), ele não é recomendado, a menos que essas multiplicações sejam fáceis de realizar (por exemplo, se a maioria das entradas de (A ) forem zero).

Algoritmo QR

Um método muito melhor para aproximar os valores próprios de uma matriz invertível (A ) depende da fatoração (usando o algoritmo de Gram-Schmidt) de (A ) na forma [A = QR ] onde (Q ) é ortogonal e (R ) é invertível e triangular superior (consulte o teorema [thm: 025166]). O Algoritmo QR usa isso repetidamente para criar uma sequência de matrizes (A_ {1} = A, A_ {2}, A_ {3}, pontos, ) como segue:

  1. Defina (A_ {1} = A ) e fatore-o como (A_ {1} = Q_ {1} R_ {1} ).

  2. Defina (A_ {2} = R_ {1} Q_ {1} ) e fatore-o como (A_ {2} = Q_ {2} R_ {2} ).

  3. Defina (A_ {3} = R_ {2} Q_ {2} ) e fatore-o como (A_ {3} = Q_ {3} R_ {3} ).
    ( vdots )

Em geral, (A_ {k} ) é fatorado como (A_ {k} = Q_ {k} R_ {k} ) e definimos (A_ {k + 1} = R_ {k} Q_ {k } ). Então (A_ {k + 1} ) é semelhante a (A_ {k} ) [na verdade, (A_ {k + 1} = R_ {k} Q_ {k} = (Q_ {k} ^ {-1} A_ {k}) Q_ {k} )] e, portanto, cada (A_ {k} ) tem os mesmos autovalores que (A ). Se os autovalores de (A ) são reais e têm valores absolutos distintos, o notável é que a sequência de matrizes (A_ {1}, A_ {2}, A_ {3}, dots ) ​​converge para um matriz triangular superior com esses autovalores na diagonal principal. [Veja abaixo o caso de autovalores complexos.]

025425 If (A = leftB begin {array} {rr} 1 & 1 2 & 0 end {array} rightB ) como no Exemplo [exa: 025326], use o algoritmo QR para aproximar o autovalores.

As matrizes (A_ {1} ), (A_ {2} ) e (A_ {3} ) são as seguintes: [ begin {alinhados} A_ {1} = & leftB begin {array} {rr} 1 & 1 2 & 0 end {array} rightB = Q_ {1} R_ {1} quad mbox {onde} Q_ {1} = frac {1} { sqrt {5}} leftB begin {array} {rr} 1 & 2 2 & -1 end {array} rightB mbox {e} R_ {1} = frac {1} { sqrt {5 }} leftB begin {array} {rr} 5 & 1 0 & 2 end {array} rightB A_ {2} = & frac {1} {5} leftB begin {array} {rr} 7 e 9 4 & -2 end {array} rightB = leftB begin {array} {rr} 1.4 & -1.8 -0.8 & -0.4 end {array} rightB = Q_ {2} R_ {2} & mbox {onde} Q_ {2} = frac {1} { sqrt {65}} leftB begin {array} {rr} 7 & 4 4 & - 7 end {array} rightB mbox {e} R_ {2} = frac {1} { sqrt {65}} leftB begin {array} {rr} 13 e 11 0 & 10 end {array} rightB A_ {3} = & frac {1} {13} leftB begin {array} {rr} 27 & -5 8 & -14 end {array} rightB = leftB begin {array} {rr} 2.08 & -0.38 0.62 & -1.08 end {array} rightB end {alinhado} ] Isto está convergindo para ( leftB begin {array} {rr} 2 & ast 0 & -1 end {arra y} rightB ) e, portanto, está aproximando os autovalores (2 ) e (- 1 ) na diagonal principal.

Está além do escopo deste livro buscar uma discussão detalhada desses métodos. O leitor é encaminhado a J. M. Wilkinson, O problema do valor próprio algébrico (Oxford, Inglaterra: Oxford University Press, 1965) ou G. W. Stewart, Introdução à Computação Matrix (Nova York: Academic Press, 1973). Concluímos com algumas observações sobre o algoritmo QR.

Mudando. A convergência é acelerada se, no estágio (k ) do algoritmo, um número (s_ {k} ) é escolhido e (A_ {k} - s_ {k} I ) é fatorado na forma ( Q_ {k} R_ {k} ) ao invés do próprio (A_ {k} ). Então [Q_ {k} ^ {- 1} A_ {k} Q_ {k} = Q_ {k} ^ {- 1} (Q_ {k} R_ {k} + s_ {k} I) Q_ {k} = R_ {k} Q_ {k} + s_ {k} I ] então tomamos (A_ {k + 1} = R_ {k} Q_ {k} + s_ {k} I ). Se as mudanças (s_ {k} ) forem cuidadosamente escolhidas, a convergência pode ser bastante melhorada.

Preparação Preliminar. Uma matriz como [ leftB begin {array} {rrrrr} ast & ast & ast & ast & ast ast & ast & ast & ast & ast 0 & ast & ast & ast & ast 0 & 0 & ast & ast & ast 0 & 0 & 0 & ast & ast end {array} rightB ] é disse estar em Upper Hessenberg forma, e as fatorações QR de tais matrizes são bastante simplificadas. Dada uma matriz (n vezes n ) (A ), uma série de matrizes ortogonais (H_ {1}, H_ {2}, pontos, H_ {m} ) (chamada Matrizes de chefes de família) pode ser facilmente construído de modo que [B = H_ {m} ^ T cdots H_ {1} ^ TAH_ {1} cdots H_ {m} ] esteja na forma superior de Hessenberg. Então, o algoritmo QR pode ser aplicado com eficiência a (B ) e, como (B ) é semelhante a (A ), ele produz os autovalores de (A ).

Autovalores complexos. Se alguns dos autovalores de uma matriz real (A ) não forem reais, o algoritmo QR converge para uma matriz triangular superior de bloco onde os blocos diagonais são (1 vezes 1 ) (os autovalores reais) ou (2 vezes 2 ) (cada um fornecendo um par de autovalores complexos conjugados de (A )).

Exercícios para 1

soluções

2

Em cada caso, encontre os autovalores exatos e determine os autovetores correspondentes. Então comece com ( vect {x} _ {0} = leftB begin {array} {rr} 1 1 end {array} rightB ) e calcule ( vect {x} _ {4 } ) e (r_ {3} ) usando o método de potência.

(A = leftB begin {array} {rr} 2 & -4 -3 & 3 end {array} rightB ) (A = leftB begin {array} {rr} 5 & 2 -3 & -2 end {array} rightB ) (A = leftB begin {array} {rr} 1 & 2 2 & 1 end {array} rightB ) (A = leftB begin {array} {rr} 3 & 1 1 & 0 end {array} rightB )

  1. Valores próprios (4 ), (- 1 ); autovetores ( leftB begin {array} {rr} 2 -1 end {array} rightB ), ( leftB begin {array} {rr} 1 -3 end {array} rightB ); ( vect {x} _ {4} = leftB begin {array} {rr} 409 -203 end {array} rightB ); (r_ {3} = 3,94 )

  2. Valores próprios ( lambda_ {1} = frac {1} {2} (3 + sqrt {13}) ), ( lambda_ {2} = frac {1} {2} (3 - sqrt {13}) ); autovetores ( leftB begin {array} {c} lambda_ {1} 1 end {array} rightB ), ( leftB begin {array} {c} lambda_ {2} 1 end {array} rightB ); ( vect {x} _ {4} = leftB begin {array} {rr} 142 43 end {array} rightB ); (r_ {3} = 3,3027750 ) (O valor verdadeiro é ( lambda_ {1} = 3,3027756 ), com sete casas decimais.)

Em cada caso, encontre os autovalores exatos e, em seguida, aproxime-os usando o algoritmo QR.

(A = leftB begin {array} {rr} 1 & 1 1 & 0 end {array} rightB ) (A = leftB begin {array} {rr} 3 & 1 1 e 0 end {array} rightB )

  1. (A_ {1} = leftB begin {array} {rr} 3 & 1 1 & 0 end {array} rightB ), (Q_ {1} = frac {1} { sqrt {10}} leftB begin {array} {rr} 3 & -1 1 & 3 end {array} rightB ), (R_ {1} = frac {1} { sqrt {10 }} leftB begin {array} {rr} 10 & 3 0 & -1 end {array} rightB )
    (A_ {2} = frac {1} {10} leftB begin {array} {rr} 33 & -1 -1 & -3 end {array} rightB ),
    (Q_ {2} = frac {1} { sqrt {1090}} leftB begin {array} {rr} 33 & 1 -1 & 33 end {array} rightB ),
    (R_ {2} = frac {1} { sqrt {1090}} leftB begin {array} {rr} 109 & -3 0 & -10 end {array} rightB )
    (A_ {3} = frac {1} {109} leftB begin {array} {rr} 360 & 1 1 & -33 end {array} rightB )
    ({} = leftB begin {array} {rr} 3,302775 & 0,009174 0,009174 & -0,302775 end {array} rightB )

Aplique o método de energia para
(A = leftB begin {array} {rr} 0 & 1 -1 & 0 end {array} rightB ), começando em ( vect {x} _ {0} = leftB begin {array} {rr} 1 1 end {array} rightB ). Converge? Explique.

Se (A ) é simétrica, mostre que cada matriz (A_ {k} ) no algoritmo QR também é simétrica. Deduza que eles convergem para uma matriz diagonal.

Use indução em (k ). Se (k = 1 ), (A_ {1} = A ). Em geral (A_ {k + 1} = Q_ {k} ^ {- 1} A_ {k} Q_ {k} = Q_ {k} ^ {T} A_ {k} Q_ {k} ), então o fato de que (A_ {k} ^ {T} = A_ {k} ) implica (A_ {k + 1} ^ {T} = A_ {k + 1} ). Os autovalores de (A ) são todos reais (Teorema [thm: 016145]), então o (A_ {k} ) converge para uma matriz triangular superior (T ). Mas (T ) também deve ser simétrico (é o limite das matrizes simétricas), por isso é diagonal.

Aplique o algoritmo QR para
(A = leftB begin {array} {rr} 2 & -3 1 & -2 end {array} rightB ). Explique.

Dada uma matriz (A ), sejam (A_ {k} ), (Q_ {k} ), e (R_ {k} ), (k geq 1 ), as matrizes construído no algoritmo QR. Mostre que (A_ {k} = (Q_ {1} Q_ {2} cdots Q_ {k}) (R_ {k} cdots R_ {2} R_ {1}) ) para cada (k geq 1 ) e, portanto, que esta é uma fatoração QR de (A_ {k} ).


Centralidade e hubs

Autovalores e autovetores desempenham um papel importante nas redes e em matriz teoria de forma mais geral. Autovetores e autovalores são encontrados resolvendo a equação

Onde UMA é uma matriz N × N, o vetor coluna x = x 1 ... x N é um autovetor de UMA, e o escalar λ é o autovalor correspondente. Configuração x = 0 resolve trivialmente a Equação (5.1.1), mas buscamos uma solução não trivial tal que x ≠ 0. Podemos pensar na Equação (5.1.1) fazendo a seguinte pergunta: se multiplicarmos uma matriz UMA por um vetor xe, em seguida, multiplique esse mesmo vetor x por um valor constante λ, podemos obter o mesmo resultado?


8.5: Computando valores próprios

Se quisermos ter um sistema de reconhecimento de face dinâmico que amplia continuamente D em tempo real à medida que visualiza novos indivíduos, é possível recalcular o PCA usando métodos de pesquisa de gradiente iterativos mais eficientes, como o proposto por Roseborough e Murase [41 ] No entanto, devemos apenas calcular os vetores próprios uma vez para um conjunto de dados de N = 338 faces e então reutilizar esses vetores próprios em novas faces que não faziam parte da matriz D do conjunto de dados original. Esta abordagem é baseada na suposição de que uma amostra de treinamento inicial grande o suficiente de mais de 300 faces de fotos preencheria o cluster `` face-space '' dentro do maior `` image-space '' de forma bastante adequada (ou seja, densa e extensivamente o suficiente). Assim, as novas faces simplesmente cairão dentro da região pré-determinada do espaço facial e, portanto, são bem aproximadas pela extensão dos autovetores que foram gerados anteriormente [44].

A figura mostra um gráfico da magnitude dos autovalores em relação à sua classificação. A magnitude de um autovalor,, é igual à variância no conjunto de dados que é medido por seu autovetor correspondente,. Assim, é óbvio que os autovetores de ordem superior são responsáveis ​​por menos energia na aproximação do conjunto de dados, uma vez que seus autovalores têm baixas magnitudes. Optamos por truncar o conjunto de autovetores para os primeiros 60 vetores. Este conjunto reduzido de autovetores é responsável por variância de face suficiente para evitar compressão com perdas excessivas. M = 60 será usado ao longo dos experimentos [22]. Os primeiros 10 de nossos autovetores (também chamados de autofaces, pois são formados a partir de imagens faciais) são mostrados na Figura.


Como encontrar o valor próprio?

Para encontrar o valor próprio para a matriz 2 e vezes 2, é calculado usando a fórmula:

Onde & # 39A & # 39 é dado 2 & vezes 2 matriz, & # 39I & # 39 é a matriz de identidade e & # 39 & lambda & # 39 é o autovalor.

Exemplo resolvido:

Encontre o autovalor de ( begin 0 & amp 1 2 & amp 3 end )

Solução:

Matriz dada: ( begin 0 & amp 1 2 & amp 3 end )

| A - & lambdaI | = 0, onde I é a matriz de identidade, ou seja, ( begin 1 & amp 0 0 & amp 1 end )

Da mesma forma, você pode tentar a calculadora para encontrar o valor dos valores próprios para as seguintes matrizes:


Dado um n × n matriz quadrada UMA de números reais ou complexos, um autovalor λ e seu associado autovetor generalizado v são um par obedecendo à relação [1]

Onde v é diferente de zero n × 1 vetor coluna, eu é o n × n matriz de identidade, k é um número inteiro positivo e ambos λ e v podem ser complexos, mesmo quando UMA é real. Quando k = 1, o vetor é chamado simplesmente de autovetor, e o par é chamado de eigenpair. Nesse caso, UMAv = λv . Qualquer autovalor λ do UMA tem autovetores comuns [nota 1] associados a ele, pois se k é o menor inteiro tal que (UMAλI) k v = 0 para um autovetor generalizado v , então (UMAλI) k−1 v é um autovetor comum. O valor que k sempre pode ser considerado como menor ou igual a n . Em particular, (UMAλI) n v = 0 para todos os autovetores generalizados v associado com λ .

Para cada autovalor λ de UMA , o kernel ker (UMAλI) consiste em todos os vetores próprios associados a λ (junto com 0), chamado de eigenspace do λ , enquanto o espaço vetorial ker ((UMAλI) n ) consiste em todos os autovetores generalizados e é chamado de autoespaço generalizado. O multiplicidade geométrica do λ é a dimensão de seu autoespaço. O multiplicidade algébrica do λ é a dimensão de seu autoespaço generalizado. A última terminologia é justificada pela equação

onde det é a função determinante, o λeu são todos os valores próprios distintos de UMA e a αeu são as multiplicidades algébricas correspondentes. A função pUMA(z) é o polinômio característico do UMA . Portanto, a multiplicidade algébrica é a multiplicidade do autovalor como um zero do polinômio característico. Uma vez que qualquer autovetor também é um autovetor generalizado, a multiplicidade geométrica é menor ou igual à multiplicidade algébrica. As multiplicidades algébricas somam n , o grau do polinômio característico. A equação pUMA(z) = 0 é chamado de equação característica, já que suas raízes são exatamente os autovalores de UMA . Pelo teorema de Cayley-Hamilton, UMA em si obedece à mesma equação: pUMA(UMA) = 0. [nota 2] Como consequência, as colunas da matriz ∏ i ≠ j (A - λ i I) α i < textstyle prod _(A- lambda _I) ^ < alpha _>> deve ser 0 ou autovetores generalizados do autovalor λj , uma vez que são aniquilados por (A - λ j I) α j < displaystyle (A- lambda _I) ^ < alpha _>>. Na verdade, o espaço da coluna é o autoespaço generalizado de λj .

Qualquer coleção de autovetores generalizados de autovalores distintos é linearmente independente, portanto, uma base para todos os C n pode ser escolhido consistindo de autovetores generalizados. Mais particularmente, esta base <veu> n
eu=1 podem ser escolhidos e organizados para que

  • E se veu e vj tem o mesmo autovalor, então também vk para cada k entre eu e j , e
  • E se veu não é um autovetor comum, e se λeu é o seu autovalor, então (UMAλeueu)veu = veu−1 (em particular, v1 deve ser um autovetor comum).

Se esses vetores de base forem colocados como vetores de coluna de uma matriz V = [v1 v2vn] , então V pode ser usado para converter UMA à sua forma normal Jordan:

onde o λeu são os valores próprios, βeu = 1 se (UMAλeu+1)veu+1 = veu e βeu = 0 caso contrário.

Mais geralmente, se C é qualquer matriz invertível, e λ é um autovalor de UMA com autovetor generalizado v , então (C −1 AWλI) k Ck v = 0. Desse modo λ é um autovalor de C −1 AW com autovetor generalizado Ck v . Ou seja, matrizes semelhantes têm os mesmos autovalores.

Matrizes normais, hermitianas e simétricas reais Editar

O anexo M * de uma matriz complexa M é a transposição do conjugado de M : M * = M T. Uma matriz quadrada UMA é chamado normal se comuta com seu adjunto: UMA * UMA = AA *. É chamado Hermitiano se for igual ao seu adjunto: UMA * = UMA . Todas as matrizes hermitianas são normais. Se UMA tem apenas elementos reais, então o adjunto é apenas a transposição, e UMA é hermitiano se e somente se for simétrico. Quando aplicado a vetores de coluna, o adjunto pode ser usado para definir o produto interno canônico em C n : Cv = C * v . [nota 3] Matrizes normais, hermitianas e simétricas reais têm várias propriedades úteis:

  • Cada autovetor generalizado de uma matriz normal é um autovetor comum.
  • Qualquer matriz normal é semelhante a uma matriz diagonal, já que sua forma normal de Jordan é diagonal.
  • Autovetores de autovalores distintos de uma matriz normal são ortogonais.
  • O espaço nulo e a imagem (ou espaço da coluna) de uma matriz normal são ortogonais entre si.
  • Para qualquer matriz normal UMA , Cn tem uma base ortonormal que consiste em autovetores de UMA . A matriz correspondente de autovetores é unitária.
  • Os valores próprios de uma matriz Hermitiana são reais, uma vez que ( λλ)v = (UMA * − UMA)v = (UMAUMA)v = 0 para um autovetor diferente de zero v .
  • Se UMA é real, existe uma base ortonormal para Rn consistindo em vetores próprios de UMA se e apenas se UMA é simétrico.

É possível que uma matriz real ou complexa tenha todos os autovalores reais sem ser hermitiana. Por exemplo, uma matriz triangular real tem seus autovalores ao longo de sua diagonal, mas em geral não é simétrica.

Qualquer problema de cálculo numérico pode ser visto como a avaliação de alguma função f para alguma entrada x . O número da condição κ(f, x) do problema é a razão entre o erro relativo na saída da função e o erro relativo na entrada, e varia com a função e a entrada. O número da condição descreve como o erro aumenta durante o cálculo. Seu logaritmo de base 10 informa quantos dígitos de precisão a menos existem no resultado do que na entrada. O número da condição é o melhor cenário. Ele reflete a instabilidade embutida no problema, independentemente de como ele é resolvido. Nenhum algoritmo pode produzir resultados mais precisos do que os indicados pelo número da condição, exceto por acaso. No entanto, um algoritmo mal projetado pode produzir resultados significativamente piores. Por exemplo, conforme mencionado abaixo, o problema de encontrar autovalores para matrizes normais é sempre bem condicionado. No entanto, o problema de encontrar as raízes de um polinômio pode ser muito mal condicionado. Assim, algoritmos de autovalor que funcionam encontrando as raízes do polinômio característico podem ser mal condicionados mesmo quando o problema não está.

Para o problema de resolver a equação linear UMAv = b Onde UMA é invertível, o número da condição κ(UMA −1 , b) é dado por ||UMA||op||UMA −1 ||op , onde || ||op é a norma do operador subordinada à norma euclidiana normal em C n . Uma vez que este número é independente de b e é o mesmo para UMA e UMA -1, geralmente é chamado apenas de número de condição κ(UMA) da matriz UMA . Este valor κ(UMA) é também o valor absoluto da razão do maior autovalor de UMA ao menor. Se UMA é unitário, então ||UMA||op = ||UMA −1 ||op = 1, então κ(UMA) = 1. Para matrizes gerais, a norma do operador costuma ser difícil de calcular. Por esse motivo, outras normas de matriz são comumente usadas para estimar o número da condição.

Para o problema do autovalor, Bauer e Fike provaram que se λ é um valor próprio para um diagonalizável n × n matriz UMA com matriz de autovetores V , então o erro absoluto no cálculo λ é limitado pelo produto de κ(V) e o erro absoluto em UMA . [2] Como resultado, o número da condição para encontrar λ é κ(λ, UMA) = κ(V) = ||V ||op ||V −1 ||op . Se UMA é normal então V é unitário, e κ(λ, UMA) = 1. Portanto, o problema dos autovalores para todas as matrizes normais é bem condicionado.

O número da condição para o problema de encontrar o espaço próprio de uma matriz normal UMA correspondendo a um valor próprio λ demonstrou ser inversamente proporcional à distância mínima entre λ e os outros valores próprios distintos de UMA . [3] Em particular, o problema do espaço próprio para matrizes normais é bem condicionado para valores próprios isolados. Quando os autovalores não são isolados, o melhor que se pode esperar é identificar a amplitude de todos os autovetores de autovalores próximos.

Qualquer polinômio monic é o polinômio característico de sua matriz companheira. Portanto, um algoritmo geral para encontrar autovalores também pode ser usado para encontrar as raízes de polinômios. O teorema de Abel-Ruffini mostra que qualquer algoritmo para dimensões maiores que 4 deve ser infinito ou envolver funções de maior complexidade do que operações aritméticas elementares e potências fracionárias. Por essa razão, algoritmos que calculam exatamente os valores próprios em um número finito de etapas existem apenas para algumas classes especiais de matrizes. Para matrizes gerais, os algoritmos são iterativos, produzindo melhores soluções aproximadas a cada iteração.

Alguns algoritmos produzem cada autovalor, outros produzem alguns, ou apenas um. No entanto, mesmo os últimos algoritmos podem ser usados ​​para encontrar todos os valores próprios. Uma vez que um autovalor λ de uma matriz UMA foi identificado, ele pode ser usado para direcionar o algoritmo para uma solução diferente na próxima vez, ou para reduzir o problema a um que não tem mais λ como uma solução.

O redirecionamento geralmente é realizado por deslocamento: substituindo UMA com UMAµI por alguma constante µ . O autovalor encontrado para UMAµI deve ter µ adicionado de volta para obter um valor próprio para UMA . Por exemplo, para iteração de energia, µ = λ . A iteração de potência encontra o maior autovalor em valor absoluto, portanto, mesmo quando λ é apenas um valor próprio aproximado, é improvável que a iteração de energia o encontre uma segunda vez. Por outro lado, os métodos baseados em iteração inversa encontram o menor valor próprio, então µ é escolhido bem longe de λ e esperançosamente mais perto de algum outro autovalor.

A redução pode ser conseguida restringindo UMA para o espaço da coluna da matriz UMAλI , qual UMA carrega para si. Desde UMA - λI é singular, o espaço da coluna é de menor dimensão. O algoritmo de autovalor pode então ser aplicado à matriz restrita. Este processo pode ser repetido até que todos os autovalores sejam encontrados.

Se um algoritmo de autovalor não produz autovetores, uma prática comum é usar um algoritmo baseado em iteração inversa com µ definido para uma aproximação próxima ao valor próprio. Isso irá convergir rapidamente para o autovetor do autovalor mais próximo de µ . Para pequenas matrizes, uma alternativa é olhar para o espaço da coluna do produto de UMAλ ' eu para cada um dos outros valores próprios λ ' .


Ortogonalização Simultânea

Em nossa discussão anterior sobre iteração de potência, precisamos reiniciar o algoritmo após cada autovetor ser encontrado. Se quisermos um conjunto completo de autovetores da matriz, precisamos executar uma seqüência de iteração de potência total (a dimensão da matriz) vezes.

A razão de não podermos simplesmente executar iterações de potência simultaneamente, semeadas com uma base de vetores, é que tínhamos mais ou menos garantia de que todas elas convergiriam para o mesmo vetor (aquele com o maior autovalor). Se quisermos encontrar todos os vetores próprios de uma vez, precisamos evitar que isso aconteça.

Suponha que ajustemos a base em cada iteração por ortogonalizando-o. Ou seja, em cada etapa, inserimos a operação

Se tivermos sorte, isso impedirá que todas as iterações de energia separadas convergam para o mesmo lugar. Em vez disso, eles (com sorte) convergirão para uma base ortogonal. Este é realmente o caso, e o algoritmo resultante é chamado ortogonalização simultânea.

Lembre-se de que o processo de ortogonalização de uma base é codificado na -fatoração de uma matriz. Com isso em mente, podemos escrever as etapas do algoritmo de ortogonalização simultânea da seguinte maneira.

Começar com . Em seguida, proceda da seguinte forma

…e assim por diante. A sequência de matrizes ortogonais geradas converge, e o limite é uma matriz de vetores próprios de.

Se aplicarmos este algoritmo à nossa matriz de exemplo, a sequência de matrizes geradas é

Vemos que, pelo menos até o sinal, o algoritmo de ortogonalização simultânea reproduz a matriz de vetores próprios de, conforme pretendido.

Uma propriedade matemática da ortogonalização simultânea

Precisaremos de uma propriedade interessante dos iterados do algoritmo de ortogonalização simultânea para uso posterior, então vamos fazer uma digressão por enquanto para discuti-la.

As etapas do algoritmo de ortogonalização simultânea podem ser reorganizadas para isolar as matrizes triangulares superiores

Se multiplicarmos as sequências resultantes, obtemos, por exemplo

Usando a ortogonalidade dos resultados em

É fácil ver que isso se aplica a qualquer estágio da computação, então obtemos as identidades

Agora, como assumimos que não tem autovalores zero, é invertível. As -fatorizações de matrizes invertíveis são únicas 5. Isso significa que podemos interpretar a identidade acima como expressão da -fatorização única dos poderes de


Cálculo de vetores próprios

Este é um sistema linear para o qual o coeficiente da matriz é. Como o vetor zero é uma solução, o sistema é consistente. Na verdade, iremos em uma página diferente que a estrutura do conjunto de soluções deste sistema é muito rica. Nesta página, discutiremos basicamente como encontrar as soluções.

Observação. É muito fácil notar que se X é um vetor que satisfaz, então o vetor Y = c X (para qualquer número arbitrário c) satisfaz a mesma equação, ou seja. Em outras palavras, se sabemos que X é um autovetor, então cX também é um autovetor associado ao mesmo autovalor.

Vamos começar com um exemplo.

Exemplo. Considere a matriz

Primeiro, procuramos os autovalores de A. Estes são dados pela equação característica, ou seja,

Se desenvolvermos este determinante usando a terceira coluna, obtemos

Usando manipulações algébricas fáceis, obtemos

o que implica que os autovalores de A são 0, -4 e 3.
Em seguida, procuramos os vetores próprios. 1. Caso: Os autovetores associados são dados pelo sistema linear

que pode ser reescrito por

Muitas maneiras podem ser usadas para resolver este sistema. A terceira equação é idêntica à primeira. Uma vez que, a partir das segundas equações, temos y = 6 x, a primeira equação se reduz a 13 x + z = 0. Portanto, este sistema é equivalente a

Portanto, o vetor desconhecido X é dado por

Portanto, qualquer autovetor X de A associado ao autovalor 0 é dado por

onde c é um número arbitrário.

2. Caso: Os autovetores associados são dados pelo sistema linear

que pode ser reescrito por

Nesse caso, usaremos operações elementares para resolvê-lo. Primeiro, consideramos a matriz aumentada, ou seja,

Em seguida, usamos operações de linha elementares para reduzi-lo a uma forma triangular superior. Primeiro, trocamos a primeira linha com a primeira para obter

Em seguida, usamos a primeira linha para eliminar o 5 e o 6 da primeira coluna. Nós obtemos

Se cancelarmos o 8 e o 9 da segunda e terceira linhas, obtemos

Finalmente, subtraímos a segunda linha da terceira para obter

Em seguida, definimos z = c. A partir da segunda linha, obtemos y = 2 z = 2 c. A primeira linha implicará x = -2 y +3 z = - c. Por isso

Portanto, qualquer autovetor X de A associado ao autovalor -4 é dado por

onde c é um número arbitrário.

2. Caso: Os detalhes deste caso serão deixados para o leitor. Usando ideias semelhantes às descritas acima, pode-se facilmente mostrar que qualquer autovetor X de A associado ao autovalor 3 é dado por

onde c é um número arbitrário.

Observação. Em geral, os valores próprios de uma matriz não são todos distintos entre si (consulte a página dos valores próprios para obter mais detalhes). Nos próximos dois exemplos, discutiremos esse problema.

Exemplo. Considere a matriz

A equação característica de A é dada por

Portanto, os autovalores de A são -1 e 8. Para o autovalor 8, é fácil mostrar que qualquer autovetor X é dado por

onde c é um número arbitrário. Vamos nos concentrar no autovalor -1. Os autovetores associados são dados pelo sistema linear

que pode ser reescrito por

Claramente, a terceira equação é idêntica à primeira, que também é um múltiplo da segunda equação. Em outras palavras, este sistema é equivalente ao sistema reduzido a uma equação

Para resolvê-lo, precisamos consertar duas das incógnitas e deduzir a terceira. Por exemplo, se definirmos e, obteremos. Portanto, qualquer autovetor X de A associado ao autovalor -1 é dado por

Em outras palavras, qualquer autovetor X de A associado ao autovalor -1 é uma combinação linear dos dois autovetores

Exemplo. Considere a matriz

A equação característica é dada por

Portanto, a matriz A tem um valor próprio, ou seja, -3. Vamos encontrar os autovetores associados. Estes são dados pelo sistema linear

que pode ser reescrito por

Este sistema é equivalente a um sistema de equações

So if we set x = c , then any eigenvector X of A associated to the eigenvalue -3 is given by

Let us summarize what we did in the above examples.

Summary : Let A be a square matrix. Assume is an eigenvalue of A . In order to find the associated eigenvectors, we do the following steps:
1. Write down the associated linear system

2. Solve the system. 3. Rewrite the unknown vector X as a linear combination of known vectors.

The above examples assume that the eigenvalue is real number. So one may wonder whether any eigenvalue is always real. In general, this is not the case except for symmetric matrices. The proof of this is very complicated. For square matrices of order 2, the proof is quite easy. Let us give it here for the sake of being little complete.
Consider the symmetric square matrix

Its characteristic equation is given by

This is a quadratic equation. The nature of its roots (which are the eigenvalues of A ) depends on the sign of the discriminant

Using algebraic manipulations, we get

Therefore, is a positive number which implies that the eigenvalues of A are real numbers.


Computing all Laplacian H-eigenvalues for a uniform loose path of length three

The spectral theory of Laplacian tensor is an important tool for revealing some important properties of a hypergraph. It is meaningful to compute all Laplacian H-eigenvalues for some special k-uniform hypergraphs. For a k-uniform loose path of length three, the Laplacian H-spectrum has been studied when k is odd. However, all Laplacian H-eigenvalues of a k-uniform loose path of length three have not been found out. In this paper, we compute all Laplacian H-eigenvalues for a k-uniform loose path of length three. We show that the number of Laplacian H-eigenvalues of an odd(even)-uniform loose path with length three is 7(14). Some numerical results are given to show the efficiency of our method. Especially, the numerical results show that its Laplacian H-spectrum converges to (<0, 1, 1.5, 2>) when k goes to infinity. Finally, we show that the convergence of Laplacian H-spectrum from theoretical analysis.

Esta é uma prévia do conteúdo da assinatura, acesso através de sua instituição.


4. Eigenvalues, Determinants and Diagonalization

Eigenvalues and determinants reveal quite a bit of information about a matrix. In this lab we will learn how to use MATLAB to compute the eigenvalues, eigenvectors, and the determinant of a matrix. We will also learn about diagonalization and how it can be applied to study certain problems in population dynamics.

As you should be aware by now, there is a nice formula for calculating the determinant of a 2x2 matrix. Even the 3x3 case is not that difficult. But as matrix size increases so does the complexity of calculating determinants. This is where MATLAB, or any other computer algebra program, comes in.

Let's start by entering the following matrices into MATLAB. (You'll need to do this before proceeding with the rest of the example.)

To compute the determinants of these matrices we are going to use the command det() . That is, to compute the determinant of A we type the following

MATLAB gives us 76 as the answer. Similarly we get

(uma) Use MATLAB to compute the determinants of the following matrices:

UMA + B, UMA - B, AB, UMA -1 , B T

Recall: In MATLAB the transpose of a matrix is denoted with an apostrophe i.e. B T is given by the command

Remark 4.1 The main use of determinants in this class relates to the idea of invertibility. When you use MATLAB for that purpose, you have to understand that the program introduces rounding errors. Therefore, there is a possibility that a matrix may appear to have zero determinant and yet be invertible. This only applies to matrices with non-integer entries. The above matrices don't fall into this category as all their entries are integers.

Exercise 4.2 In this exercise we are going to work with the following matrix:

Usar det() to compute the determinant of N 100 . Do you think that N 100 is invertible? Also use the command to compute the determinant of N.

Now, using the determinant of N as a known quantity, calculate by hand the determinant of N 100 . Would you now reconsider your answer to the previous question? Explique.

Hint: look at Remark 4.1 and consider some of the properties of determinants.

§4.3 Eigenvalues and Eigenvectors

Given a matrix UMA, recall that an eigenvalue of UMA é um número λ de tal modo que UMAv = λ v for some vector v. O vetor v is called an eigenvector corresponding to the eigenvalue λ . Generally, it is rather unpleasant to compute eigenvalues and eigenvectors of matrices by hand. Luckily MATLAB has a function eig() that performs this task for us.

Compute the eigenvalues of the matrix B from example 4.1 and assign the values to a vector b.

We do this by typing the following:

The eigenvalues are 1, 8, 3, 2. There are four of them because our matrix is 4x4. Notice also that it is very easy to compute the determinant of B. All we have to do is multiply all the eigenvalues together. Clearly 48 = 1*8*3*2. (Further information about this can be found in your linear algebra book, Linear Algebra and Its Applications by D. Lay, in chapter 5 section 2.)

If we wanted to compute the eigenvalues of B together with the corresponding eigenvectors we would type in the following command:

1.0000 -0.1980 0.2357 0.9074
0 0.6931 -0.2357 -0.1815
0 0.6931 0.9428 0.3630
0 0 0 0.1089

1 0 0 0
0 8 0 0
0 0 3 0
0 0 0 2

MATLAB returns the matrix P consisting of the eigenvectors of B as its columns and a diagonal matrix D with the corresponding eigenvalues along the diagonal. So in the example above, the vector (-0.1980, 0.6931, 0.6931, 0) T , which is in the second column of P, is the eigenvector of B corresponding to the eigenvalue 8 which is the second entry on the diagonal of D.

Let's do a quick check of MATLAB's output and our own understanding. Enter the following command into MATLAB:

This will store the second column of P, that is, the second eigenvector of P. Now enter the following in MATLAB:

The output shows that Bx = 8x, which we would expect, since x is the eigenvalue of B corresponding to the eigenvalue 8.

The next exercise demonstrates a rather amazing property eigenvalues and eigenvectors to diagonalization.

(uma) Enter the following matrix V into MATLAB:

>> V = [9 -4 -2 0
-56 32 -28 44
-14 -14 6 -14
42 -33 21 -45]

Now use MATLAB to find the eigenvectors and corresponding eigenvalues of V. Assign them to matrices P e D respectivamente.

Recall that a matrix UMA is called diagonalizable, if we can find an invertible matrix P de tal modo que P -1 AP is diagonal. This idea may seem quite arbitrary to you after all, why would anyone want to modify the matrix UMA in such a manner just to make it diagonal? To give you some idea as to why we would want to do this, consider the problem of raising some matrix UMA to a large power, say 100. We could, of course, multiply UMA by itself 100 times, but that would be rather time-consuming and ineffective. Instead, if we could express UMA Como PDP -1 , where D is a diagonal matrix and P is some invertible matrix, then, we could significantly simplify our work by noting that

UMA 100 = (PDP -1 ) 100 = (PDP -1 )(PDP -1 )(PDP -1 ). (PDP -1 ) = PD(P -1 P)D(P -1 P)D(P -1 P). (P -1 P)DP -1 = PD 100 P -1 .

The upshot of this computation is that dealing with D 100 is much easier than with UMA 100 because to raise a diagonal matrix to a power, we simply raise all of its entries to that power. Thus, there is no need to perform as many matrix multiplications.

Not every matrix is diagonalizable, however. Recall that to diagonalize an n x n matriz UMA we must find a basis of R n consisting of eigenvectors of UMA. Then forming a matrix P whose columns are the elements of this basis, we get P -1 AP = D, Onde D is a diagonal matrix whose entries on the diagonal are the eigenvalues of UMA corresponding to the eigenvectors in the respective columns of P. Se R n does not possess such a basis of eigenvectors, then UMA is not diagonalizable.

Recall from class the following theorem:

Theorem: If an nxn matrix has n distict eigenvalues the matrix is diagonalizable.

Note, however, if the matrix does not have n distict eigenvalues this theorem does not give us any information other means are needed to determine if is diagonalizable or not.

Remark 4.2 Part (a) of the preceding exercise says that if a matrix has distinct eigenvalues, then it is diagonalizable. Note that the converse to this statement is not necessarily true i.e., if a matrix is diagonalizable, it is not necessarily true that all its eigenvalues are distinct. A matrix can be diagonalizable even if it has repeated eigenvalues: think about the identity matrix (already diagonal) whose eigenvalues are all 1.

Use MATLAB to find an invertible matrix P and a diagonal matrix D de tal modo que PDP -1 = F

Remark 4.3 The sequence in the above exercise is called a Fibonacci sequence. It has many interesting properties and appears often in nature. The above problem points in the direction of how to find an explicit formula for the n th term in this sequence (it is not obvious a priori that such a formula must even exist). To obtain this formula simply note that if we let

be our Fibonacci sequence and let

f =( f0, f1) T = (1, 1) T , then

F 2 f = F(Ff) = F*( f1, f2) T = (f2, f1 + f2) T = (f2, f3) T and in general,

F n f= (fn, fn+1) T

Thus, to get the general formula we need to compute F n , (which is done by computing PD n P -1 ), multiply it by the vector (1, 1) T and read off the first row of the resulting vector. If you like, you may perform these calculations by hand at your leisure and derive an interesting formula for the n th Fibonacci number involving the golden ratio.

§4.5 Returning to: Matrices and Presidential Elections

At the end of the last lab, we said that we would revisit our election example once we had a bit more mathematics under our belts. We have included the text from last time in case you want a review. If you feel confident on our work from last time, feel free to skip this review. You will need the results of the exercise from last time, so if you didn't save them, it would be helpful to rework them before moving on.

Certainly, the title of this section sounds a bit strange. What do matrices and presidents have in common? Let us consider a math model which is used in many subjects involving dynamics by illustrating it in a simple "sociological" situation. In California when you register to vote you declare a party affiliation. Suppose we have four political parties: Democrats, Republicans, Independents, and Libertarians, and we get the (publically available) data telling us what percentage of voters in each party switch to a different party every 4 years. So we may be told something like this. "81% of Democrats remain Democrats, 9% convert to Republicans, 6% switch to Independents and 4% become Libertarians." Suppose we have this sort of information for each party, and we organize it into a matrix, which we shall call P, as follows:

Democrats Republicans Independents Libertarians
Democrats 0.81 0.08 0.16 0.10
Republicans 0.09 0.84 0.05 0.08
Independente 0.06 0.04 0.74 0.04
Libertarians 0.04 0.04 0.05 0.78

(For example, the 0.05 in the second row and third column indicates that every four years, 5% of those calling themselves Independent will switch to the Republican party.) Note that we are assuming that these percentages do not change from one election to the next. This is not a very realistic assumption, but it will do for our simple model.

The question of course is to try to determine the outcome of all future elections, and if possible, the composition of the electorate in the long term. Deixar D0, R0, eu0 e eu0 denote the current percentage of Democrats, Republicans, Independents and Libertarians. In four years these numbers will change according to the matrix above, as follows:

Deixar xn be the vector (D n , R n , eu n , eu n ) T . It represents the percentage of representatives of each party after n presidential elections and we shall call it the party distribution. From the calculation above we see that

x1 = Px 0

x2 = P 2 x0 and in general xn = P n x0

Assuming everyone voted along party lines, from the presidential election of 2004 we know that x0 is roughly (48.56, 51.01, 0.0013, 0.0030) T

(uma) Enter the matrix P and the vector x0 into MATLAB. To avoid mistakes, just copy and paste this:

>> P = [0.8100 0.0800 0.1600 0.1000
0.0900 0.8400 0.0500 0.0800
0.0600 0.0400 0.7400 0.0400
0.0400 0.0400 0.0500 0.7800]

What will the party distribution vector be 3, 7, and 10 presidential elections from now?

From the previous exercise you probably observed that the results seem to stabilize the further into the future we go. Let us try to explain this mathematically.


2 respostas 2

Passo 1: find eigenvalues. $chi_A(lambda) = det(A-lambda I) = -lambda^3+5lambda^2-8lambda+4 = -(lambda-1)(lambda-2)^2$ . We are lucky, all eigenvalues are real.

Passo 2: for each eigenvalue $lambda_imath$ , find rank of $A-lambda_imath I$ (or, rather, nullity, $dim(ker(A-lambda_imath I))$ ) and kernel itself. For $lambda=1$ : $A-lambda I = pmatrix<-8 && 8 && 2 -4 && 4 && 1 -23 && 21 && 6>, ker(A-lambda I) = L(pmatrix<3 1 8>)$ ( $L(v_1, v_2, . v_n)$ denotes the linear hull of vectors, the set of all their linear combinations.) Algebraic multiplicity of the root is 1, geometric multiplicity is 1, we're done here. For $lambda=2$ : $A-lambda I = pmatrix<-9 && 8 && 2 -4 && 3 && 1 -23 && 21 && 5>, ker(A-lambda I) = L(pmatrix<2 1 5>)$ Algebraic multiplicity of the root is 2, geometric multiplicity is 1. We're unlucky, now we have to solve $(A-lambda I)v=pmatrix <2 1 5>sim v = pmatrix<0 0 1>$ etapa 3: our matrix in basis $(pmatrix<3 1 8>,pmatrix<2 1 5>,pmatrix<0 0 1>)$ has form $J_A = pmatrix<1 && 0 && 0 0 && 2 && 1 0 && 0 && 2>$ . Matrix $P$ corresponding to this basis change is $pmatrix<3 && 2 && 0 1 && 1 && 0 8 && 5 && 1>$ , i.e. $P^<-1>AP=J_A$ .

Observação: If you have a root of algebraic multiplicity 3, but there's only one eigenvector $v_1$ , then you seek $v_2:(A−λI)v_2=v_1$ and then $v_3:(A−λI)v_3=v_2$ (note the index!). But when the nullity of $A−λI$ is greater than 1 (and less than algebraic multiplicity), things get a bit tricky. You have to find maximal $k : (A−λI)^k≠0$ , then find vector(s) $v_k:(A−λI)^k v_k=0,,(A−λI)^v_k≠0$ (chain generators) and then proceed $v_=(A−λI)v_k,v_=(A−λI)v_. $ up to an eigenvector $v_1$ (see "Jordan chains").


Assista o vídeo: 25 Czym Są Wartości Własne i Wektory Własne (Outubro 2021).