Calculul valorilor şi vectorilor proprii

Σχετικά έγγραφα
2 Transformări liniare între spaţii finit dimensionale

Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate.

V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile

Spatii liniare. Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară. Mulţime infinită liniar independentă

Metode iterative pentru probleme neliniare - contractii

(a) se numeşte derivata parţială a funcţiei f în raport cu variabila x i în punctul a.

5. FUNCŢII IMPLICITE. EXTREME CONDIŢIONATE.

Sisteme diferenţiale liniare de ordinul 1

Curs 14 Funcţii implicite. Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi"

Esalonul Redus pe Linii (ERL). Subspatii.

Seminar Algebra. det(a λi 3 ) = 0

a n (ζ z 0 ) n. n=1 se numeste partea principala iar seria a n (z z 0 ) n se numeste partea

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor X) functia f 1

1.3 Baza a unui spaţiu vectorial. Dimensiune

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor

Asupra unei inegalităţi date la barajul OBMJ 2006

Curs 4 Serii de numere reale

Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane

Planul determinat de normală şi un punct Ecuaţia generală Plane paralele Unghi diedru Planul determinat de 3 puncte necoliniare

METODE NUMERICE: Laborator #7 Calculul valorilor proprii si vectorilor proprii prin metodele puterii. Metoda Householder

DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE

Curs 1 Şiruri de numere reale

Seminar 5 Analiza stabilității sistemelor liniare

SERII NUMERICE. Definiţia 3.1. Fie (a n ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0

III. Serii absolut convergente. Serii semiconvergente. ii) semiconvergentă dacă este convergentă iar seria modulelor divergentă.

Curs 2 Şiruri de numere reale

Cursul Măsuri reale. D.Rusu, Teoria măsurii şi integrala Lebesgue 15

CURS 11: ALGEBRĂ Spaţii liniare euclidiene. Produs scalar real. Spaţiu euclidian. Produs scalar complex. Spaţiu unitar. Noţiunea de normă.

Definiţia generală Cazul 1. Elipsa şi hiperbola Cercul Cazul 2. Parabola Reprezentari parametrice ale conicelor Tangente la conice

Integrala nedefinită (primitive)

Matrice. Determinanti. Sisteme liniare

Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism. (Y = f(x)).

R R, f ( x) = x 7x+ 6. Determinați distanța dintre punctele de. B=, unde x și y sunt numere reale.

Algebră liniară CAPITOLUL 3

Seminariile Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reziduurilor

CURS 5 Spaţii liniare. Spaţiul liniar R n

EDITURA PARALELA 45 MATEMATICĂ DE EXCELENŢĂ. Clasa a X-a Ediţia a II-a, revizuită. pentru concursuri, olimpiade şi centre de excelenţă

Lucrare. Varianta aprilie I 1 Definiţi noţiunile de număr prim şi număr ireductibil. Soluţie. Vezi Curs 6 Definiţiile 1 şi 2. sau p b.

SEMINAR 14. Funcţii de mai multe variabile (continuare) ( = 1 z(x,y) x = 0. x = f. x + f. y = f. = x. = 1 y. y = x ( y = = 0

1. Sisteme de ecuaţii liniare Definiţia 1.1. Fie K un corp comutativ. 1) Prin sistem de m ecuaţii liniare cu n necunoscute X 1,...

CURS XI XII SINTEZĂ. 1 Algebra vectorială a vectorilor liberi

Conice - Câteva proprietǎţi elementare

O generalizare a unei probleme de algebră dată la Olimpiada de Matematică, faza judeţeană, 2013

Capitolul 4 PROPRIETĂŢI TOPOLOGICE ŞI DE NUMĂRARE ALE LUI R. 4.1 Proprietăţi topologice ale lui R Puncte de acumulare

Metode de interpolare bazate pe diferenţe divizate

Capitolul 4. Integrale improprii Integrale cu limite de integrare infinite

Criterii de comutativitate a grupurilor

Nicolae Cotfas ELEMENTE DE EDITURA UNIVERSITĂŢII DIN BUCUREŞTI

Principiul Inductiei Matematice.

Criptosisteme cu cheie publică III

2.1 Sfera. (EGS) ecuaţie care poartă denumirea de ecuaţia generală asferei. (EGS) reprezintă osferă cu centrul în punctul. 2 + p 2

Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM 1 electronica.geniu.ro

1.4 Schimbarea bazei unui spaţiu vectorial

z a + c 0 + c 1 (z a)

Vectori liberi Produs scalar Produs vectorial Produsul mixt. 1 Vectori liberi. 2 Produs scalar. 3 Produs vectorial. 4 Produsul mixt.

Calculul valorilor proprii

2.9 Forme biafine Forme pătratice afine. Aducerea la forma canonică Centre de simetrie Varietăţi pătratice...

3. Vectori şi valori proprii

CONCURS DE ADMITERE, 17 iulie 2017 Proba scrisă la MATEMATICĂ

Functii Breviar teoretic 8 ianuarie ianuarie 2011

Conice. Lect. dr. Constantin-Cosmin Todea. U.T. Cluj-Napoca

Progresii aritmetice si geometrice. Progresia aritmetica.

PROBLEME DE VALORI ŞI VECTORI PROPRII

Sala: Octombrie 2014 SEMINAR 1: ALGEBRĂ. este un Q-spaţiu vectorial, faţă de operaţiile uzuale de adunare şi înmulţire cu un număr raţional.

Spaţii vectoriale. Definiţia 1.1. Fie (K, +, ) un corp şi (V, +) un grup abelian.

Algebră liniară CAPITOLUL 1

Subiecte Clasa a VIII-a

Ecuatii exponentiale. Ecuatia ce contine variabila necunoscuta la exponentul puterii se numeste ecuatie exponentiala. a x = b, (1)

Matrici şi sisteme de ecuaţii liniare

Gheorghe PROCOPIUC PROBLEME DE ALGEBRĂ LINIARĂ GEOMETRIE

COLEGIUL NATIONAL CONSTANTIN CARABELLA TARGOVISTE. CONCURSUL JUDETEAN DE MATEMATICA CEZAR IVANESCU Editia a VI-a 26 februarie 2005.

8 Intervale de încredere

Sala: 2103 Octombrie 2014 CURS 1: ALGEBRĂ. Fie K corp comutativ cu elementul neutru la înmulţire notat prin 1 iar 0 la adunare.

Lucian Maticiuc CURS I II. 1 Matrice şi determinanţi. Sisteme de ecuaţii liniare. 1.1 Matrice şi determinanţi

Ariadna Lucia Pletea Adrian Corduneanu Mircea Lupan LECŢII DE ALGEBRĂ LINIARĂ

Toate subiectele sunt obligatorii. Timpul de lucru efectiv este de 3 ore. Se acordă din oficiu 10 puncte. SUBIECTUL I.

* K. toate K. circuitului. portile. Considerând această sumă pentru toate rezistoarele 2. = sl I K I K. toate rez. Pentru o bobină: U * toate I K K 1

Examen AG. Student:... Grupa: ianuarie 2016

Aplicaţii ale principiului I al termodinamicii la gazul ideal

Examen AG. Student:... Grupa:... ianuarie 2011

RĂSPUNS Modulul de rezistenţă este o caracteristică geometrică a secţiunii transversale, scrisă faţă de una dintre axele de inerţie principale:,

Subiecte Clasa a VII-a

Concurs MATE-INFO UBB, 1 aprilie 2017 Proba scrisă la MATEMATICĂ

MARCAREA REZISTOARELOR

Geometrie computationala 2. Preliminarii geometrice

Ion CRĂCIUN CAPITOLE DE MATEMATICI SPECIALE EDITURA PIM

riptografie şi Securitate

Cursul de recuperare Algebra. v n. daca in schimb exista coecienti λ 1, λ 2,..., λ n nu toti nuli care satisfac relatia (1), de exemplu λ i 0 = A =

GEOMETRIE ANALITICĂ. Mihai-Sorin Stupariu

Ecuatii trigonometrice

Exemplu de lucrare de licenţă

f(x) = l 0. Atunci f are local semnul lui l, adică, U 0 V(x 0 ) astfel încât sgnf(x) = sgnl, x U 0 D\{x 0 }. < f(x) < l +

Lectia III Produsul scalar a doi vectori liberi

Sisteme liniare - metode directe

Calculul funcţiilor de matrice Exponenţiala matriceală

Adriana-Ioana Lefter DIFERENŢIALE) Anul I, Facultatea de Chimie Note de curs

Funcţii Ciudate. Beniamin Bogoşel

, m ecuańii, n necunoscute;

Lectia IV Produsul vectorial a doi vectori liberi

Vladimir BALAN. Algebră Liniară, Geometrie Analitică, şi Elemente de Geometrie Diferenţială. Student Web Copy. = Bucureşti 2011 =

Transcript:

Capitolul 4 Calculul valorilor şi vectorilor proprii Valorile şi vectorii proprii joacă un rol fundamental în descrierea matematică a unor categorii foarte largi de procese tehnice, economice, biologice etc. Astfel, proprietăţi esenţiale (cum este, e.g. stabilitatea) ale modelelor matematice cunoscute sub denumirea de sisteme dinamice se exprimă în raport cu valorile proprii ale unor matrice. În acest context, calculul cât mai eficient şi mai exact al valorilor şi vectorilor proprii se impune cu necesitate. Cadrul cel mai natural de abordare a problemei este cel al matricelor complexe, în care caz valorile şi vectorii proprii sunt, în general, numere complexe, respectiv vectori complecşi. Totuşi, majoritatea problemelor tehnice conduc la necesitatea calculului valorilor şi vectorilor proprii pentru matrice reale. Deşi valorile proprii şi vectorii proprii asociaţi ai unei matrice reale pot fi numere complexe, respectiv vectori complecşi, calculul cu numere complexe este sensibil mai puţin eficient şi, din acest motiv, în cazul datelor iniţiale reale, dezvoltările procedurale vor urmări utilizarea, practic exclusivă, a calculului cu numere reale. 4.1 Formularea problemei 4.1.1 Valori şi vectori proprii Valorileşi vectoriipropriipentru o matricepătratăa IC n n sunt noţiuni introduse în capitolul 1 în contextul prezentării unor algoritmi de calcul elementari (secţiunea 1.10). Problema determinării valorilor şi vectorilor proprii poate fi apreciată ca fiind simplă numai pentru matrice cu structură triunghiulară, caz care a şi fost tratat în capitolul menţionat (v. algoritmul 1.23). Cu riscul de a ne repeta, reluăm câteva definiţii şi rezultate fundamentale introduse în 1.10 cu dezvoltările corespunzătoare necesare abordării problemei în cazul general.

210 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII Definiţia 4.1 Fie o matrice A IC n n. Un număr λ IC se numeşte valoare proprie a matricei A, dacă există un vector nenul x IC n astfel încât Ax = λx. (4.1) Un vector x 0 care satisface (4.1) se numeşte vector propriu al matricei A asociat valorii proprii λ. Valorile proprii ale matricei A IC n n, conform teoremei 1.13, sunt zerourile polinomului caracteristic p(λ) = det(λi n A), (4.2) care este un polinom de gradul n cu coeficienţi complecşi 1. În consecinţă, orice matrice A IC n n are exact n valori proprii complexe, nu neapărat distincte. Dacă matricea este reală, atunci polinomul caracteristic are coeficienţii reali şi valorile propriicomplexe apar înperechi complex-conjugate 2. Dacă x = u+iv IC n cu u, v IR n, este un vector propriu asociat valorii proprii λ = α+iβ, α, β IR, β 0, a unei matrice reale, atunci x = u iv este un vector propriu asociat valorii proprii λ = α iβ (verificaţi!). Ordinuldemultiplicitate n i alrădăciniiλ i apolinomuluicaracteristicsenumeşte multiplicitate algebrică a valorii proprii respective. Dacă n i = 1 valoarea proprie λ i se numeşte simplă. Mulţimea λ(a) = {λ 1,λ 2,...,λ n } = {λ IC det(λi A) = 0} (4.3) a valorilor proprii ale unei matrice A IC n n se numeşte spectrul matricei A, iar numărul real nenegativ ρ(a) = max( λ 1, λ 2,..., λ n ) (4.4) se numeşte raza spectrală a matricei A. Deci, în planul complex IC, valorile proprii ale unei matrice A sunt situate în discul închis de rază ρ(a) cu centrul în origine. Se poate arăta imediat că valorile proprii ale unei matrice A IC n n satisfac relaţiile n λ i = i=1 n i=1 a ii def = tr(a), n λ i = det(a), (4.5) unde tr(a) este, prin definiţie, urma matricei A. În particular, o matrice este singulară dacă şi numai dacă are (cel puţin) o valoare proprie nulă. Vectorii proprii introduşi prin definiţia 4.1 sunt denumiţi uneori vectori proprii la dreapta ai matricei A şi satisfac sistemul liniar omogen singular i=1 (λi n A)x = 0. (4.6) Deci, fiecărei valori proprii îi corespunde cel puţin un vector propriu. Vectorii proprii asociaţi valorilor proprii distincte sunt liniar independenţi. 1 Ecuaţia p(λ) = 0 se numeşte ecuaţie caracteristică a matricei A. 2 O mulţime de numere (reale şi complexe) în care numerele complexe apar în perechi complexconjugate va fi numită în continuare mulţime simetrică.

4.1. FORMULAREA PROBLEMEI 211 În acest context, vectorii proprii la stânga sunt vectorii nenuli y IC n ce satisfac condiţia y H A = λy H, (4.7) unde H reprezintă operatorul cumulat de transpunere şi conjugare. Aplicând operatorul H relaţiei (4.7) obţinem A H y = λy, (4.8) i.e. vectorii proprii la stânga ai matricei A asociaţi valorii proprii λ sunt vectori proprii (la dreapta) ai matricei A H asociaţi valorii proprii λ λ(a H ). De aici rezultă λ(a H ) = λ(a), (4.9) adică valorile proprii ale matricei A H sunt conjugatele valorilor proprii ale matricei A. Întrucât det(λi n A) = det(λi n A T ) matricele A şi A T au acelaşi polinom caracteristic şi, deci, aceleaşi valori proprii dar vectorii proprii, în general, diferă. Cum un vector propriu y al matricei A T asociat valorii proprii λ satisface A T y = λy sau y T A = λy T vectorii proprii reali ai matricei A T sunt vectori proprii la stânga ai matricei A. Dacă x i este un vector propriu al matricei A asociat valorii proprii λ i, vectorul y i = αx i este, de asemenea, un vector propriu al matricei A asociat aceleiaşi valori proprii λ i, oricare ar fi α IC, α 0. Mai mult, este clar că mulţimea vectorilor proprii asociaţi unei valori proprii λ i împreună cu vectorul nul din IC n formează subspaţiul liniar V i = Ker(λ i I n A) IC n numit subspaţiul propriu asociat valorii proprii λ i. Dimensiunea ν i = dimv i a subspaţiului propriu, i.e. numărul de vectori proprii liniar independenţi asociaţi lui λ i, se numeşte multiplicitate geometrică a valorii proprii λ i. Este evident că ν i n i. (4.10) 4.1.2 Subspaţii invariante Subspaţiile proprii sunt subspaţii A-invariante în sensul definiţiei următoare (v. şi 1.10). Definiţia 4.2 Fie o matrice A IC n n. Un subspaţiu liniar V IC n se numeşte subspaţiu invariant al matricei A sau, pe scurt, subspaţiu A-invariant dacă AV V i.e. Ax V, x V. (4.11) Cum IR n IC n, pot exista subspaţii A-invariante în IR n pentru matrice A complexe. De asemenea, pentru matrice A reale pot exista subspaţii A-invariante care nu sunt în IR n. Dintre proprietăţile subspaţiilor A-invariante amintim următoarele.

212 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII Propoziţia 4.1 Fie matricea A IC n n. 1. Dacă x 1, x 2,...,x p sunt vectori proprii ai matricei A, atunci subspaţiul S = Im[x 1 x 2... x p ] IC n este A-invariant. 2. Dacă S este un subspaţiu A-invariant cu dims = p şi coloanele matricei (monice) V = [v 1 v 2... v p ] IC n p formează o bază a lui S, atunci există o matrice B IC p p astfel încât AV = VB. (4.12) Mai mult, avem λ(b) λ(a). (4.13) (Matricea B se numeşte restricţia matricei A la subspaţiul A-invariant S şi se notează B = A S.) În particular, orice subspaţiu A-invariant nenul (i.e. p 1) conţine un vector propriu al matricei A. Reciproc, dacă are loc o relaţie de forma (4.12), atunci ImV este un subspaţiu A-invariant. 3 Complementul ortogonal T = S în IC n al subspaţiului A-invariant S este un subspaţiu A H -invariant. În cazul real un subspaţiu A-invariant generat de vectori proprii reali este, evident, real. Dacă x 1,2 = v 1 ± iv 2, v 1, v 2 IR n, sunt vectori proprii asociaţi unei perechi de valori proprii complex conjugate λ 1,2 = α ± iβ, α, β IR, β 0, atunci vectorii v 1, v 2 sunt liniar independenţi şi S = Im[v 1 v 2 ] este un subspaţiu A-invariant. Mai mult, dacă are loc o relaţie de forma (4.12), unde coloanele lui V IR n p formează o bază a unui subspaţiu A-invariant S IR n, atunci restricţia B IR p p a lui A la S satisface (4.13) cu λ(b) o mulţime simetrică. În sfârşit, complementul ortogonal T = S în IR n al subspaţiului A-invariant real S este un subspaţiu A T -invariant. Demonstraţie. Proprietatea 1 este evidentă. Pentru a arăta 2 să observăm că Av j S, de unde rezultă Av j = Vb j, j = 1 : p, i.e. (4.12) este adevărată. Dacă z IC p este un vector propriu al matricei B, i.e. Bz = µz, asociat valorii proprii µ λ(b), atunci din (4.12) avem AVz = µvz. Cum z 0 iar V este monică, rezultă y = Vz 0, i.e. y este un vector propriu al lui A conţinut în S. În consecinţă, S conţine un vector propriu al matricei A şi avem µ λ(a), deci (4.13) este adevărată. Acum, dacă are loc o relaţie de forma (4.12), atunci AVz = VBz = Vw ImV, z IC p, i.e. ImV este A-invariant. 3. Fie x S, y T doi vectori arbitrari. Atunci Ax S şi, deci, y H Ax = (A H y) H x = 0. Cum x S este arbitrar, rezultă A H y S, respectiv A H y T, i.e. T este A H -invariant. În cazul real, din A(v 1 ±iv 2 ) = (α±iβ)(v 1 ±iv 2 ) rezultă { [ ] Av1 = αv 1 βv 2 α β, i.e. AV = VB cu B =. (4.14) Av 2 = βv 1 +αv 2 β α Dacă v 1, v 2 sunt liniar dependenţi, atunci v 2 = γv 1 cu γ 0 şi din (4.14) rezultă β(1 + γ 2 )v 1 = 0. Cum β 0, obţinem v 1 = 0, de unde v 2 = 0 şi x 1,2 = 0, ceea ce contrazice definiţia vectorilor proprii. Celelalte afirmaţii se demonstrează similar cazului complex.

4.1. FORMULAREA PROBLEMEI 213 Exemplul 4.1 Se consideră matricea A = 1 6 care are polinomul caracteristic 5 25 9 1 5 9 0 24 24 p(λ) = det(λi 3 A) = λ 3 4λ 2 +6λ 4 şi valorile proprii λ 1 = 2, λ 2,3 = 1±i. Vectorii def x 1 = v 1 = 1 1 2, x 2,3 def = v 2 ±iv 3 = 5 1 2 ±i 2 2 2 sunt vectori proprii ai matricei A asociaţi valorilor proprii λ 1 şi, respectiv, λ 2,3. Fie V 1 = v 1 şi V 23 = [v 2 v 3 ]. Avem următoarele relaţii de tipul (4.12) (verificaţi!): [ ] 1 1 AV 1 = V 1 B 1 cu B 1 = 2, AV 23 = V 23 B 23 cu B 23 = 1 1 şi, prin urmare, S 1 = ImV 1 şi S 23 = ImV 23 (vezi fig.4.1) sunt subspaţii A-invariante, 3 IR S 3 1 =ImV 1 S 23 =ImV 23 v 1 v 2 0 v 3 2 1 Fig. 4.1: Vectori proprii şi subspaţii A-invariante pentru matricea A din exemplul 4.1. iar B 1 = A S 1 şi B 23 = A S 23 sunt restricţii ale matricei A la cele două subspaţii (sunt aceste restricţii unic determinate?). Propunem cititorului să calculeze complementele ortogonale înir 3 ale celordouă subspaţii şi săverificecă acestesubspaţii sunt A T -invariante. Problema de calcul care face obiectul acestui capitol este determinarea valorilor şi vectorilor proprii ai unei matrice date. Deşi pentru calculul unei valori proprii

214 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII sau al unui grup de valori proprii pot fi utilizate tehnici specifice, ne vom concentra demersul nostru, în principal, asupra problema de calcul al întregului spectru. Problema calculului vectorilor proprii va fi tratată în subsidiar, ţinând seama şi de faptul că în multe aplicaţii calculul explicit al vectorilor proprii poate fi (şi este bine să fie) evitat. 4.1.3 Matrice asemenea Urmând metodologia generală de reducere a unei probleme de calcul la alte probleme mai simple, utilizată şi în capitolele precedente, suntem interesaţi să evidenţiem transformările matriceale care conservă spectrul unei matrice date. Aşa cum s-a specificat şi în 1.10, valorile proprii sunt conservate de transformările de asemănare definite mai jos. Definiţia 4.3 Două matrice A,B IC n n se numesc asemenea dacă există o matrice nesingulară T IC n n astfel încât B = T 1 AT. (4.15) Dacă matricea de transformare T este unitară, atunci matricele A şi B se numesc unitar asemenea. În cazul real, dacă matricea de transformare T este ortogonală, matricele A şi B se numesc ortogonal asemenea. Într-adevăr,conformteoremei1.14,dacămatriceleA,B IC n n satisfacorelaţie de forma (4.15), i.e. sunt asemenea, atunci ele au acelaşi spectru 3 λ(a) = λ(b) (4.16) şi dacă x este un vector propriu al matricei A asociat valorii proprii λ λ(a), atunci vectorul y = T 1 x (4.17) este un vector propriu al matricei B, asociat aceleiaşi valori proprii. În dezvoltările din această lucrare vom insista asupra cazului generic al matricelor de ordin n care admit un set (complet) de n vectori proprii liniar independenţi. Aşa cum s-a demonstrat în teorema 1.15, în acest caz, utilizând în (4.15) ca matrice de transformare T = X, unde X este o matrice având drept coloane n vectori proprii liniar independenţi ai matricei A, obţinem o matrice diagonală: X 1 AX = Λ = diag(λ 1,λ 2,...,λ j,...,λ n ) IC n n. (4.18) Astfel de matrice se numesc diagonalizabile (peste IC). Dacă o matrice n n are n valori proprii distincte, atunci este diagonalizabilă dar reciproca nu este, în general, adevărată 4. 3 De remarcat faptul că transformările uzuale cum ar fi multiplicările cu matrice (la stânga sau la dreapta) alterează spectrul matricei date. În particular, operaţiile elementare cu linii sau coloane, inclusiv permutările, pot modifica valorile şi vectorii proprii. 4 O matrice cu toate valorile proprii simple (i.e. distincte) se numeşte cu spectru simplu, iar matricele care admit seturi complete de vectori proprii liniar independenţi sunt cunoscute sub denumirea de matrice simple. În acest din urmă caz multiplicităţile algebrice ale valorilor proprii distincte coincid cu multiplicităţile lor geometrice. Evident, matricele cu spectru simplu sunt simple dar nu şi reciproc.

4.1. FORMULAREA PROBLEMEI 215 În cazul general, structura fină a unei matrice, care poate fi dezvăluită prin transformări de asemănare corespunzătoare, este dată de aşa numita formă canonică Jordan. Deşi forma canonică Jordan joacă un rol esenţial în analiza matriceală, conţinând maximum de informaţie structurală privitor la o matrice dată, totuşi rolul ei în calculul numeric este mult diminuat de sensibilitatea structurii Jordan la perturbaţii numerice în elementele matricei iniţiale, perturbaţii inerente în calcule efectuate pe un calculator datorită reprezentării informaţiei numerice în virgulă mobilă. Acesta este motivul pentru care în toate dezvoltările numerice se preferă o structură mult mai robustă şi anume forma Schur reală sau complexă prezentată într-una din secţiunile următoare 5. 4.1.4 Valorile proprii ale matricelor simetrice şi hermitice Prezentăm în continuare câteva rezultate referitoare la valorile şi vectorii proprii pentru matricele hermitice (simetrice). Matricele hermitice (simetrice) se întâlnesc în numeroase aplicaţii şi prezintă particularităţi remarcabile. Definiţia 4.4 Fie A IC n n. Matricea A se numeşte normală dacă A H A = AA H. (4.19) În cazul real, matricea A IR n n este normală dacă A T A = AA T. (4.20) În acest context reamintim că matricea A se numeşte hermitică dacă A H = A şi simetrică dacă A T = A. De asemenea, o matrice A IC n n se numeşte unitară dacă A H A = I n şi ortogonală dacă A T A = I n. Se constată imediat că matricele hermitice şi cele unitare sunt matrice normale. Matricele hermitice au proprietatea că elementele simetrice faţă de diagonala principală sunt complex conjugate, i.e. a ij = ā ji, i,j 1 : n, deci elementele diagonale ale matricelor hermitice sunt reale. O matrice hermitică reală este simetrică. O matrice unitară reală este ortogonală. Prin urmare matricele reale simetrice sau ortogonale sunt normale. Există [ matrice ] normale care nu sunt nici simetrice nici 1 1 ortogonale, de exemplu A =. 1 1 Prezentăm în continuare câteva rezultate fundamentale, urmând ca aspectele specifice legate de calculul efectiv al valorilor şi vectorilor proprii pentru matrice hermitice (simetrice) să fie date în două secţiuni distincte ( 4.8 şi 4.9), iar cele legate de condiţionare şi stabilitate în 4.10 şi 4.11. Teorema 4.1 O matrice n n complexă A este normală dacă şi numai dacă admite un set complet de n vectori proprii ortogonali, adică există o matrice unitară Q IC n n ale cărei coloane sunt vectori proprii ai matricei A astfel încât Q H AQ = Λ = diag(λ 1,λ 2,...,λ n ) IC n n. (4.21) 5 Algoritmii de reducere la forma canonică Jordan, prezentaţi în unele lucrări de matematică (vezi, e.g. [XVI]) nu prezintă interes practic decât în contextul unor medii de calcul exact. Pentru detalii privitoare la aspectele numerice şi algoritmice ale calculului formei canonice Jordan, vezi secţiunea 4.7.

216 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII Altfel spus, matricele normale sunt matricele unitar diagonalizabile (peste IC). În cazul real, matricea A este normală dacă şi numai dacă satisface aceleaşi condiţii, i.e. este unitar diagonalizabilă. Demonstraţie. Presupunem că matricea A este normală. Demonstrăm mai întâi următorul rezultat preliminar. Lema 4.1 Dacă S este un subspaţiu simultan A-invariant şi A H -invariant, atunci A şi A H admit un vector propriu comun x conţinut în S 6. Dacă Ax = λx atunci A H x = λx. Subspaţiul S fiind A-invariant, în conformitate cu propoziţia 4.1, punctul 2, există un vector propriu x al matricei A (i.e. care satisface Ax = λx, x 0) conţinut în S. Din (4.19) rezultă imediat că A(A H ) k = (A H ) k A. Deci A(A H ) k x = λ(a H ) k x, k = 0,1,2,..., i.e. y k = (A H ) k x 0 sunt vectori proprii ai matricei A asociaţi aceleiaşi valori proprii λ. Cum subspaţiul S este şi A H -invariant rezultă că toţi vectorii y k sunt conţinuţi în S. Fie p întregul pentru care y 0,y 1,...,y p 1 sunt liniar independenţi, iar y p este o combinaţie liniară a acestora. Atunci, subspaţiul S = ImY S, unde Y = [y 0 y 1... y p 1 ] este A-invariant (conform propoziţiei 4.1, punctul 1 ) şi, fiind generat de vectori proprii asociaţi aceleiaşi valori proprii, orice vector nenul din S este vector propriu al lui A. Pe de altă parte, S este şi A H -invariant întrucât x = Yu S avem A H x = A H Yu = Yv S. În consecinţă, conform propoziţiei 4.1, 2, există o matrice B astfel încât A H Y = YB, de unde rezultă A H Yz = YBz = µyz pentru orice vector propriu z al ei asociat valorii proprii µ λ(b). Prin urmare, notând x = Yz avem A H x = µx cu µ λ(b) λ(a H ). Altfel spus, există un vector propriu al matricei A H conţinut în S. Cum toţi vectorii nenuli din S sunt vectori proprii ai lui A, am arătat că matriceanormalăaşimatriceaa H au(cel puţin) un vectorpropriucomunconţinut în S, deci şi în S. Mai mult, din Ax = λx şi A H x = µx cu acelaşi x 0, avem λ x 2 = λx H x = x H Ax = (A H x) H x = (µx) H x = µ x 2, de unde rezultă µ = λ. Demonstraţia lemei este completă. Vom construi acum un set complet de vectori proprii ortogonali ai matricei normale A. Pasul 1. Spaţiul IC n fiind simultan A- şi A H -invariant, conform lemei de mai sus matricele A şi A H admit un vector propriu comun x 1 care poate fi normat: Ax 1 = λ 1 x 1, A H x 1 = λ 1 x 1, x 1 = 1. Subspaţiul S 1 = Im[x 1 ] este simultan A-invariant şi A H -invariant. Conform propoziţiei 4.1, 3 complementul său ortogonal T 1 = S 1 în ICn este, de asemenea, simultan A- şi A H -invariant. În consecinţă matricele A şi A H admit un vector propriu (normat) comun x 2 T 1, i.e. ortogonal cu x 1 : Ax 2 = λ 2 x 2, A H x 2 = λ 2 x 2, x 2 = 1, x 2 x 1. 6 Un rezultat mai general este următorul: două matrice care comută admit un vector propriu comun (v. exerciţiul 4.7).

4.1. FORMULAREA PROBLEMEI 217 Pasul k. Presupunem că am construit un set de k < n vectori proprii ortogonali x 1, x 2,...,x k ai matricei normale A (şi, simultan, ai matricei A H ). Subspaţiul S k = Im[x 1 x 2... x k ] este simultan A-invariant şi A H -invariant. Cu aceleaşi argumente, complementul său ortogonal T k = S k în ICn este, de asemenea, simultan A- şi A H -invariant. În consecinţă, matricele A şi AH admit un vector propriu(normat) comun x k+1 T 1, i.e. ortogonal cu x 1, x 2,...,x k : Ax k+1 = λ k+1 x k+1, A H x k+1 = λ k+1 x k+1, x k+1 = 1, x k+1 S k. Procesul recurent de construcţie a vectorilor proprii ortogonali conduce după k = = n 1 paşi la determinarea unui set ortogonal complet de vectori proprii ai matricei A şi, simultan, ai matricei A H. Notând cu Q matricea vectorilor proprii, implicaţia directă este demonstrată. Reciproc, presupunem că matricea A admite un set complet de vectori proprii ortogonali x i, i 1 : n, respectiv o matrice unitară Q def = X = [x 1 x 2 x n ] de vectori proprii. Avem de unde rezultă X H AX = Λ = diag(λ 1,λ 2,...,λ n ) IC n n, X H A H X = Λ. Din ultimele două relaţii avem Λ Λ = ΛΛ = X H AA H X = X H A H AX, i.e. AA H = = A H A şi teorema este complet demonstrată. Observaţia 4.1 Demonstraţia prezentată mai sus evidenţiază, printre altele, următoarele proprietăţi suplimentare ale matricelor normale: 1 Dacă A este normală, atunci matricele A şi A H au aceiaşi vectori proprii. 2 Dacă S este un subspaţiu A-invariant, atunci şi complementul său ortogonal în IC n este A-invariant. Teorema 4.2 O matrice n n complexă A este hermitică dacă şi numai dacă admite un set complet de n vectori proprii ortogonali şi toate valorile proprii sunt reale adică există o matrice unitară Q, ale cărei coloane sunt vectori proprii, astfel încât Q H AQ = Λ = diag(λ 1,λ 2,...,λ n ) IR n n. (4.22) Altfel spus, matricele hermitice sunt matricele unitar diagonalizabile cu spectru real. În cazul real matricea A este simetrică dacă şi numai dacă admite un set complet de n vectori proprii ortogonali reali şi toate valorile proprii sunt reale adică există o matrice ortogonală Q, ale cărei coloane sunt vectori proprii, astfel încât Q T AQ = Λ = diag(λ 1,λ 2,...,λ n ) IR n n, (4.23) i.e. matricele reale simetrice 7 sunt matricele ortogonal diagonalizabile cu spectru real. 7 Matricele complexe simetrice sunt matrice cu multe proprietăţi esenţial diferite de cele ale matricelor hermitice sau ale matricelor reale simetrice (vezi [I], [II] şi exerciţiul 4.31).

218 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII Demonstraţie. Matricele hermitice fiind normale, conform teoremei precedente sunt unitar diagonalizabile, i.e. are loc (4.21). Acum, din A H = A rezultă că Λ H = Λ, i.e. spectrul este real. În cazul realaceastaare drept consecinţă faptul că vectorii proprii sunt reali. Reciproc, din (4.22) rezultă Λ H = Λ, i.e. Q H AQ = Q H A H Q, de unde obţinem A H = A. Faptul că matricele hermitice (în cazul real, simetrice) au spectrul real şi sunt unitar(ortogonal) diagonalizabile are implicaţii majore asupra tehnicilor de calcul al valorilor proprii, asigurând o complexitate relativ redusă a algoritmilor şi o precizie ridicată a rezultatelor. Pentru dezvoltarea algoritmilor de calcul se vor dovedi utile rezultatele prezentate în continuare. Formularea rezultatelor şi demonstraţiile vor fi prezentate pentru matricele hermitice, particularizarea pentru matricele reale simetrice (care se reduce, în esenţă, la înlocuirea mulţimii IC cu mulţimea IR şi a operatorului hermitic H cu operatorul de transpunere T ) fiind lăsată în sarcina cititorului. Fie matricea hermitică A IC n n şi funcţia reală de n variabile complexe µ : IC\{0} IR definită de µ(x) = xh Ax x H. Vom fi interesaţi de extremele funcţiei x µ. Pentru determinarea acestora, observăm mai întâi că µ(x) = µ(αx) pentru toţi α nenuli din IC. În consecinţă, este suficient să ne rezumăm la vectorii x de normă euclidiană unitară, i.e. să considerăm funcţia µ : S IR, x µ(x) = x H Ax, (4.24) unde S = { x IC n x 2 = x H x = 1 } (4.25) estesferaderazăunitarădinic n. Vomconsideracăspectrulλ(A) = {λ 1,λ 2,...,λ n } al matricei A este ordonat descrescător, i.e. λ 1 λ 2... λ n, (4.26) şi fie q j IC n, j = 1 : n un set complet de vectori proprii, de normă euclidiană unitară, ai matricei A, asociaţi valorilor proprii λ j. Vom nota Q = [ ] q 1 q 2 q n, Q k = Q(:,1 : k), Q k = Q(:,k +1 : n). (4.27) Avem următorul rezultat. Teorema 4.3 Valorile extreme absolute ale funcţiei µ definite în (4.24), (4.25) sunt date de M = max x S xh Ax = λ 1, m = min x S xh Ax = λ n. (4.28) Mai mult, dacă W k = ImQ k este subspaţiul A-invariant asociat valorilor proprii λ j, j = k +1 : n, atunci max x H Ax = λ k+1. (4.29) x S W k

4.1. FORMULAREA PROBLEMEI 219 Demonstraţie. Conform teoremei 4.2, matricea Q este unitară, A = QΛQ H unde Λ = diag(λ 1,λ 2,...,λ n ) şi, prin urmare, µ(x) = x H Ax = y H Λy = n λ k y (k) 2, y = Q H x = [y (1) y (2) y (n) ] T. k=1 (4.30) Cum vectorii x şi y din (4.30) se află într-o relaţie biunivocă, iar transformările unitare conservă norma euclidiană, rezultă că extremele funcţiei µ coincid cu extremele funcţiei ν : S IR, ν(y) = y H Λy. Din faptul că vectorii y sunt de normă unitară, i.e. n j=1 y(j) 2 = 1, rezultă ν(y) = λ 1 n n 1 (λ 1 λ j ) y (j) 2 = (λ j λ n ) y (j) 2 +λ n. (4.31) j=2 Întrucât sumele din relaţia (4.31) sunt, datorită (4.26), nenegative, iar valoarea nulă a acestor sume se poate realiza, e.g. pentru y (j) = 0, j = 2 : n în primul caz şi j = 1 : n 1 în cel de al doilea, avem egalităţile (4.28). Dacă valorile proprii maximă, respectiv minimă, sunt simple, atunci valorile extreme ale funcţiei ν se ating pentru vectorii y de forma y 1 = [y (1) 0 0] T = e iθ1 e 1, respectiv y n = [0 0 y (n) ] T = e iθn e n, cu θ 1, θ n IR. Prin urmare, cele două extreme ale funcţiei µ se ating pentru vectorii x de forma x 1 = e iθ1 q 1 şi, respectiv x n = e iθn q n. Dacă λ 1 are multiplicitatea s, iar λ n multiplicitatea t, atunci maximul se atinge pentru orice vector x de normă unitară din V s = ImQ s, i.e. subspaţiul A-invariant asociat valorilor proprii λ j, j = 1 : s, iar minimul se atinge pentru orice vector de normă unitară din W n t. Pentru cea de a doua parte a teoremei, dacă x W k = V k atunci xh Q k = 0 şi y = Q H x = [0 0 y (k+1) y (n) ] T. Prin urmare, µ(x) = ν(y) = λ k+1 n j=k+2 j=1 de unde, cu aceleaşi argumente ca mai sus, se obţine (4.29). (λ k+1 λ j ) y (j) 2, (4.32) Rezultatul următor prezintă o interesantă caracterizare minimax a valorilor proprii ale unei matrice hermitice (în cazul real, simetrice) şi este util prin consecinţele sale. Notăm, generic, cu V subspaţiile liniare ale spaţiului IC n şi cu W = V complementele lor ortogonale în IC n. De asemenea, vom nota cu V S = V S şi, respectiv, W S = W S, mulţimile vectorilor de normă euclidiană unitară din V şi W. Teorema 4.4 (Courant Fisher) Dacă matricea hermitică A IC n n are valorile proprii ordonate ca în (4.26) atunci pentru toţi k 1 : n avem λ k = max dimv = k min x H Ax = min x V S dimv = k max x H Ax 8. (4.33) x W S 8 Întrucât oricărui subspaţiu n k dimensional din IC n îi corespunde un complement ortogonal k dimensional, ultimul termen al egalităţilor (4.33) poate fi scris şi în forma λ k = = min dimv = n k max x VS x H Ax.

220 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII Demonstraţie. Fie V un subspaţiu arbitrar de dimensiune k şi v j, j = 1 : k, o bază a lui V. Fie, de asemenea, w j, j = 1 : n k, o bază a lui W. Notăm cu V IC k, respectiv W IC n k, matricele vectorilor care formează bazele celor două subspaţii complementare. Conform teoremei precedente λ n x H Ax λ 1 (4.34) pentru toţi x din S, i.e. funcţia µ este mărginită pe compactul V S şi, în consecinţă, îşi atinge marginile pe această mulţime. La fel ca în demonstraţia teoremei precedente, fie y = Q H x, unde Q este o matrice unitară de vectori proprii, ordonaţi conform (4.26). Avem, evident, y = x şi x = Qy V dacă şi numai dacă este ortogonal pe W, i.e. W H x = W H Qy = 0. (4.35) [ ] Întrucât W este monică, factorizarea QR a matricei W = Q H W = Q R are 0 matriceasuperior triunghiularăr IC (n k) (n k) nesingulară. În consecinţă, (4.35) devine [ R H 0 ] QH y = 0. (4.36) Notând z def = Q H y relaţia (4.36) impune z(1 : n k) = 0. Notând, încă o dată, u def = z(n k +1 : n) IC k şi ţinând seama de faptul că transformările unitare conservă norma euclidiană, din (4.35), (4.36) rezultă că x = Qy = Q Qz = ˆQu, unde ˆQ = Q Q(:,n k+1 : n), aparţine mulţimii V S dacă şi numai dacă u = 1, fără nici o altă restricţie asupra lui u. Acum, putem alege u astfel încât y(1 : k 1) = 0. Într-adevăr, y = Q(:,n k+1: n)u şi orice soluţie normată(i.e. de normă euclidiană unitară)asistemuluisubdeterminat ˆQ(1 : k 1,,n k+1 : n)u = 0asigurăsatisfacerea acestei condiţii. Cu această alegere a lui u, pentru vectorul corespunzător x din V S, avem n µ(x) = x H Ax = y H Λy = λ k (λ k λ j ) y (j) 2 λ k, (4.37) j=k+1 unde am ţinut seama de faptul că n j=k y(j) 2 = y 2 = 1 şi de ordonarea descrescătoare a valorilor proprii. Natural, din (4.37) rezultă min x H Ax λ k (4.38) x V S şi, cum subspaţiul V, de dimensiune k, era arbitrar, inegalitatea (4.38) are loc în toate subspaţiile de aceeaşi dimensiune sau, altfel spus, max dimv = k min x H Ax λ k. (4.39) x V S Rămâne să arătăm că această margine este atinsă efectiv. Aceasta se întâmplă în subspaţiul A-invariant asociat primelor k valori proprii din secvenţa (4.26). Întradevăr, fie V = ImQ k şi x = Q k z cu z = 1. Rezultă x = 1, i.e. x V S şi k 1 µ(x) = x H Ax = (λ j λ k ) z (j) 2 +λ k λ k, (4.40) j=1

4.1. FORMULAREA PROBLEMEI 221 de unde, în acest subspaţiu, min x H Ax λ k (4.41) x V S egalitatea obţinându-se pentru z = [0 0 1] T. Prima egalitate din (4.33) este demonstrată. Demonstraţia celei de a doua egalităţi (4.33) urmează aceleaşi idei. Întrucât dimw = n k, există un vector x W S astfel încât vectorul y = Q H x are componentele k+1 : n nule (demonstraţi!). Pentru această alegere a lui x avem o relaţie de forma (4.40) de unde rezultă k 1 µ(x) = x H Ax = y H Λy = (λ j λ k ) y (j) 2 +λ k λ k, (4.42) j=1 max x H Ax λ k. (4.43) x W S Cum subspaţiul (n k)-dimensional W a fost arbitrar, rezultă că inegalitatea (4.43) are loc în toate subspaţiile de această dimensiune sau, altfel spus, min dimv = k max x H Ax λ k. (4.44) x W S Adăugând faptul că marginea din (4.44) se atinge efectiv în subspaţiul W = ImQ k, cea de a doua egalitate (4.33), şi o dată cu ea întreaga teoremă, sunt complet demonstrate. Teorema Courant Fisher este importantă, în contextul calculatoriu al acestei lucrări, prin consecinţele sale, dintre care câteva sunt prezentate în continuare. Notăm A [k] def = A(1:k,1:k) submatricele lider principale de ordinul k ale matricei hermitice A IC n n, care sunt la rândul lor, evident, hermitice. Presupunem că spectrele λ(a [k] ) = {λ [k] 1,λ[k] 2,...,λ[k] k } (evident, reale) ale submatricelor lider principale sunt, şi ele, ordonate descrescător, i.e. λ [k] 1 λ [k] 2... λ [k] k. (4.45) Teorema 4.5 (Teorema de separare) Valorile proprii ale submatricelor lider principale de ordinul k ale unei matrice hermitice separă valorile proprii ale submatricelor lider principale de ordinul k +1, i.e. λ [k+1] 1 λ [k] 1 λ [k+1] 2 λ [k] 2... λ [k] k 1 λ[k+1] k λ [k] k λ[k+1] k+1, (4.46) pentru toţi k 1 : n 1. Demonstraţie. Este suficient să considerăm cazul k = n 1. Pentru simplificarea notaţiilor, fie λ def i = λ [n 1] i, i = 1 : n 1. Cu aceste notaţii, este suficient să dovedim inegalităţile λ i λ i λ i+1, i = 1 : n 1. (4.47)

222 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII Avem, evident, x H A [n 1] x = [ x H 0 ] [ x A 0 ], x IC n 1. (4.48) Pe această bază, între mulţimile M i = { µ IR µ = max x WS x H Ax, W IC n, dimw = n i }, (4.49) M i ={ µ IR µ =max x WS x H A [n 1] x, W IC n 1, dimw = n 1 i }, (4.50) există relaţiile M i M i M i+1, (4.51) de unde rezultă minm i+1 minm i minm i, (4.52) inegalităţi care, în baza teoremei Courant-Fisher, sunt echivalente cu (4.47). Teorema este demonstrată. O relaţie dintre valorile proprii a două matrice hermitice şi valorile proprii ale sumei lor, utilă în aprecierea influenţei perturbaţiilor numerice hermitice, este dată în teorema următoare. Teorema 4.6 Dacă matricele hermitice A,E IC n n au spectrele ordonate descrescător, atunci, cu notaţii evidente, avem pentru toţi k 1 : n. λ k (A)+λ 1 (E) λ k (A+E) λ k (A)+λ n (E) (4.53) Demonstraţie. Conform teoremei Courant-Fisher λ k (A+E) = min dimv = k max x H (A+E)x x W S min dimv = k ( x max x H Ax+ max x H Ex) W S x W S min dimv = k ( x max x H Ax+λ 1 (E)) = λ k (A)+λ 1 (E). (4.54) W S Pentru a demonstra a doua inegalitate (4.53) avem, similar, λ k (A+E) = max dimv = k min x H (A+E)x x V S max dimv = k ( min x V S x H Ax+ min x V S x H Ex) max dimv = k ( x min x H Ax+λ n (E)) = λ k (A)+λ n (E). V S (4.55) Teorema este demonstrată. În sfârşit, cu notaţiile utilizate în teorema 4.8, formulăm următorul rezultat util, de asemenea, în evaluarea influenţelor perturbaţiilor numerice asupra valorilor proprii ale matricelor hermitice.

4.1. FORMULAREA PROBLEMEI 223 Teorema 4.7 (Wielandt Hoffmann) Dacă matricele A,E IC n n sunt hermitice, atunci n (λ j (A+E) λ j (A)) 2 E 2 F, (4.56) i 1 j=1 e ij 2 = n i=1 λ2 i (E) este norma Fro- unde E F = benius a matricei E. j=1 n i=1 e ii 2 +2 n i=2 Demonstraţie. Pentru demonstraţie se poate consulta [ IV]. Un rezultat remarcabil, de o factură aparte, se referă la inerţia unei matrice. Inerţia unei matrice hermitice A IC n n se defineşte prin tripletul (n,n 0,n + ) unde n este numărul valorilor proprii negative, n 0 este numărul valorilor proprii nule şi, respectiv, n + este numărul valorilor proprii pozitive ale matricei A. De asemenea, se spune că două matrice (hermitice) A,B IC n n sunt congruente dacă există o matrice nesingulară T IC n n astfel încât B = T H AT. Rezultatul, datorat lui Sylvester, are următorul enunţ. Teorema 4.8 Două matrice hermitice congruente au aceeaşi inerţie. Demonstraţie. Fie A IC n n hermitică, B = T H AT cu T nesingulară şi λ k (A) o valoare proprie nenulă a matricei A. Presupunem că spectrele matricelor A şi B sunt ordonate descrescător. Conform teoremei Courant-Fisher avem λ k (B) = max dimv = k min x H Bx min x H Bx = min xh Bx x V S x ṼS x Ṽ x H x, (4.57) unde Ṽ este orice subspaţiu particular de dimensiune k, iar Ṽ = Ṽ \ {0}. Considerând Ṽ = ImT 1 Q k, cu Q k definit în (4.27), avem x Ṽ dacă şi numai dacă x = T 1 Q k z cu z ICk, z 0. Pe de altă parte, matricea R def = TT H este hermitică, pozitiv definită (i.e. x H Rx > 0, x 0) şi, prin urmare, are spectrul real şi pozitiv (demonstraţi!) aceleaşi proprietăţi avându-le şi matricea R 1 = T H T 1. Cu aceste precizări, pentru toţi x Ṽ, avem { x H Bx = x H T H QΛ A Q H Tx = z H diag(λ 1 (A),λ 2 (A),...,λ k (A))z x H x = z H Q H k R 1 Q k z,, (4.58) de unde, ţinând seama de ordonarea valorilor proprii, rezultă Cu aceste inegalităţi, din (4.57), obţinem x H Bx λ k (A)z H z λ min (R 1 )z H z x H x λ max (R 1 )z H z. λ k (B) λ k(a) λ max (R 1 ), dacă λ k(a) > 0 λ k (B) λ k(a) λ min (R 1 ), dacă λ k(a) < 0. (4.59) (4.60)

224 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII Schimbând rolul matricelor A şi B, cu un raţionament analog obţinem următoarele corespondente ale relaţiilor (4.60) { λk (B) λ max (R)λ k (A), dacă λ k (A) > 0 (4.61) λ k (B) λ min (R)λ k (A), dacă λ k (A) < 0. În concluzie, în toate cazurile, αλ k (A) λ k (B) βλ k (A) cu α > 0, β > 0, i.e. λ k (A) şi λ k (B) au acelaşi semn. Rezultă că A şi B au aceeaşi inerţie. În contextul acestui paragraf este natural să introducem matricele antihermitice, respectiv antisimetrice în cazul real. Definiţia 4.5 Matricea A IC n n se numeşte antihermitică dacă A H = A. (4.62) În cazul real, matricea A IR n n se numeşte antisimetrică dacă A T = A. (4.63) O matrice antihermitică are elementele diagonale pur imaginare. Este uşor de observat că dacă matricea complexă A este antihermitică, atunci matricea B = ia este hermitică. În consecinţă, A este unitar diagonalizabilă şi are toate valorile proprii pur imaginare. Matricele antihermitice sunt normale. În cazul real, o matrice antisimetrică are elementele diagonale nule. Dacă A este antisimetrică, atunci B = ia este o matrice complexă hermitică. Rezultă că A este unitar diagonalizabilă şi are toate valorile proprii pur imaginare. Cum, în această situaţie, valorile proprii apar în perechi complex conjugate rezultă că o matrice antisimetrică de ordin impar are, în mod necesar, o valoare proprie nulă, i.e. este singulară. Evident, o matrice antisimetrică este normală. Ultimul rezultat pe care îl prezentăm se referă la valorile şi vectorii proprii pentru matricele unitare şi ortogonale. Teorema 4.9 O matrice n n complexă A este unitară dacă şi numai dacă admite un set complet de n vectori proprii ortogonali şi toate valorile proprii sunt de modul unitar, adică este unitar diagonalizabilă cu spectru unitar, respectiv există o matrice unitară Q IC n n astfel încât Q H AQ = Λ = diag(λ 1,λ 2,...,λ n ) cu λ i = 1, λ i. (4.64) În cazul real matricea A este ortogonală dacă şi numai satisface aceleaşi condiţii, i.e. este unitar diagonalizabilă cu spectru unitar. Demonstraţie. O matrice unitară A IC n n fiind normală, conform teoremei 4.1, este unitar diagonalizabilă, i.e. există o matrice unitară Q IC n n astfel încât Q H AQ = Λ = diag(λ 1,λ 2,...,λ n ), de unde rezultă A = QΛQ H. În plus, din A H A = I n obţinem ΛΛ = I n, i.e. λj λ j = λ j 2 = 1, de unde rezultă λ j = 1, j = 1 : n. Deci toate valorile proprii sunt de modul unitar, i.e. pot fi scrise sub forma λ j = e iθj, cu θ j IR, j = 1 : n. Reciproc, dacă avem Q H AQ = Λ, cu Q

4.1. FORMULAREA PROBLEMEI 225 unitară şi Λ diagonală cu elementele diagonale de modul unitar, atunci prin calcul direct rezultă imediat A H A = I n, i.e. A este unitară. În cazul real demonstraţia este identică cu singura menţiune suplimentară că alături de orice valoare proprie complexă λ j = e iθj IC\IR apare şi conjugata ei λ j = e iθj. Observaţia 4.2 Este simplu de constatat că dacă o matrice complexă A este normală, hermitică sau unitară, atunci orice matrice B unitar asemenea cu A are aceleaşi proprietăţi. Similar, în cazul real, proprietăţile de normalitate, simetrie şi ortogonalitate sunt conservate de transformările ortogonale de asemănare. Această invarianţă explică utilizarea exclusivă a transformărilor unitare (ortogonale) în demersul calculatoriu legat de valorile şi vectorii proprii. Încheiem acest paragraf cu precizarea că principala proprietate comună a celor trei tipuri de matrice menţionate mai sus, indusă de proprietatea de normalitate, constă în faptul că toate admit seturi complete de vectori proprii ortogonali, fapt care le conferă o perfectă condiţionare a spectrelor de valori proprii (v. 4.10). 4.1.5 Localizarea valorilor proprii În finalul acestei secţiuni introductive vom prezenta câteva rezultate privitoare la localizarea valorilor proprii în planul complex, rezultate utile atât prin ele însele cât şi în contextul stabilirii iniţializărilor pentru diverse metode iterative de calcul sau al analizei sensibilităţii valorilor proprii la perturbaţii în matricea dată. Unele din cele mai cunoscute rezultate în această privinţă sunt oferite de teoremele următoare. Teorema 4.10 Oricare ar fi matricea A IC n n şi o familie arbitrară de norme consistente avem ρ(a) A. (4.65) Demonstraţie. Din proprietatea de consistenţă a familiei de norme pentru orice λ λ(a) şi vector propriu asociat x cu x = 1 avem λ = λx = Ax A x = A, de unde rezultă (4.65) 9. Teorema 4.11 (Gershgorin) Valorile proprii ale unei matrice A IC n n sunt situate în domeniul D din planul complex definit de D = n D i, (4.66) i=1 9 Există şi un rezultat, datorat lui Householder (v. exerciţiul 4.32), care arată că pentru orice ε > 0 există o normă consistentă astfel încât A ρ(a) + ε, relaţie care, împreună cu (4.65), permite aproximarea oricât de bună a razei spectrale a unei matrice cu ajutorul unei norme a acesteia. Din păcate, această normă este o normă specială care depinde de A şi ε, astfel că rezultatul menţionat are o valoare în primul rând teoretică.

226 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII unde D i sunt discurile numite discuri Gershgorin. D i = {z IC z a ii n a ij }, i = 1 : n, (4.67) j=1 j i Demonstraţie. Fie x un vector propriu asociat valorii proprii λ λ(a). Atunci linia i a relaţiei Ax = λx se scrie (λ a ii )x i = n a ij x j, (4.68) de unde rezultă λ a ii x i n j=1 a ij x j. Alegând linia i astfel încât x i = j i = max k=1:n ( x k ) 0, rezultă λ a ii j=1 j i n a ij x j n x i a ij, (4.69) j=1 j i j=1 j i i.e. λ D i. Dacă o linie a matricei A are elementele extradiagonale nule, atunci elementul diagonal este o valoare proprie a matricei A, iar discul Gershgorin corespunzător liniei respective se reduce la punctul {a ii }. De asemenea, se poate arăta [I] că dacă m discuri Gershgorin formează o mulţime disjunctă de mulţimea celorlalte n m discuri, atunci exact m valori proprii se găsesc situate în reuniunea celor m discuri. În particular, un disc disjunct de celelalte conţine exact o valoare proprie 10. Imλ Imλ λ 2 λ 2 λ 1 Reλ λ 1 Reλ λ 3 λ 3 a) b) Fig. 4.2: Utilizarea discurilor Gershgorin pe linii (a) şi pe coloane (b) pentru localizarea valorilor proprii ai matricei din exemplul 4.2. 10 Discurile Gershgorin (4.67) ar putea fi denumite discuri-linie întrucât sunt construite cu ajutorul liniilor matricei date. Cum transpusa matricei are acelaşi spectru, aplicând teorema 4.11 matricei transpuse obţinem o localizare a valorilor proprii în reuniunea discurilor Gershgorin definite pe coloane. Evident, o localizare mai bună se obţine intersectând cele două domenii.

4.2. FORMA SCHUR 227 Exemplul 4.2 Considerăm matricea A = 1 0 1 1 5 0 1 1 1 pentru care cele trei discuri Gershgorinsunt D 1 de centru 1 şi rază1, D 2 de centru 5 şirază1şid 3 decentru-1şirază2(v. fig. 4.2), iarvalorilepropriisuntλ 1 = 5.0394, λ 2,3 = 0.0197± 0.4450i. Raza spectrală este deci ρ(a) = 5.0394, inferioară e.g. normei A F = 5.5678. Teorema lui Gershgorin este utilă, de exemplu, pentru deciziile de neglijare a elementelor extradiagonale la o precizie fixată a valorilor proprii calculate în tehnicile de diagonalizare iterativă prin transformări de asemănare. Generalizări ale teoremei 4.11 fac obiectul exerciţiilor 4.40 şi 4.41. Alte rezultate privind localizarea valorilor proprii se pot găsi în [I], [II]. 4.2 Forma Schur Transformările de asemănare unitare, respectiv ortogonale în cazul real, prezintă marele avantaj de a conserva condiţionarea spectrului de valori proprii ale unei matrice date (v. 4.10). De aceea vom fi interesaţi în utilizarea lor exclusivă pentru determinarea valorilor proprii. Pe de altă parte, structurile canonice, cum este formajordan, nuse pot obţine, îngeneral, prin astfelde transformări 11. Rezultatul principal al acestui paragraf arată că orice matrice este unitar asemenea cu o matrice triunghiulară, numită forma Schur. În acest fel este posibilă evidenţierea valorilor proprii ale unei matrice (elementele diagonale ale formei sale Schur), utilizând o secvenţă de transformări unitare de asemănare. 4.2.1 Forma Schur (complexă) Calculul valorilor proprii ale unei matrice este intim legat de calculul vectorilor proprii asociaţi. Dacă λ λ(a) este cunoscută, atunci vectorul propriu asociat este o soluţie nenulă a unui sistem liniar omogen. Dacă se cunoaşte un vector propriu x al matricei A, atunci valoarea proprie asociată poate fi calculată cu relaţia x H Ax x H x = xh λx x H x = λ (4.70) care, pentru x de normă euclidiană unitară, i.e. x = 1, devine λ = x H Ax. (4.71) Întrucât valorile proprii sunt rădăcinile unei ecuaţii algebrice, calculul lor pentru matrice de ordin superior lui patru, în absenţa cunoaşterii vectorilor proprii, este 11 Matricele normale, care sunt unitar diagonalizabile (v. teorema 4.10), nu constituie un caz generic.

228 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII în mod necesar un proces (iterativ) infinit, aceeaşi situaţie apărând şi la calculul vectorilor proprii fără a se cunoaşte valorile proprii asociate. De aceea, una din ideile aflate la baza asigurării eficienţei tehnicilor de calcul a valorilor şi vectorilor proprii este exploatarea rezultatelor parţiale prin reducerea corespunzătoare a dimensiunii problemei. În sprijinul aplicării acestei idei vin următoarele rezultate. Propoziţia 4.2 Fie A IC n n şi X IC n un subspaţiu A-invariant p-dimensional dat printr-o bază ortogonală x 1, x 2,..., x p. Atunci există o matrice unitară Q IC n n cu Q(:,j) = x j, j = 1:p, astfel încât [ ] Q H S11 S AQ = 12, (4.72) 0 S 22 cu S 11 IC p p. În cazul real, i.e. A IR n n şi X IR n, matricea Q poate fi reală (i.e. ortogonală), iar matricea reală Q T AQ are structura (4.72). Demonstraţie. Fie Q(:,1:p) = X def = [x 1 x 2 x p ] şi Y IC n (n p) o bază ortogonală a complementului ortogonal Y = X al lui X în IC n. Atunci matricea Q = [X Y ] este unitară. Conform propoziţiei 4.1, punctul 2, există o matrice S 11 IC p p cu λ(s 11 ) λ(a) astfel încât AX = XS 11, i.e. X H AX = S 11. În plus Y H AX = Y H XS 11 = 0. În consecinţă avem [ ] S=Q H X H AQ= Y H A [ X Y ] [ ] [ ] X = H AX X H AY S11 S Y H AX Y H = 12 AY 0 S 22 (4.73) unde, evident, S 12 = X H AY, S 22 = Y H AY. q.e.d. În cazul real, conform aceleiaşi propoziţii 4.1, toate subspaţiile implicate în demonstraţia de mai sus sunt în IR n, iar matricea Q este ortogonală. Evident, în acest caz spectrul matricei S 11 este o submulţime simetrică a spectrului matricei A. Demonstraţia este completă. Observaţia 4.3 Calculul matricei unitare de asemănare Q este condiţionat esenţial de cunoaşterea unei baze V = [v 1 v 2 v p ] a subspaţiului A-invariant X. În acest caz, construcţia unei baze ortogonale X a lui X şi a unei completări ortogonale Y se poate face după recomandările din capitolul 3. Concret, dacă [ ] R1 V = Q 0 este factorizarea QR (complexă) a matricei V, unde Q IC n n este unitară, iar R 1 IC p p este nesingulară, atunci X = Q(:,1 : p), Y = Q(:,p +1 : n) sunt cele două baze ortogonale căutate, iar Q este matricea de transformare unitară de asemănare din (4.72). Pentru p = 1 baza V a subspaţiului A-invariant din propoziţia 4.2 se reduce la un vector propriu x de normă unitară asociat valorii proprii λ. În acest caz propoziţia 4.2 se particularizează în următoarea lemă.

4.2. FORMA SCHUR 229 Lema 4.2 (Deflaţie unitară) Fie A IC n n şi λ λ(a). Atunci există o matrice unitară Q IC n n astfel încât [ ] λ Q H S12 AQ =. (4.74) 0 S 22 Conform observaţiei 4.3, matricea de transformare poate fi Q = U H 1, unde U 1 este reflectorul (complex) care anulează elementele 2 : n ale vectorului propriu x asociat valorii proprii λ. Aplicarea consecventă a lemei 4.2 ne conduce la următorul rezultat important. Teorema 4.12 (Forma Schur) Oricare ar fi matricea A IC n n există o matrice unitară Q IC n n astfel încât matricea Q H AQ = S, (4.75) este superior triunghiulară. Elementele diagonale ale matricei S sunt valorile proprii ale matricei A şi pot fi dispuse în orice ordine predeterminată. Matricea S se numeşte forma Schur (FS) a matricei A, iar coloanele matricei de transformare Q se numesc vectori Schur ai matricei A asociaţi formei Schur S. Demonstraţie. Pasul 1. Conform lemei 4.2, dacă λ 1 λ(a), atunci există o matrice unitară Q 1 astfel încât S 1 = Q H 1 AQ 1 = λ 1 S (1) 12 0 S (1), 22 realizându-se o deflaţie în prima coloană. Pasul k. Presupunem că în primii k 1 paşi am realizat triangularizarea în primele k 1 coloane prin transformări unitare de asemănare S k 1 = Q H k 1... Q H 2 Q H 1 AQ 1 Q 2... Q k 1 = S(k 1) 11 S (k 1) 12 0 S (k 1) 22, unde S (k 1) 11 IC (k 1) (k 1) este superior triunghiulară. Vom aplica lema 4.2 pentru a realiza deflaţia în coloana k. Pentru aceasta, dacă λ k λ(s (k 1) 22 ), atunci există o matrice unitară Q k astfel încât Q H k S(k 1) 22 Q k = [ λk Ŝ (k) 12 0 S (k) 22 ]. Acum, matricea [ Ik 1 0 Q k = 0 Qk ] IC n n

230 CAPITOLUL 4. VALORI ŞI VECTORI PROPRII este unitară şi S k = Q H k S k 1 Q k = [ (k) S 11 S (k) 12 0 S (k) 22 este superior triunghiulară în primele k coloane. Procesul de triangularizare prin transformări unitare de asemănare, iniţiat conform pasului 1 şi continuat conform celor prezentate la pasul k, produce după n 1 paşi matricea superior triunghiulară unde matricea S = Q H AQ, Q = Q 1 Q 2... Q n 1, (4.76) este unitară ca produs de matrice unitare. Evident, ordinea elementelor diagonale ale matricei S poate fi aleasă în mod arbitrar prin selectarea corespunzătoare a vectorilor proprii în aplicarea lemei 4.2. Demonstraţia este completă. Încheiem paragraful subliniind faptul că orice matrice pătrată este unitar asemenea cu o matrice superior triunghiulară. Dacă matricea A este reală, dar are şi valori proprii complexe, atunci forma Schur S este complexă ca şi matricea de transformare Q. În acest caz se spune că S este forma Schur complexă (FSC) a matricei A. ] 4.2.2 Forma Schur reală În majoritatea aplicaţiilor în care este necesar calculul valorilor proprii, matricea are elementele reale. În aceste situaţii este mult mai eficientă utilizarea unei aritmetici reale. Pentru aceasta, perechile de valori proprii complexe şi perechile de vectori proprii asociaţi(care, după cum s-a mai precizat, pot fi consideraţi, la rândul lor, sub forma unor vectori complex conjugaţi) trebuie şi pot fi tratate în mod unitar, într-o aritmetică reală, prin intermediul unor blocuri matriceale 2 2, respectiv al unor subspaţii A-invariante reale. Corespondentul formei Schur din cazul complex devine o matrice cvasi-superior triunghiulară în care perechile de valori proprii complex conjugate sunt evidenţiate prin blocuri diagonale 2 2, numită forma Schur reală. În acest context vom formula şi, în măsura încare apar aspecte noi, vom demonstra corespondentele reale ale lemei 4.2 şi teoremei 4.12. Lema 4.3 (Deflaţie ortogonală) Fie A IR n n. a) Dacă λ λ(a) IR, atunci există o matrice ortogonală Q IR n n astfel încât [ ] Q T λ S12 AQ =. (4.77) 0 S 22 b) Dacă λ 1,2 = α±iβ λ(a), β 0, atunci există o matrice ortogonală Q IR n n astfel încât [ ] Q T S11 S AQ = 12, (4.78) 0 S 22

4.2. FORMA SCHUR 231 unde S 11 IR 2 2, cu λ(s 11 ) = {λ 1,λ 2 }. (4.79) Demonstraţie. Prima parte a lemei se demonstrează la fel cu lema 4.2 considerând o matrice ortogonală Q a cărei primă coloană este un vector propriu de normă euclidiană unitară asociat valorii proprii λ. Pentru a doua parte a lemei considerăm vectorii proprii x 1,2 = v 1 ± iv 2 asociaţi valorilor proprii complex conjugate λ 1,2 şi Y = [y 1 y 2 ] IR n 2 o bază ortogonală a subspaţiului liniar A-invariant S = ImV, unde V = [v 1 v 2 ] IR n 2 şi Z IR n (n 2) o bază ortogonală a complementului ortogonal T = S a lui S în IR n 12. Evident, matricea Q = [Y Z] este ortogonală. Pe de altă parte, întrucât vectorii v 1 şi v 2 sunt liniar independenţi (vezi propoziţia 4.1), există o matrice nesingulară P[ IR 2 2 astfel ] încât V = YP. În consecinţă, α β din (4.14) avem AV = VB cu B =. Rezultă β α unde şi, deci, A 1 = Q T AQ = AY = AVP 1 = VBP 1 = YS 11, [ α β S 11 = P β α [ ] Y T Z T A [ Y Z ] [ Y = T AY Y T AZ 0 Z T AZ ] P 1. (4.80) ] = [ ] S11 S 12, 0 S 22 (4.81) punându-se în evidenţă blocul diagonal de ordinul 2 real S 11 având valorile proprii complexe λ 1,2. Calculul matricei ortogonale de asemănare Q din lema de mai sus este condiţionat esenţial de cunoaşterea unui vector propriu (real) x asociat valorii proprii reale evidenţiate respectiv a parţii reale si a celei imaginare a unui vector propriu asociat unei valori proprii complexe. Altfel spus, posibilitatea deflaţiei este condiţionată de cunoaşterea subspaţiului A-invariant corespunzător. Procedând ca în demonstraţia teoremei 4.12, i.e. efectuând deflaţia matricei A pentru valorile proprii reale, respectiv pentru perechile de valori proprii complexe, prin aplicarea sistematică a lemei de mai sus, până la epuizarea întregului spectru şi cumulând transformările ortogonale parţiale, obţinem următorul rezultat important. Teorema 4.13 (Forma Schurreală) Oricare ar fi matricea reală A IR n n, există o matrice ortogonală Q IR n n astfel încât S 11 S 12 S 1p Q T AQ = S = 0 S 22 S 2p, (4.82) 0 0 S pp 12 Pentru construcţia acestor baze vezi observaţia 4.3.