logo
  • userLoginStatus

Welcome

Our website is made possible by displaying online advertisements to our visitors.
Please disable your ad blocker to continue.

Current View

Energy Engineering - Analisi e geometria 2

Principali dimostrazioni 2013

Other

Politecnico di Milano Scuola di Ingegneria IndustrialeCorso di Analisi e Geometria 2Docente: Federico Lastaria Anno accademico 2013-2014 19 marzo 2014 Di tutti i teoremi (asteriscati o no) occorre conoscere gli enunciati con precisione. Dei teo- remi senza asterisco occorre conoscere anche la dimostrazione. Le dimostrazioni dei teoremi asteriscati sono facoltative. Indice 1 Principali teoremi dimostrati, o soltanto enunciati. 41.1 Lemma di Steinitz e teorema sulla stessa cardinalita delle basi . . . . . . .4 1.2 De nizioni equivalenti di base . . . . . . . . . . . . . . . . . . . . . . . . . .5 1.3 Un'applicazione lineare e completamente de nita dalle immagini dei vettori diuna base del suo dominio . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 1.4 Applicazioni lineariRn !Rm . . . . . . . . . . . . . . . . . . . . . . . . . .7 1.5 Nucleo e immagine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9 1.6 Teorema di Rouche-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . .10 1.7 Struttura dello spazio delle soluzioni di un sistema lineare . . . . . . . . . . .10 1.8 Due spazi sono isomor se e solo se hanno la stessa dimensione . . . . . . .11 1.9 Somme dirette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12 1.10 Teorema delle dimensioni, o teorema Nullita + Rango . . . . . . . . . . . . .15 1.10.1 Prima dimostrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . .15 1.10.2 Seconda dimostrazione . . . . . . . . . . . . . . . . . . . . . . . . . .16 1.11 Applicazioni lineari iniettive . . . . . . . . . . . . . . . . . . . . . . . . . . . .18 1.12 Applicazioni lineari tra spazi con la stessa dimensione . . . . . . . . . . . . .18 1.13 L'applicazione composta di applicazioni lineari e lineare . . . . . . . . . . . .19 1.14 Rappresentazione di unaVF !Wlineare mediante una matrice, ssate una base inVe una inW. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .19 1.15 Una matrice quadrata e invertibile se e solo se ha rango massimo . . . . . . .20 1 1.16 Rango per righe e rango per colonne . . . . . . . . . . . . . . . . . . . . . . .21 1.17 Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 1.17.1 Determinanti 22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .22 1.17.2 Determinanti 33 . . . . . . . . . . . . . . . . . . . . . . . . . . . .23 1.17.3 Determinantinn. . . . . . . . . . . . . . . . . . . . . . . . . . . .24 1.18 Teorema di Binet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 1.19 Determinante e dipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . .25 1.20 Una matrice quadrataAe invertibile se e solo se detA6 = 0:. . . . . . . . . .26 1.21 Cambio di base: come si trasformano le coordinate di un vettore . . . . . .27 1.22 Cambio di base: come si trasforma la matrice che rappresenta un endomor smo27 1.23 Proiezione ortogonale di un vettore lungo un altro . . . . . . . . . . . . . . .28 1.24 Teorema di Pitagora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .29 1.25 Disuguaglianza di Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . .29 1.26 Condizioni equivalenti a detA6 = 0 . . . . . . . . . . . . . . . . . . . . . . .30 1.27 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .31 1.28 Autovettori indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . .31 1.29 Condizione suciente per la diagonalizzabilita . . . . . . . . . . . . . . . . . .32 1.30 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .32 1.31 Diagonalizzazione di forme quadratiche . . . . . . . . . . . . . . . . . . . .34 1.32 Matrici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .35 1.33 Equazione caratteristica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .36 1.34 Soluzioni di un sistema di erenziale lineare . . . . . . . . . . . . . . . . . . .36 1.35 Sistema di erenziali lineari e autovettori . . . . . . . . . . . . . . . . . . . . .36 1.36 Condizione necessaria (non suciente) per la convergenza di una serie . . . .37 1.37 La serie geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .37 1.38 La serie armoniche generalizzate . . . . . . . . . . . . . . . . . . . . . . . .38 1.39 Criteri per serie a termini positivi . . . . . . . . . . . . . . . . . . . . . . . . .391.39.1 Criterio del confronto . . . . . . . . . . . . . . . . . . . . . . . . . .39 1.39.2 Criterio del rapporto . . . . . . . . . . . . . . . . . . . . . . . . . . . .40 1.39.3 Criterio della radice . . . . . . . . . . . . . . . . . . . . . . . . . . .42 1.39.4 Criterio del confronto asintotico . . . . . . . . . . . . . . . . . . . .43 1.40 Serie a termini di segno alterno . . . . . . . . . . . . . . . . . . . . . . . . .43 1.41 Serie assolutamente convergenti . . . . . . . . . . . . . . . . . . . . . . . .45 1.42 Di erenziabilita implica continuita . . . . . . . . . . . . . . . . . . . . . . . .46 1.43 Il teorema del di erenziale totale . . . . . . . . . . . . . . . . . . . . . . . . .47 2 1.44  Di erenziale della funzione composta . . . . . . . . . . . . . . . . . . . . . .47 1.45 La formula del gradiente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .48 1.46 La legge di conservazione dell'energia in sica . . . . . . . . . . . . . . . . .49 1.47 Derivata lungo un vettore. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .50 1.48 Il gradiente e ortogonale agli insiemi di livello. . . . . . . . . . . . . . . . . . .50 1.49 Direzione di piu rapida crescita. . . . . . . . . . . . . . . . . . . . . . . . . . .51 1.50 Punti critici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .52 1.51 Studio dei punti critici con la forma quadratica. . . . . . . . . . . . . . . .52 1.52 Moltiplicatori di Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . .56 1.53 Integrali di 1-forme (o di campi vettoriali) lungo cammini orientati . . . . . .571.53.1 Interpretazione: lavoroR C! come somma di lavori elementari . . . . .58 1.54 Ogni forma esatta e chiusa . . . . . . . . . . . . . . . . . . . . . . . . . . . . .58 1.55 Ogni campo conservativo e irrotazionale . . . . . . . . . . . . . . . . . . . . .59 1.56 Indipendenza dal cammino . . . . . . . . . . . . . . . . . . . . . . . . . . . .60 1.57 Omotopia e integrali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .62 1.58 Formula di Gauss-Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .63 1.59 Formule per l'area . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .65 1.60 Il teorema della divergenza di Gauss . . . . . . . . . . . . . . . . . . . . . . .66 1.60.1 Interpretazione in nitesimale della divergenza: un approccio euristico.68 1.61 Il teorema del rotore di Stokes . . . . . . . . . . . . . . . . . . . . . . . . . .691.61.1 Interpretazione in nitesimale del rotore . . . . . . . . . . . . . . . .70 1.61.2 Deduzione euristica del teorema del rotore dalla formula di Green .71 1.62 Equazione di continuita . . . . . . . . . . . . . . . . . . . . . . . . . . . . .72 3 1 Principali teoremi dimostrati, o soltanto enunciati. 1.1 Lemma di Steinitz e teorema sulla stessa cardinalita delle basi In questo paragrafoVe uno spazio vettoriale (reale o complesso). Lemma 1.1(Steinitz).1 Supponiamo cheSpan(v 1; :::; v n) = Ve che i vettoriw 1; :::; w kdi Vsiano linearmente indipendenti. Al lora kn In breve, se uno spazio e generato danvettori, alloran+ 1 vettori di quello spazio non possono mai essere linearmente indipendenti. Dimostrazione.Supponiamo, per assurdo,k > n. Passo 1. Poiche Span(v 1; :::; v n) = V, il vettorew 1si puo scrivere come w1= k 1v 1+   +k nv n(1.1) Almeno uno dei coecientik 1; ::; k ne diverso da zero (altrimenti si avrebbe w 1= 0 e w1; :::; w ksarebbero dipendenti). Per ssare le idee, supponiamo k 16 = 0.2 Da (1.1) segue v1=1k 1w 1k 2k 1v 2    k nk 1v n(1.2) Rimpiazziamov 1con w 1in fv 1; v 2; :::; v ng e formiamofw 1; v 2; :::; v ng . Da (1.1) e (1.2) segue che ogni combinazione lineare difw 1; v 2; :::; v ng e anche combinazione lineare difv 1; v 2; :::; v ng , e viceversa. Dunque, Span(w 1; v 2; v 3; :::; v n) = Span( v 1; v 2; v 3:::; v n) = V Passo 2. Poiche Span(w 1; v 2; :::; v n) = V, il vettorew 2si puo scrivere come w2= h 1w 1+ k 2v 2+ k 3v 3+   k nv n(1.3) Almeno uno dei coecientik 2; :::; k ne diverso da zero (altrimenti si avrebbe w 2= h 1w 1, contro l'ipotesi di indipendenza lineare diw 1; :::; w k). Al solito, non e restrittivo supporre k26 = 0. Rimpiazziamov 2con w 2in fw 1; v 2; :::; v ng e formiamofw 1; w 2; :::; v ng . Ragionando come sopra, abbiamo Span(w 1; w 2; v 3:::; v n) = Span( w 1; v 2; v 3; :::; v n) = V Procedendo in modo analogo, al terzo passo rimpiazziamov 3con w 3, poi v 4con w 4eccetera, formando ogni volta un nuovo insieme di generatori diV. Arriviamo cos al passon-esimo. Passon. Ragionando come sopra, rimpiazziamo l'ultimov ncon w n. Avremo Span(w 1; w 2; :::; w n) = V1 Teorema soltanto enunciato a lezione, senza dimostrazione. La dimostrazione e facoltativa. 2Questa ipotesi non e restrittiva, perche Span(v 1; :::; v n) non dipende dall'ordine dei vettori v 1; :::; v n. 4 Ma poiche abbiamo supposto k > n, dall'insieme di generatorifw 1; w 2; :::; w ng restano fuori i vettoriw jcon j=n+ 1; ::; k. Tali vettori devono essere combinazioni lineari dei primin vettoriw 1; :::; w n. Assurdo, perche i vettori w 1; :::; w n; :::; w ksono linearmente indipendenti. Dunque, l'ipotesik > nconduce a un assurdo. Pertanto deve esserekn, come si voleva dimostrare.2 Teorema 1.1(Basi di uno stesso spazio hanno la stessa cardinalita).3 Se uno spazio vettoriale ha basi nite (cioe, costituite da un numero nito di elementi), al lora tutte le sue basi hanno la stessa cardinalita. In modo piu esplicito, possiamo enunciare il teorema nel modo seguente: Se(v 1; :::; v n) e(w 1; :::; w k) sono basi di uno stesso spazio vettorialeV, al loran=k. Dimostrazione.Poichev 1; :::; v ngenerano Vew 1; :::; w ksono linearmente indipendenti, per il Lemma di Steinitz (1.1) si hakn. Simmetricamente, invertendo i ruoli delle basi, poiche w1; :::; w kgenerano Vev 1; :::; v nsono linearmente indipendenti, si ha anche nk. Ne segue k=n.2 Diremo che uno spazio vettorialeVe nitamente generatoo e nito-dimensionale, se esiste un insieme nito di vettori diVche generaV. Grazie al fatto che due basi di uno stesso spazio vettorialeVhanno lo stesso numero di elementi, ha senso dare la seguente de nizione. De nizione 1.2.Ladimensionedi uno spazio vettoriale nitamente generato e il numero di elementi di una sua qualsiasi base. Lo spazio nullo (cioe lo spazio costituito dal solo vettore zero) non ha base. Si puo anche dire che una sua base e l'insieme vuoto. La dimensione dello spazio nullo e zero. 1.2 De nizioni equivalenti di base Teorema 1.3.Sianov 1; :::; v nvettori in uno spazio vettoriale V. I due fatti seguenti sono equivalenti: (a)I vettoriv 1; :::; v ngenerano Ve sono linearmente indipendenti. (b)Ogni vettorevinVsi scrive in un modo, e in uno solo, come combinazione lineare di v1; :::; v n. Dimostrazione.Prima parte:(a) implica (b). Siavun vettore arbitrario inV. Dall'ipotesi che i vettoriv 1; :::; v ngenerino V, segue che esiste (almeno) una combinazione lineare div 1; :::; v nche e uguale a v: v=x 1v 1+ :::+x nv n(1.4)3 Teorema soltanto enunciato a lezione, senza dimostrazione. La dimostrazione e facoltativa. 5 Dall'ipotesi che i vettori v 1; :::; v nsiano linearmente indipendenti, segue che la scrittura (1.4) divcome combinazione lineare div 1; :::; v ne unica. Infatti, supponiamo che si abbia: v=x 1v 1+   +x nv n; v=y 1v 1+   +y nv n(1.5) Sottraendo membro a membro, si ottiene0= (x 1 y 1) v 1+   + (x n y n) v n(1.6) da cui segue (per l'ipotesi di indipendenza lineare)x 1 y 1= 0 ;  ; x n y n= 0, cioe x1= y 1;   ; x n= y n. Dunque, le scritture (1.5) coincidono, ossia la scrittura di vcome combinazione lineare div 1; :::; v ne unica. Seconda parte:(b) implica (a). Il fatto che ogni vettorevinVsi scriva in (almeno) un modo come combinazione lineare div 1; :::; v nequivale a dire che v 1; :::; v ngenerano V. L'ipotesi di unicita di tale scrittura implica che, in particolare, il vettore nullo si scrive in modo unico come combinazione lineare div 1; :::; v n. Quindi, da z1v 1+   +z nv n= 0= 0v 1+   + 0v n(1.7) seguez 1=   =z n= 0. Quindi, i vettori v 1; :::; v nsono linearmente indipendenti. 2 Per il precedente teorema 1.3, i due modi seguenti di de nire una base di uno spazio vettoriale sono equivalenti: De nizione 1.4(Base).Un insieme ordinatov 1; :::; v ndi vettori di Vsi dice unabasedi Vse i vettoriv 1; :::; v nsono linearmente indipendenti e generano V. In modo equivalente: Un insieme ordinatov 1; :::; v ndi vettori di Vsi dice unabasediVse ogni vettorevinV si scrive in un modo, e in uno solo, come combinazione lineare div 1; :::; v n. De nizione 1.5(Coordinate rispetto a una base).SiaB= (v 1; :::; v n) una base di uno spazio vettorialeV. Ogni vettorevinVsi scrive, in modo unico, come combinazione lineare v=x 1v 1+ :::+x nv n Si dice che(x 1; :::; x n) inRn e lan-pla del lecoordinatedivrispetto alla baseB. 1.3 Un'applicazione lineare e completamente de nita dalle immagini deivettori di una base del suo dominio Teorema 1.6.SianoV ; Wspazi vettoriali. SianoB= (v 1; :::; v n) una base diVew 1; :::; w n vettori qualunque inW. Al loraesiste un'unicaapplicazione lineareVF !Wper la quale F(v 1) = w 1; F (v 2) = w 2;   F(v n) = w n 6 Dimostrazione. a)Unicita. Supponiamo che esista un'applicazione lineareFdaVaWche soddis F(v i) = w i, i= 1; :::; n. Siavun qualunque vettore inV. SiccomeB= (v 1; :::; v n) e una base, esiste un'unican-pla ordinata di numeri (x 1; :::; x n) per la quale si ha v=x 1v 1+   +x nv n. Poiche Fper ipotesi e lineare, si deve avere F(v) =x 1F (v 1) +   +x nF (v n) = x 1w 1+   +x nw n Dunque, per ogniv2V, l'immagineF(v) e determinata in modo unico. Quindi, l'applica- zione lineareF(ammesso che esista) e determinata in modo unico. b)Esistenza. La parte a) della dimostrazione a erma che, se esiste un'applicazioneFche e lineare e soddisfaF(v i) = w i, i= 1; :::; n, essa e determinata in modo unico. Precisamente, se v=x 1v 1+   +x nv n non puo che essereF(v) =x 1w 1+   +x nw n(1.8) Allora, resta solo da veri care che l'applicazioneF, de nita in questo modo dall'uguaglianza (1.8), e lineare. Dimostriamo che e additiva. Dati due vettoriv=x 1v 1+   +x nv ne v0 =x0 1v 1+   +x0 nv n, si ha v+v0 = (x 1+ x0 1) v 1+   + (x n+ x0 n) v n. Quindi, per il modo in cui abbiamo de nitoF, F(v+v0 ) = (x 1+ x0 1) w 1+   + (x n+ x0 n) w n Del resto, F(v) +F(v0 ) = (x 1w 1+   +x nw n) + ( x0 1w 1+   +x0 nw n) = (x 1+ x0 1) w 1+   + (x n+ x0 n) w n Dunque,F(v+v0 ) =F(v)+F(v0 ). In modo del tutto analogo si dimostra cheF(v) =F(v). 1.4 Applicazioni lineariRn !Rm Ricordiamo la de nizione del prodottoAXdi una matricemnper un vettoren1. Sia Auna matrice di tipomn. Le colonne diA A1= a 11   am1 ; : : : : : : ; A n= a 1n   amn sononvettori colonna diRm . SeX= x 1   xn e un vettore colonna di Rn , il prodottoAX e de nito comela combinazione lineare del le colonneA 1; :::; A ndi Ai cui coecienti sono x1; :::; x n: AX=x 1A 1+   +x nA n(1.9) 7 Dunque AXe un vettore di tipom1, cioe un vettore colonna diRm . Esplicitamente,AX e il vettore a 11x 1+   +a 1nx n   am1x 1+   +a mnx n (1.10) Il prodottoAXsi puo vedere anche come un prodotto del tiporighe per colonne, nel senso che la componentei-esima (AX) idel vettore AXe il prodotto (AX) i= ja i1      a inj x 1   xn = a i1x 1+   +a inx n(1.11) della rigai-esima diAper la colonnaX. Teorema 1.7(Rappresentazione delle applicazioni lineariRn !Rm , rispetto alle basi canoniche).. 1.Fissiamo una qualunque matriceAdi tipomn. Al lora l'applicazione Rn L A !Rm X7!AX (Xvettore colonna inRn ,AXvettore colonna inRm ) e lineare. 2.Non ci sono altre funzioni lineari daRn aRm , al di fuori di quel le descritte sopra. Cioe, seRn G !Rm e lineare, al lora esiste un'unica matriceA, di tipomn, per la qualeG(X) =AX, per ogni vettore colonnaX2Rn . Dimostrazione.1) Dimostriamo che l'applicazioneX7!L A( X) =AXe lineare. Occorre dimostrare che A(X+Y) =AX+AYeA(X) = AX. SeX= x 1   xn , Y= y 1   yn , per la de nizione (1.9) A(X+Y) = (x 1+ y 1) A 1+   (x n+ y n) A n = (x 1A 1+   x nA n) + ( y 1A 1+   y nA n) =AX+AY Analogamente, A(X) = (x 1) A 1+   (x n) A n= (x 1A 1+   x nA n) =  AX 2) Ora dimostriamo che seRn G !Rm e una qualunque applicazione lineare, allora esiste una matriceA, di tipomn, determinata in modo unico daG, con la proprieta cheG(X) = AXper ogniX2Rn . 8 Consideriamo i vettori e 1= 1   0 , ..., e n= 0   n della base canonica del dominio Rn . Poniamo:G(e 1) = A 1;      ; G(e n) = A n doveA 1; :::; A nsono vettori colonna in Rm . Allora, per ogni vettore colonna inRn X= x 1   xn = x 1e 1+   +x ne n si haG(X) =G(x 1e 1+   x ne n) = x 1G (e 1) +   +x nG (e n) = x 1A 1+   +x nA n Osserviamo ora chex 1A 1+   +x nA n= AX, per de nizione diAX, doveA= [A 1; :::; A n] e la matrice le cui colonne sonoA 1; :::; A n. Abbiamo allora dimostrato che G(X) =AX, per un'opportuna matriceA. Tale matriceAe unica, perche le sue colonne sono determinate in modo unico daG. Infatti, A1= G(e 1) ;     ; A n= G(e n) dovee 1; :::; e ne la base canonica di Rn .2 1.5 Nucleo e immagine Teorema 1.8.SiaF:V!Wun'applicazione lineare. Al lora a)KerF=fv2VjF(v) = 0ge un sottospazio vettoriale diV; b)ImF=fw2Wj 9v2V F(v) =wge un sottospazio vettoriale diW. Dimostrazione.a) Sianox;y2KerF; per de nizione questo signi ca:F(x) =F(y) =0. AlloraF(x+y) =F(x) +F(y) =0+0=0e quindi anchex+yappartiene a KerF; abbiamo cos dimostrato che l'insieme KerFe chiuso rispetto alla somma. See un qualunque scalare ex2KerF, alloraF(x) =F(x) =0=0, quindixappartiene a KerF; dunque KerF e chiuso rispetto alla moltiplicazione per uno scalare. Inoltre si osservi che KerFnon e vuoto, in quanto contiene il vettore nullo (infattiF(0) =0). Questo completa la dimostrazione. b) Sianow 1; w 22 ImF; per de nizione questo signi ca che esistonov 1; v 22 Vtali che w1= F(v 1) e w 2= F(v 2). Allora w1+ w 2= F(v 1) + F(v 2) = F(v 1+ v 2) e quindi anchew 1+ w 2appartiene a Im F. See un qualunque scalare, allora w 1= F(v 1) = F(v 1) e quindiw 1appartiene a Im F. Inoltre ImFcontiene almeno il vettore nullo, perche 0=F(0). Concludiamo che ImFe un sottospazio diW.2 9 1.6 Teorema di Rouche-Capelli SiaA= (a ij) una matrice di tipo mne siabun vettorem1 (ossia un vettore colonna inRm ). Teorema 1.9(Rouche-Capelli).Il sistema lineareAX=be risolubile se e solo se il rango del la matrice dei coecienti e uguale al rango del la matrice completa: AX=brisolubile()rkA= rk [A;b] Dimostrazione.Il sistema lineareAX=bdimequazioni innincognite 8 > > < > > :a 11x 1+ :::::::+a 1nx n= b 1     am1x 1+ :::::::+a mnx n= b m puo essere scritto anche: x1 a 11   am1 + x 2 a 12   am2 +   +x n a 1n   amn = b 1   bm o, in modo piu conciso,x1A 1+   +x nA n= b; doveA 1; :::; A nsono le colonne della matrice Adei coecienti. Vediamo allora cheogni (eventuale) soluzione(x 1; :::; x n) esprime il vettore colonnab dei termini noti come combinazione lineare del le colonne diA. Quindiil sistema lineare AX=be risolubile se e solo se il vettore dei termini notibappartiene al lo spazio generato dal le colonne del la matrice dei coecienti. Questa condizione si veri ca se e solo se lo spazio vettoriale generato dalle colonneA 1; :::; A ne uguale allo spazio vettoriale generato daA 1; :::; A n; b, cioe se e solo se rkA= rk [A;b], dove [A;b] e la matrice che si ottiene accostando alla matrice dei coecientiAla colonnabdei termini noti.2 1.7 Struttura dello spazio delle soluzioni di un sistema lineare Teorema 1.10.SiaAX=bun qualunque sistema lineare non omogeneo dimequazioni in nincognite. Supponiamo che il sistema abbia soluzioni e siaX 0una sua soluzione particolare, cioe un vettore diRn tale cheAX 0= b. Al lora lo spazioS ol(A;b)del le soluzioni diAX=b e dato daS ol(A;b) =S ol(A;0) +X 0 In altre parole, lo spazio del le soluzioni del sistema lineare non omogeneoAX=bsi ottiene dal lo spazio del le soluzioni del sistema omogeneo associatoAX= 0traslando quest'ultimo di un vettoreX 0, dove X 0e una qualunque soluzione particolare del sistema AX=b. 10 Dimostrazione. SiaY2S ol(A;0). Questo signi ca cheAY= 0. Allora A(Y+X 0) = AY+AX 0= 0 + b=b; cosS ol(A;0) +X 0e contenuto nell'insieme S ol(A;b). Viceversa, siaXinS ol(A;b), cioe sia Xuna qualunque soluzione diAX=b. Allora A(XX 0) = AXAX 0= bb= 0: QuindiXX 02 S ol(A;0). Posto alloraY=XX 0, abbiamo X=Y+X 0con AY= 0 e quindiS ol(A;b) e contenuto nell'insiemeS ol(A;0) +X 0. Dunque S ol(A;b) =S ol(A;0) +X 0. 2 (In modo del tutto analogo si dimostra il teorema di struttura dello spazio delle soluzioni di un'equazione di erenziale lineare a coecienti costanti.) 1.8 Due spazi sono isomor se e solo se hanno la stessa dimensione Un'applicazione lineareVF !Wsi dice unisomor smose e invertibile, cioe se e iniettiva e suriettiva. Se questo accade, si dimostra facilmente che la funzione inversaG=F 1 e anch'essa lineare. Uno spazio vettorialeVsi diceisomorfoa uno spazio vettorialeWse esiste un isomor smo daVaW. Restringiamoci ora a spazi vettoriali nito-dimensionali. Teorema 1.11.Due spazi vettoriali sono isomor se e solo se hanno la stessa dimensione. Dimostrazione.a) Supponiamo cheVF !Wsia un isomor smo. Si dimostra facilmente che sev 1; :::; v ne una base di V, alloraF(v 1) = w 1; ::::::::::; F (v n) = w ne una base di W: un isomor smotrasforma basi in basi. Di qui segue subito che due spazi vettoriali isomor ( nito-dimensionali) hanno la stessa dimensione. [Dimostriamo nei dettagli cheF(v 1) ; ::::::::::; F(v n) e una base di W. 1)F(v 1) = w 1; ::::::::::; F (v n) = w nsono linearmente indipendenti . Sey 1F (v 1) +   +y nF (v n) = 0, allora 0 =y 1F (v 1) +   +y nF (v n) = F(y 1v 1+   +y nv n) Dunquey 1v 1+   +y nv ne mandato da Fnel vettore nullo. Siccome ancheF(0) = 0 eFe iniettiva (per ipotesi), si conclude chey 1v 1+   +y nv n= 0. Ma v 1; :::; v nsono lineamente indipendenti, quindiy 1= :::=y n= 0. 2)I vettoriF(v 1) = w 1; ::::::::::; F (v n) = w ngenerano W. PoicheFe suriettiva (per ipotesi), ogniwinWe immagine di un vettorex 1v 1+   +x nv n2 V: w=F(x 1v 1+   +x nv n) = x 1F (v 1) +   +x nF (v n) 11 Dunque ogni winWsi rappresenta come combinazione lineare diF(v 1) ; ::::::::::; F(v n).] b) Viceversa, supponiamo dimV= dimW=ne siano (v 1; :::; v n) ;(w 1; :::; w n) due basi diVeWrispettivamente. SiaVF !Wl'unica applicazione lineare che soddisfa F(v 1) = w 1; ::::::::::; F (v n) = w n (Si veda il teorema 1.6). Dimostriamo ora cheFe iniettiva e suriettiva, ossia e un isomor smo. Cominciamo a dimostrare che KerF= 0, cioe cheFe iniettiva. Siav=x 1v 1+   +x nv n un vettore in KerF. Allora 0 =F(x 1v 1+   +x nv n) = x 1F (v 1) +   +x nF (v n) = x 1w 1+   +x nw n Siccomew 1; :::; w nsono linearmente indipendenti, si ha x 1= :::=x n= 0 e quindi v= 0. Dunque KerF= 0 e quindiFe iniettiva. Per dimostrare cheFe suriettiva, si noti che un qualunque vettorewinWsi puo scrivere: w=y 1w 1+   +y nw n= y 1F (v 1) +   +y nF (v n) = F(y 1v 1+   +y nv n) DunqueW= ImF, ossiaFe suriettiva.2 1.9 Somme dirette De nizione 1.12(Somma diretta).SiaVuno spazio vettoriale e sianoU 1; U 2due sottospazi vettoriali diV. Si dice cheVesomma direttadiU 1; U 2, e si scrive V=U 1 U 2; (1.12) se ogni elementovinVsi scrive in modo unico come v=u 1+ u 2; u 12 U 1u 22 U 2(1.13) Se questa condizione e soddisfatta, si dice cheU 1e U 2sono sottospazi supplementariinV. Diremo anche cheU 1e supplementarediU 2, e che U 2e supplementarediU 1. 12 V =U 1 U 2vu 1u 2U 2U 1Figura 1: Esempio di somma diretta (dimV= 3, dimU 1= 1, dim U 2= 2). Ogni vettore v2Vsi scrive in modo unico comev=u 1+ u 2, con u 12 U 1, u 22 U 2. Teorema 1.13.Lo spazio vettorialeVe somma diretta diU 1; U 2, V=U 1 U 2; se solo se valgono entrambe le condizioni seguenti: 1.U 1\ U 2= 0 2.dimV= dimU 1+ dim U 2 Chiariamo il signi cato della condizioneU 1\ U 2= 0. Qui0denota lo spazio nullo, cioe lo spazio vettoriale costituito dal solo vettore nullo. La condizioneU 1\ U 2= 0signi ca che l'unico vettore che sta sia inU 1che in U 2e il vettore nullo. Dimostrazione.a) SupponiamoV=U 1 U 2; dimostriamo le condizioni 1 e 2. Supponiamo, per assurdo, che l'intersezioneU 1\ U 2contenga un elemento vdiverso dal vettore nullo. Alloravsi puo scrivere in due modi distinti: v=v+ 0;v2U 1; 02U 2 = 0 +v;02U 1; v2U 2 Assurdo, perche la scrittura deve essere unica. QuindiU 1\ U 2contiene solo il vettore nullo. 13 Sia a 1; ::; a huna base di U 1e sia b 1; ::; b kuna base di U 2. Ora dimostriamo che a 1; ::; a h; b 1; ::; b k e una base diV; ovviamente ne seguira dimV= dimU 1+ dim U 2. Poiche per ipotesi V=U 1 U 2, ogni vettore vinVsi scrive in modo unico come somma v=u 1+ u 2= x 1a 1+   +x ha h |{z} u12 U 1+ y 1b 1+   +y kb k |{z} u22 U 2 conu 12 U 1e u 22 U 2. L'esistenza di tale scrittura prova che i vettori a 1; :::; a h; b 1; :::; b k generanoV. I vettoriu 1e u 2sono determinati in modo unico (perche V=U 1 U 2) e anche la loro scrittura come combinazioni lineari u1= x 1a 1+   +x ha h; u 2= y 1b 1+   +y kb k e unica (perchea 1; :::; a he b 1; :::; b ksono basi). Ne segue che anche la scrittura di vcome v=x 1a 1+   +x ha h+ y 1b 1+   +y kb k e unica. Ne segue (per l'arbitrarieta div) chea 1; :::; a h; b 1; :::; b ke una base di V. (b) Supponiamo che valgano le condizioni 1 e 2; dimostriamoV=U 1 U 2. PoniamoW=U 1+ U 2= fu 1+ u 2; u 12 U 1; u 22 U 2g (1.14) U1+ U 2e l'insieme di tutti i vettori che si scrivono (a priori, in almeno un modo) come somma di un vettore inU 1e di un vettore in U 2. Ovviamente We un sottospazio vettoriale diV. Dall'ipotesiU 1\ U 2= 0segueW=U 1 U 2.4 Allora, per la prima parte della dimostrazione, si ha dimW= dimU 1+ dim U 2. Poiche (ipotesi 2) anche dim V= dimU 1+ dim U 2, si ha dimV= dimU 1+ dim U 2= dim W PoicheWe un sottospazio diVe dimV= dimW, si haV=W. DunqueU 1 U 2= W=V, come si voleva dimostrare.2 EsempioDenotiamo rispettivamente con Mat(nn), Sym(nn), AntiSym(nn) gli spazi vettoriali di tutte le matricinn, di quelle simmetriche e di quelle antisimmetriche. AlloraMat(nn) = Sym(nn)AntiSym(nn) (1.15) Dimostriamolo, utilizzando la de nizione di somma diretta. Ogni matriceAin Mat(nn) si scrive come A=A +At2 + A At2 (1.16)4 Dimostriamo la proprieta di unicita della scrittura. Supponiamou 1+ u 2= u0 1+ u0 2, con u 1; u0 12 U 1e u2; u0 22 U 2. Allora u 1 u0 1= u0 2 u 2. Poiche u 1 u0 12 U 1e u0 2 u 22 U 2, si ha u 1 u0 1= u0 2 u 22 U 1\ U 2= 0. Allorau 1= u0 1e u 2= u0 2. 14 con A +At2 2 Sym(nn) eA At2 2 AntiSym(nn). Questa scrittura e unica. Infatti, supponiamoA 1+ B 1= A 2+ B 2, con A 1; A 22 Sym(nn) eB 1; B 22 AntiSym(nn). AlloraA 1 A 2= B 2 B 1, dove A 1 A 2e simmetrica e B 1 B 2e antisimmetrica. Quindi A1 A 2= B 1 B 2, essendo al tempo stesso simmetriche e antisimmetriche, sono entrambe nulle. PertantoA 1= A 2e B 1= B 2. Oppure, possiamo dimostrare (1.15) osservando che Mat(nn)\Sym(nn) =0(l'unica matrice simmetrica e antisimmetrica e la matrice nulla) e dim Sym(nn) + dim AntiSym(nn) = dim Mat(nn) (Infatti,n (n+1)2 +n (n1)2 = n2 ). 1.10 Teorema delle dimensioni, o teorema Nullita+Rango Teorema 1.14(delle dimensioni, o \Nullita + Rango").SiaVF !Wun'applicazione lineare, conV nito-dimensionale. Al lora: dimV= dim(KerF) + dim(ImF) Il nome del teorema deriva dal fatto che la dimensione del nucleo si chiamanul litae la dimensione dell'immagine si chiamarango: Nullita diF= dim(KerF) Rango diF= rkF= dim(ImF) 1.10.1 Prima dimostrazione Il teorema delle dimensioni e un immediato corollario del seguente: Lemma 1.2.SiaVF !Wun'applicazione lineare. Al lora lo spazio vettorialeF(V)(im- magine diVtramiteF) e isomorfo a un qualunque sottospazio vettorialeUdiVche sia supplementare diKerF. Dimostrazione.SiaUun sottospazio diVsupplementare di KerF: V= KerFU(1.17) Dunque ogniv2Vsi scrive in modo unico come v=y+u y2KerFu2U(1.18) Per il teorema 1.13, l'intersezioneU\KerFcontiene il solo vettore nullo e dim Ker (F) + dimU= dimV(1.19) Restringiamo ora il dominio diFdaVaUe il codominio daWaF(V). Otteniamo in questo modo l'applicazione lineare (che con un abuso di notazione denotiamo ancora conF) UF !F(V) (1.20) 15 che a ogni elemento u2Uassocia l'elementoF(u)2F(V). Dimostriamo che tale funzione e un isomor smo lineare, cioe che e suriettiva e iniettiva.0vu y Ker FUV = KerFU0w =F(v)F (V)W Figura 2: Lo spazio immagineF(V) e isomorfo a un qualunque sottospazioUsupplementare di KerF. 1) Dimostriamo che l'applicazione (1.20) e suriettiva, cioe che per ogniw2F(V) esiste u2Utale chew=F(u). Siawun qualunque vettore inF(V) e siav2Vtale cheF(v) =w. Decomponiamov come in (1.18) nella somma v=y+u y2KerFu2U(1.21) Alloraw=F(v) =F(y) +F(u) =F(u), percheF(y) = 0. Dunquew=F(u) conu2U, il che prova che (1.20) e suriettiva. 2) Dimostriamo che la funzione (1.20) e iniettiva. Sianou;u0 vettori diUtali cheF(u) =F(u0 ). AlloraF(uu0 ) = 0 e quindiuu0 appartiene a KerF. D'altra parteuu0 appartiene aU(percheUe un sottospazio vettoriale) e quindiuu0 2U\KerF. Ne segue cheuu0 = 0 (percheU\KerFcontiene solo il vettore nullo), cioeu=u0 . Dunque (1.20) e un isomor smo lineare.2 Poiche 1.20 e un isomor smo, dimU= dimF(V). Ma per de nizione dimF(V) = rk (F). Da 1.19 segue allora il Teorema Nullita+Rango: dimV= dim Ker (F) + rk (F) (1.22) 1.10.2 Seconda dimostrazione Teorema 1.15(delle dimensioni, o \Nullita + Rango").SiaVF !W, conV nito- dimensionale. Al lora:dimV= dim(KerF) + dim(ImF) 16 Dimostrazione. Siav 1; :::; v kuna base di Ker F. (Se KerF= 0, la dimostrazione procede nello stesso modo, ma i vettoriv 1; :::; v knon si considerano). Estendiamola a una base di V: v1; :::; v k; v k+1; :::; v k+r(1.23) Naturalmente, dim KerF=ke dimV=k+r. Per dimostrare la tesi, bastera allora dimostrare che dim(ImF) =r. E a questo scopo, posto F(v k+1) = w 1; :::; F (v k+r) = w r; (1.24) basta dimostrare chew 1; :::; w rcostituiscono una base di Im F. 1.Dimostriamo chew 1; :::; w rgenerano il sottospazio Im F. Siaw2ImF. Dunque, esistev2V v=x 1v 1+   +x kv k+ y 1v k+1+   +y rv k+r tale chew=F(v). Allora: w=F(v) =F(x 1v 1+   +x kv k+ y 1v k+1+   +y rv k+r) =y 1F (v k+1) +   +y rF (v k+r) =y 1w 1+   +y rw r (Infatti:F(v 1) =   =F(v k) = 0, in quanto v 1; :::; v kappartengono al nucleo di F). Dunque,w 1; :::; w rgenerano lo spazio Im F. 2.Dimostriamo chew 1; :::; w rsono linearmente indipendenti. Supponiamo: 0 =y 1w 1+   +y rw r(1.25) Si ha:0 =y 1w 1+   +y rw r =y 1F (v k+1) +   +y rF (v k+r) =F(y 1v k+1+   +y rv k+r) Alloray 1v k+1+   +y rv k+rappartiene a Ker F. Dunque y1v k+1+   +y rv k+r= z 1v 1+   +z kv k ossia:z1v 1+   +z kv k y 1v k+1    y rv k+r= 0 (1.26) Poichev 1; :::; v k; v k+1; :::; v k+rsono linearmente indipendenti (formano una base di V), tutti i coecienti in (1.26) sono nulli. In particolare,y 1=   =y r= 0. Dunque w1; :::; w rsono linearmente indipendenti. 17 Riassumendo: w 1; :::; w re una base di Im Fe quindi dim ImF=r. Da dimV=k+r= dim KerF+rsegue allora la tesi: dimV= dim KerF+ ImF 2 1.11 Applicazioni lineari iniettive Teorema 1.16.Un'applicazione lineareF:V!We iniettiva se e solo seKerF= 0. (Come al solito 0 denota il sottospazio nullo, vale a dire il sottospazio che contiene solo il vettore nullo. Non si confonda lo spazio nullo con l'insieme vuoto;, chenone un sottospazio vettoriale.) Dimostrazione.Supponiamo cheFsia iniettiva (Questo signi ca, per de nizione: Per ogni x;yinV, seF(x) =F(y), allorax=y). Siax2KerF. Si ha dunque:F(x) = 0 =F(0). Dall'ipotesi di iniettivita, segue allorax= 0. Viceversa, supponiamo KerF= 0. Sianox;yinVtali cheF(x) =F(y), ossia, in modo equivalente, tali cheF(xy) = 0. Quest'ultima condizione equivale a direxy2KerF. Ma KerF= 0, quindixy= 0, ossiax=y.2 1.12 Applicazioni lineari tra spazi con la stessa dimensione Teorema 1.17.SiaF:V!Wun'applicazione lineare e supponiamodimV= dimW. Al lora le seguenti proprieta sono equivalenti: 1)Fe iniettiva; 2)Fe suriettiva; Dimostrazione.Poniamo dimV= dimW=n. Allora: Finiettiva()dim KerF= 0 ()dim ImF= dimV(per il teorema delle dimensioni) ()dim ImF= dimW(perche dimV= dimW) ()Fsuriettiva 2 18 1.13 L'applicazione composta di applicazioni lineari e lineare Teorema 1.18.SeVF !WeWG !Zsono applicazioni lineari, al lora l'applicazione compostaVG F !ZVW ZF GG Fe lineare. Dimostrazione.Sianov 1; v 2vettori arbitrari in V. Si ha: (GF)(v 1+ v 2) = G(F(v 1+ v 2)) per de nizione di GF =G(F(v 1) + F(v 2)) perche Fe additiva =G(F(v 1)) + G(F(v 2)) perche Ge additiva = (GF)(v 1) + ( GF)(v 2) per de nizione di GF Questo prova che l'applicazione compostaGFe additiva. In modo del tutto analogo si prova cheGFe omogenea: (GF)(v) =G(F(v)) per de nizione diGF =G(F(v)) percheFe omogenea =G(F(v)) percheGe omogenea =(GF(v)) per de nizione diGF QuindiGFlineare.2 1.14 Rappresentazione di unaVF !Wlineare mediante una matrice, ssate una base inVe una inW SianoV ; Wspazi vettoriali nito-dimensionali e siaVF !Wun'applicazione lineare. Fissia- mo due basiB= (v 1; :::; v n) ;B0 = (w 1; :::; w m) (1.27) rispettivamente inVeW. La baseBde nisce un isomor smo IRn B !V(che denotiamo con lo stesso simboloBche designa la base) nel modo seguente: X= x 1   xn 7! v=x 1v 1+   +x nv n(1.28) 19 Dunque tale isomor smo manda la n-plaX= x 1   xn 2 Rn nell'unico vettorev2Vle cui B-coordinate sono (x 1; :::; x n). Ovviamente, l'isomor smo inverso VB 1 !IRn associa a ogni vettorev2Vlan-pla delle sueB-coordinate. Nello stesso modo, la baseB0 de nisce un isomor smo IRm !W. In de nitiva, abbiamo il diagrammaVW R mR nF B B 0Questo diagramma mostra che la scelta delle due basi B;B0 traduce, per cos dire, l'appli- cazione lineareVF !Win un'applicazione lineare daRn aRm , nel senso cheesiste un'unica applicazione lineare daRn aRm per la quale il diagramma commuta. Si tratta ovviamente dell'applicazione (B0 ) 1 F B. Tale applicazione sara rappresentata da una matriceA, di tipomn. Si dice cheAela matrice che rappresentaFrispetto al la baseBnel dominio e al la baseB0 nel codominio. Esplicitamente, l'azione della matriceAe la seguente: al vettore colonnaX2Rn delleB- coordinate div2V, la matriceAassocia il vettore colonnaY=AX2Rm delleB0 -coordinate diw=F(v)2W. Insistiamo sul fatto che la matriceAnon dipendesoltantodaF: dipende daF,dal la scelta del la baseBedal la scelta del la baseB0 . Se si scelgono altre basi inVo inW, la matrice che rappresentaFin generale cambiera. 1.15 Una matrice quadrata e invertibile se e solo se ha rango massimo Teorema 1.19.Una matrice quadrataAdi ordinene invertibile se e solo serkA=n. Dimostrazione.SiaL A: Rn !Rn l'operatore associato alla matriceA(cioe la moltiplica- zione a sinistra per la matriceA). La matriceAe invertibile se e solo seL Ae un isomor smo. Per il teorema precedente,L Ae un isomor smo se e solo se L Ae suriettivo, cioe se e solo se rkA= dimL A= n.2 20 1.16 Rango per righe e rango per colonne Teorema 1.20(Rango per righe = rango per colonne).SiaAuna matricemn. I due sottospazi vettoriali S pan(Righe diA)Rn ; S pan(Colonne diA)Rm sono isomor . In particolare,dimS pan(Colonne diA) = dimS pan(Righe diA) Attenzione: Il teorema dice che i due sottospaziS pan(Righe diA) eS pan(Colonne diA) sono isomor , non che siano lo stesso spazio. In generale, S pan(Colonne diA)6 =S pan(Righe diA) Esempio: 1 1 0 0 Prima dimostrazione. Sappiamo cheS pan(Righe diA) = (KerA)? e quindiS pan(Righe diA) e KerAsono sottospazi supplementari inRn : Rn =S pan(Righe diA)KerA Abbiamo visto (Lemma prima del teorema delle dimensioni) che:ogni sottospazio diRn supplementare del nucleo KerAe isomorfoall'immagine Im A. DunqueS pan(Righe diA) e isomorfo a ImA: S pan(Righe diA)ImA=S pan(Colonne diA) Dunque i due spaziS pan(Righe diA) eS pan(Colonne diA), essendo isomor , hanno la stessa dimensione.2 Seconda dimostrazione. (Rango per righe = Rango per colonne). Abbiamo visto cheS pan(Righe diA) = (KerA)? Allora:dimS pan(Righe diA) = dim(KerA)? =ndim(KerA)(Rn = KerA(KerA)? ) = dim(ImA)(Teorema delle dimensioni) = dimS pan(Colonne diA) 2 21 1.17  Determinanti Denotiamo con Mat(nn) lo spazio vettoriale delle matrici quadratenna coecienti reali. SeA 1; :::; A n2 Rn sono le colonne della matriceA2Mat(nn), scriviamo anche A= [A 1; :::; A n]. Teorema 1.21. [Esistenza e unicita del determinante] Esiste un'unica funzione, che si chiamadeterminantee si denotadet, Mat(nn)D !R; A= [A 1; :::; A n] 7!det[A 1; :::; A n] ;(1.29) che soddisfa le seguenti proprieta: 1.Multilinearita. Se pensiamo al la funzione determinantedetcome a una funzione del le colonne diA, dete lineare in ogni colonna. Cioe, se si ssano tutti gli argomentiA icon i6 =j, la funzionedete lineare nel l'argomentoA j: det[:::; A j+ 0 A0 j; ::: ] =det[:::; A j; ::: ] +0 det[:::; A0 j; ::: ] 2.Alternanza. Se si scambiano tra loro due colonneA i; A j, i6 =j, il valore del determinante cambia segno:det[:::; A i; :::; A j; ::: ] =det[:::; A j; :::; A i; ::: ] In modo equivalente, se due colonne sono uguali, il determinante vale zero: det(:::; C; ::::; C; :::) = 0 3.Normalizzazione. detI= 1, doveI= [E 1; :::; E n] = 1 0 0 0 10     0 01 e la matrice identita nn. Non diamo la dimostrazione di questo teorema. Ci accontentiamo di studiare i casin= 2 en= 3; in questo modo, avremo un'idea del caso generale (narbitrario). 1.17.1 Determinanti22 Denotiamo conDuna qualunque funzione Mat(22)D !Rche sia bilineare (2-lineare, cioe lineare in ogni colonna) e alternante. Sia A= [A 1; A 2] = a 11a 12 a21a 22 22 una qualunque matrice 2 2. Scriviamo le colonne diAcome combinazione lineare dei vettori E1= 1 0 ; E 2= 0 1 che formano la base canonica di R2 : A1= a 11E 1+ a 21E 2; A 2= a 12E 1+ a 22E 2(1.30) Ricordando cheD(E 1; E 1) = D(E 2; E 2) = 0 e D(E 1; E 2) = D(E 2; E 1), abbiamo D(A) =D([A 1; A 2]) = D(a 11E 1+ a 21E 2; a 12E 1+ a 22E 2) =a 11a 12D (E 1; E 1) + a 11a 22D (E 1; E 2) +a 21a 12D (E 2; E 1) + a 21a 22D (E 2; E 2) =a 11a 22D (E 1; E 2) + a 21a 12D (E 2; E 1) =a 11a 22D (E 1; E 2) a 21a 12D (E 1; E 2) =( a 11a 22 a 21a 12)D (E 1; E 2) Da questo calcolo segue subito un'osservazione importante: SeMat(22)D !Re una qualunque funzione bilineare alternante, il valoreD(A) = D[A 1; A 2] - doveA 1; A 22 R2 sono dati da (1.30)-, e uguale al numero(a 11a 22 a 21a 12) moltiplicato per il valoreD(E 1; E 2) = D(I)che la funzione stessaDassume sul la matrice identita. Pertanto, una funzione Mat(22)D !Rbilineare alternantee completamente caratteriz- zata dal valoreD(E 1; E 2) = D(I)che essa assume sul la matrice identitaI= [E 1; E 2]. In particolare, se richiediamo che tale valore sia 1 (Proprieta di Normalizzazione), ottenia- mo la funzione determinante det. Dunque, detA= (a 11a 22 a 21a 12) det( E 1; E 2) = (a 11a 22 a 21a 12) :1 =a 11a 22 a 21a 12 1.17.2 Determinanti33 Sia Mat(33)D !Runa qualunque funzione multilineare (3-lineare, cioe lineare in ognuna delle tre colonne) alternante. Sia A= [A 1; A 2; A 3] = a 11a 12a 13 a21a 22a 23 a31a 32a 33 una qualunque matrice 33. Scriviamo le colonne diAcome combinazione lineare dei vettori E1= 1 0 0 ; E 2= 0 1 0 E 3= 0 0 1 : A1= a 11E 1+ a 21E 2+ a 31E 3; A 2= a 12E 1+ a 22E 2+ a 32E 3; A 3= a 13E 1+ a 23E 2+ a 33E 3 (1.31) 23 Come nel caso 2 2, si vede facilmente cheDe completamente determinata quando sia assegnato il valoreD(E 1; E 2; E 3) che essa assume sul la matrice identitaI= [E 1; E 2; E 3]. Infatti, ricordando cheD(E i; E j; E k) = 0 se almeno due dei tre indici i; j; ksono uguali tra loro eD(E 1; E 2; E 3) = D(E 2; E 3; E 1) = D(E 3; E 1; E 2) = D(E 2; E 1; E 3) = D(E 1; E 3; E 2) = D(E 3; E 2; E 1) si ha: D([A 1; A 2; A 3]) =D(a 11E 1+ a 21E 2+ a 31E 3; a 12E 1+ a 22E 2+ a 32E 3; a 12E 1+ a 22E 2+ a 32E 3) =a 11a 22a 33D (E 1; E 2; E 3) + a 21a 32a 13D (E 2; E 3; E 1) + a 31a 12a 23D (E 3; E 1; E 2) + +a 11a 32a 23D (E 1; E 3; E 2) + a 21a 12a 33D (E 2; E 1; E 3) + a 31a 22a 13D (E 3; E 2; E 1) =( a 11a 22a 33+ a 21a 32a 13+ a 31a 12a 23 a 11a 32a 23 a 21a 12a 33 a 31a 22a 13)D (E 1; E 2; E 3) La funzione determinante det e de nita come la funzione 3-lineare alternante per la qualedet(E 1; E 2; E 3) = 1 Dunque detA= (a 11a 22a 33+ a 21a 32a 13+ a 31a 12a 23 a 11a 32a 23 a 21a 12a 33 a 31a 22a 13) det( E 1; E 2; E 3) = (a 11a 22a 33+ a 21a 32a 13+ a 31a 12a 23 a 11a 32a 23 a 21a 12a 33 a 31a 22a 13) :1 =a 11a 22a 33+ a 21a 32a 13+ a 31a 12a 23 a 11a 32a 23 a 21a 12a 33 a 31a 22a 13 1.17.3 Determinantinn Generalizziamo ora la costruzione della funzione determinante. Ragionando come nei casi n= 2 en= 3, si vede che, pernarbitrario, una qualunque funzionen-lineare alternante Mat(nn)D !Re determinata in modo unico dal valoreD(I) che essa assume sulla matrice identitaI= [E 1; :::; E n]. In particolare, se richiediamo che tale valore sia 1, otteniamo la funzione determinante det. Per scrivere una formula esplicita che dia il valore del determinante su una generica matrice nn, premettiamo qualche nozione sulle permutazioni. Una permutazionedi 1;2; :::; ne una funzione invertibile da 1;2; :::; nin se. Un esempio: la permutazione denotata = 1 2 3 4 5 2 3 1 5 4 o semplicemente: 2 3 1 5 4 e de nita da:(1) = 2; (2) = 3; (3) = 1; (4) = 5; (5) = 4. Le permutazioni sunindici 1; :::; nsonon! e costituiscono un gruppo (rispetto all'opera- zione di composizione), detto ilgruppo simmetricoS n. Uno scambiootrasposizionee una permutazione che scambia tra loro due elementi, lasciando ssi tutti gli altri. In modo piu 24 formale, uno scambio e una permutazione 2S nche soddisfa questa condizione: esiste una coppia di indici distintih; kin 1; :::; ntali che(h) =k; (k) =he(i) =iper ogniiin 1; :::; n, coni6 =hei6 =k. Ogni permutazione si puo ottenere facendo successivamente un certo numero di scambi. Si dimostra che vale il fatto seguente: Teorema (sulla parita del numero di scambi).Supponiamo che si possa passare dal la per- mutazione(1); :::; (n)al la permutazione fondamentale1; :::; nmedianteq 1scambi e anche medianteq 2scambi. Al lora i due numeri q 1; q 2hanno la stessa parita, cioe sono entrambi pari o entrambi dispari. Questo teorema giusti ca la seguente de nizione. Una permutazionedif1; :::; ngsi dicepariodispari, a seconda che per passare da (1); :::; (n) a 1; :::; noccorra un numero pari o un numero dispari di scambi.5 Ilsegnosgn() della permutazionee de nito nel modo seguente: sgn() = 1 se(1); :::; (n) e una permutazione pari; 1 se(1); :::; (n) e una permutazione dispari. La formula esplicita per detA, doveA= (a ij) e una qualunque matrice nne allora la seguente: detA=X 2S nsgn( )a (1) 1a (2) 2:::a (n)n(1.32) dove la somma e fatta su tutte len! permutazioni dif1; :::; ng. (Si noti che questa formula generalizza le due formule valide nei casin= 2 en= 3). 1.18 Teorema di Binet Teorema 1.22(Binet).(Il determinante del prodotto e il prodotto dei determinanti). Se A; Bsono matricinn, det(AB) = (detA):(detB) (1.33) 1.19 Determinante e dipendenza lineare Teorema 1.23.Sianov 1; ::; v nvettori arbitrari in Rn . Al lorav 1; ::; v nsono linearmente dipendenti se e solo sedet(v 1; ::; v n) = 0 . Dimostrazione.1) Parte prima:v 1; ::; v nlinearmente dipendenti !det(v 1; ::; v n) = 0 . Supponiamo che i vettoriv 1; :::; v nsiano linearmente dipendenti. Allora tra di essi ce n'e (almeno) uno, diciamov 1, che e combinazione lineare degli altri: v1=  2v 2+   + nv n:5 Ad esempio (n= 3), le 3! = 6 permutazioni di 1;2;3 sono: (1;2;3), (2;3;1), (3;1;2), permutazioni pari; (2;1;3), (1;3;2), (3;2;1), permutazioni dispari. 25 Allora det(v 1; :::; v n) = det(  2v 2+   + nv n; v 2; :::; v n) = 2det( v 2; v 2; :::; v n) +   + ndet( v n; v 2; :::; v n) = 0: (I determinanti sono tutti nulli perche in ciascuno di essi ci sono due colonne uguali). 2) Parte seconda:det(v 1; ::; v n) = 0 !v 1; ::; v nlinearmente dipendenti Supponiamo det(v 1; :::; v n) = 0. Supponiamo, per assurdo, che i vettoriv 1; :::; v n2 Rn siano linearmente indipendenti. Allora, la matriceA= (v 1; :::; v n) ha rango uguale a n, e quindiRn L A !Rn e (suriettiva e quindi) invertibile, e quindi esiste una matriceBper la qualeAB=I. Allora detAdetB= detI= 1, e pertanto detA6 = 0. Altra dimostrazione della Parte seconda (implicazione det(v 1; ::; v n) = 0 !v 1; ::; v n linearmente dipendenti: Se i vettoriv 1; :::; v nfossero linearmente indipendenti, essi costituirebbero una base di Rn ; in particolare i vettorie 1; :::; e ndella base canonica di Rn si scriverebbero come combinazione lineare ej=n X i=1a ijv i (j= 1; :::; n). Sostituendo queste uguaglianze in det(e 1; :::; e n), e sviluppando per linearita, otteniamo una somma di determinanti tutti nulli o perche due colonne sono uguali, o perche coincidono (a meno del segno) con det(v 1; :::; v n), che e nullo per ipotesi. In de nitiva, otte- remmo det(e 1; :::; e n) = 0. Ma questo e assurdo: infatti det( e 1; :::; e n) = 1, per la proprieta di normalizzazione. I vettoriv 1; :::; v nsono dunque linearmente dipendenti. 2 1.20 Una matrice quadrataAe invertibile se e solo sedetA6 = 0: Esplicitiamo quanto segue: per una matrice quadrataA, la proprieta di essere invertibile equivale alla proprieta di avere detA6 = 0 (cioe, di esserenon singolare). Teorema 1.24.Una matrice quadrataAe invertibile se e solo sedetA6 = 0. Dimostrazione.1) SeAe invertibile eBe la sua inversa, si haAB=I(matrice identita ). Allora, per il teorema di Binet, 1 = detI= det(AB) = (detA)(detB) Di qui segue ovviamente che detA6 = 0. 2) Viceversa, se la matrice quadrataA, di ordinen, ha determinante diverso da zero, per il precedente teorema 1.23, le suencolonne sono linearmente indipendenti, ossia rkA=n. Ne segue che l'applicazione lineareRn L A !Rn e invertibile, e quondi ancheAe invertibile. 2 26 1.21  Cambio di base: come si trasformano le coordinate di un vettore Teorema 1.25(Come cambiano le coordinate).Vspazio vettoriale;B,B0 basi diV;v2V. SianoX; X0 2Rn i vettori colonna del le coordinate del lo stesso vettorevrispetto al le due basiB,B0 : X:B-coordinate div;X0 :B0 -coordinate div: Al lora la relazione tra i vettori colonnaXeX0 e X=P X0 ; X0 =P 1 X(1.34) dovePe la matrice che rappresenta l'identita, quando si ssa la baseB0 nel dominio e la base Bnel codominio, ossia e la matrice le cui colonne sono leB-coordinate dei vettoriv0 1; :::; v0 n del la baseB0 . Dimostrazione.6 Si ricordi il teorema di rappresentazione delle applicazioni lineari mediante matrici: SianoV ; Wspazi vettoriali nito-dimensionali (qualunque) eVT !Wun'applicazione lineare; si ssi (a piacere) una baseCinVe una baseDinW. Al lora esiste (ed e determinata in modo unico) una matriceAdi tipomn(dovem= dimWen= dimV) con la proprieta seguente: sev2VhaC-coordinateY(vettore colonna inRn ), al lora il vettoreZ=AY (prodotto righe per colonne) e il vettore del leD-coordinate diT(v). Nel nostro caso,V=We l'applicazioneTe l'applicazione identita diV: VI d !V (I d(x) =x,8x2V). Denotiamo conPla matrice che rappresentaI dquando si ssa la base B0 nel dominio, la baseBnel codominio. Allora, seX0 sono leB0 -coordinate div2V, il vettoreX=P X0 e il vettore delleB-coordinate diI d(v) =v, cioe sono le coordinate dello stessovrispetto alla baseB.2 1.22 Cambio di base: come si trasforma la matrice che rappresenta un endomor smo Teorema 1.26(Come cambia la matrice di un endomor smo).SiaVF !Vendomor smo lineare,B,B0 basi diV, A= [F] Bmatrice di Frispetto aB; A0 = [F] B0 matrice diFrispetto aB0 . Al lora il legame traAeA0 e A0 =P 1 AP dovePe la matrice che rappresenta l'identita, quando si ssa la baseB0 nel dominio e la base Bnel codominio (ossia e la matrice le cui colonne sono leB-coordinate dei vettoriv0 1; :::; v0 n del la baseB0 ).6 La dimostrazione e facoltativa. 27 Dimostrazione. 7 Siano: P: la matrice diVI d !V, scelteB0 nel dominio,Bnel codominio. X: il vettore colonna delleB-coordinate div2V; Y: il vettore colonna delleB-coordinate diF(v); X0 : il vettore colonna delleB0 -coordinate div; Y0 : il vettore colonna delleB0 -coordinate diF(v). Allora: X=P X0 ; Y=P Y0 Y=AX; Y0 =A0 X0 . Sostituendo: P Y0 =A(P X0 );ossiaY0 = (P 1 AP)X0 . Dunque, per l'unicita della matrice che rappresentaFnella baseB0 , A0 =P 1 AP 2VV R nR nV R nR nVF BB AId B 0P 1PB 0IdF (= IdFId)A 0 =P 1 APL'endomor smo Fe rappresentato dalla matriceArispetto alla baseBe dalla matriceA0 =P 1 AP rispetto alla baseB0 . Le colonne diP(matrice di cambio di base) sono leB-coordinate dei vettori della baseB0 . 1.23 Proiezione ortogonale di un vettore lungo un altro Teorema 1.27(Proiezione di un vettore lungo un altro).SiaVuno spazio vettoriale euclideo e siab2Vun vettore non nul lo. Ogni vettorea2Vsi scrive in modo unico come a=a k+ a ? cona kparal lelo a bea ?ortogonale a b.7 La dimostrazione e facoltativa. 28 Si ha: ak=a bb bb In particolare, seb=ue unitario (kuk= 1), ak= ( au)u(Sekuk= 1) Dimostrazione.Il vettorea kdeve essere del tipo tb,t2R. Il vettoreatbe ortogonale abse e solo se (atb)b= 0;ossiaabt(bb) = 0 (1.35) Da (1.35) segue:t=a bb b Sostituendo tale valore ina k= tb, si ottiene ak=a bb bb 2 1.24 Teorema di Pitagora Teorema 1.28(Teorema di Pitagora).SiaVuno spazio vettoriale euclideo. Sev;w2V sono ortogonali tra loro, al lora kv+wk2 =kvk2 +kwk2 Dimostrazione. kv+wk2 = (v+w)(v+w) =vv+ 2vw+vv =kvk2 +kwk2 2 1.25 Disuguaglianza di Schwarz Teorema 1.29(Disuguaglianza di Schwarz).Per tutti iv;w2V, jvwj  kvk kwk(1.36) 29 Dimostrazione. 8 Sew= 0, la (1.36) e ovvia. Scriviamov=v k+ v ?con v kmultiplo di we v?ortogonale a w. Per Pitagora, kvk2 = vk 2 +kv ?k2  vk 2 = v ww ww 2 = v ww w 2 kwk2 =j vwj2k wk2 Moltiplicando perkwk2 si ha la tesi.2 1.26 Condizioni equivalenti adetA6 = 0 Teorema 1.30.SiaAuna matrice quadratanne siaRn L A !Rn l'endomor smo associato. Al lora le seguenti proprieta sono equivalenti: Ae invertibile; Esiste una matrice quadrataBper la qualeAB=I; Esiste una matrice quadrataBper la qualeBA=I; L Ae un isomor smo; KerA= 0; rkA=n; detA6 = 0; Le colonne diAsono linearmente indipendenti; Le righe diAsono linearmente indipendenti; Dimostrazione.Tutte le implicazioni del teorema sono gia state dimostrate, tranne: \Se esisteBper la qualeBA=I, alloraAB=I", Dimostriamolo. Se esiste una matrice quadrataBper la qualeBA=I, alloraAe iniettiva. Infatti, daAX=AY, segue (BA)X= (BA)Y, ossiaI X=I Y; dunqueX=Y. Allora la matriceArappresenta un isomor smo9 , e quindi deve essere invertibile. ChiamiamoA 1 la sua inversa. Allora, dall'ipotesiBA=Isegue, moltiplicando a destra perA 1 ,BAA 1 = A 1 , ossiaB=A 1 . Di conseguenza,AB=I. Riassumendo: SeApossiede un'inversa sinistraB, alloraBe anche inversa destra, e quindiAe invertibile.28 La dimostrazione e facoltativa. 9Un'applicazione lineare iniettivaRn aRn e anche suriettiva, e quindi e un isomor smo. 30 1.27 Polinomio caratteristico Teorema 1.31.Siaun numero reale e siaAuna matrice quadrata. Al lorae autovalore diAse e solo se e radice del polinomio caratteristicodet(AI). Dimostrazione.2Re autovalore diAse e solo se esisteX6 = 0 inRn per il qualeAX=X, che si puo scrivereAX= (I)X, ossia (AI)X= 0 Questa condizione si veri ca se e solo se (AI) non e iniettiva, ossia se e solo se det(AI) = 0 2 1.28 Autovettori indipendenti Teorema 1.32.SiaF:V!Vun endomor smo lineare. Sianov 1; :::; v mautovettori di F, con rispettivi autovalori 1; :::;  m. Supponiamo che questi autovalori siano a due a due distinti: i6 = jse i6 =j. Al lorav 1; :::; v msono linearmente indipendenti. Dimostrazione.Per induzione sum. Sem= 1, un autovettorev 1e un vettore non nullo, e quindi e linearmente indipendente. Assumiamo (ipotesi induttiva) che l'enunciato sia vero perm1 autovettori. Dimostriamo la tesi permautovettori. Supponiamo chec 1; ::; c msiano numeri per i quali c1v 1+ c 2v 2+ :::+c mv m= 0 (1.37) Dobbiamo dimostrare chec 1= :::=c m= 0. ApplicandoFotteniamo: c1 1v 1+ c 2 2v 2+ :::+c m mv m= 0 (1.38) Moltiplicando la (1.37) per motteniamo c1 mv 1+ c 2 mv 2+ :::+c m mv m= 0 Sottraendo le ultime due espressioni:c1(  1  m) v 1+ :::+c m1(  m1  m) v m1= 0 L'ipotesi induttiva implicac1(  1  m) = :::=c m1(  m1  m) = 0 Siccome j  m6 = 0 perj= 1; ::; m1, concludiamo chec 1= :::=c m1= 0. Tornando alla relazione iniziale 1.37, vediamo chec mv m= 0 e quindi anche c m= 0. 2 31 1.29 Condizione suciente per la diagonalizzabilita Teorema 1.33.Se una matricennhanautovalori reali distinti, al lora e diagonalizzabile. Dimostrazione.Si scelganonautovettori relativi aglinautovalori distinti. Per il teorema precedente, questi autovettori sono linearmente indipendenti, e quindi formano una base di Rn .2 1.30 Il teorema spettrale Teorema 1.34(Teorema spettrale).SiaA=At una matrice reale simmetricann. Al lora: 1.Tutti gli autovalori 1; :::;  ndi Asono reali. 2.Autovettori relativi ad autovalori distinti sono ortogonali. 3.Aeortogonalmente diagonalizzabile. Questo signi ca che esiste una baseortonormale B0 diRn che e formata da autovettori diA. Dunque, esiste una matrice invertibileP per la qualeA0 =P 1 AP=diag( 1; :::;  n) (1.39) Si noti che la matricePe ortogonale (P 1 =Pt ), perche le sue colonne sono i vettori della base ortonormaleB0 . Dunque si puo scrivere anche A0 =P 1 AP=Pt AP= diag ( 1; :::;  n) (1.40) La dimostrazione si basa sui seguenti tre lemmi. Lemma 1 Gli autovalori di una matrice reale simmetrica sono reali. Dimostrazione10 del lemma 1 con l'uso dei numeri complessi. Per il teorema fondamentale dell'algebra, esiste unnumero complesso= + i!per il quale PA( ) = 0. Ora proviamo chee reale (cioe,!= 0). Idea: pensiamo alla matriceAcome a un endomor smo Cn A !Cn Il numeroe autovalore diA. Dunque, esiste un autovettoreZ=X+ iYinCn (X; Y2Rn ), Z=0 B B @z 1   zn1 C C A=0 B B @x 1+ i y 1   xn+ i y n1 C C A2 Cn Si haAZ=Z, ossiaA(X+ iY) = ( + i!)(X+ iY) Separando le parti reali e immaginarie, AX= X!Y ; AY= Y+!X(1.41)10 La dimostrazione e facoltativa. 32  Ricordare: la condizione di simmetriaA=At equivale a: AXY=XAY(1.42) Allora, da (1.41) e (1.42) segue ( X!Y)Y=X( Y+!X) ossia (XY)!(YY) = (XY) +!(XX) ovvero! kXk2 +kYk2  = 0 PoicheX+ iY=Z6 = 0 (e quindikXk2 +kYk2 6 = 0), deve essere!= 0. Conclusione:= e un numero reale.2 Lemma 2 Autovettori relativi ad autovalori distinti di una matrice simmetrica, sono ortogonali. SianoX 1; X 2autovettori della matrice simmetrica A, AX1=  1X 1; AX 2=  2X 2; con autovalori distinti: 16 = 2. PoicheAe simmetrica, (AX 1) X 2= X 1 (AX 2) Quindi( 1X 1) X 2= X 1 ( 2X 2) ossia( 1  2)( X 1 X 2) = 0 Poiche 1  26 = 0, si deve avereX 1 X 2= 0 :2 Lemma 3 Seve autovettore diFauto-aggiunto, il complemento ortogonalev? e F-invariante. Ipotesi:v2Vautovettore dell'operatore autoaggiuntoF, Fv=v ew2v? , cioe vw= 0 Tesi:Fwappartiene av? , cioe (Fw)v= 0 33 La dimostrazione e semplice: (Fw)v=w(Fv) =w(v) =(wv) = 0 Dunque, postoV 0= v? , la restrizioneFjV 0trasforma V 0in se: FjV 0: V 0! V 0 2 Dimostrazione.(Teorema spettrale) La dimostrazione e fatta per induzione sulla dimensionendiV. Base dell'induzione: cason= 1. Sen= dimV= 1, un qualunque vettore non nullo di Ve autovettore diF. Per ottenere una base ortonormale, basta normalizzarlo. Quindi l'enunciato del teorema e vero pern= 1. Supponiamo l'enunciato vero in dimensionen1. SiaF:V!Vauto-aggiunto, con dimV=n. Sappiamo cheFpossiede un autovalore reale 1(Lemma 1). Sia v 1un corrispondente autovettore, che possiamo pensare unitario. Il complemento ortogonale V0= v 1? ha dimensionen1 ed eF-invariante (Lemma 3). Consideriamo allora la restrizioneFjV 0di FaV 0: FjV 0: V 0! V 0 Poiche dimV 0= n1, per l'ipotesi induttiva l'operatore autoaggiuntoFjV 0possiede una base ortonormalev 2; :::; v ndi autovettori. Allora v 1; :::; v n1; v ne una base ortonormale diVformata da autovettori diF. 2 1.31 Diagonalizzazione di forme quadratiche Teorema 1.35(Ogni forma quadratica puo essere ortogonalmente diagonalizzata).Siaq una forma quadratica suRn . Al lora esiste una base ortonormaleB0 diRn che diagonalizza q. Questo signi ca che, dette(x0 1; :::; x0 n) le coordinate rispetto a tale base, si ha q(x0 1; :::; x0 n) =  1( x0 1)2 +  + n( x0 n)2 Dimostrazione.Supponiamo che la forma quadraticaqsi scrivaq(X) =Xt AX, doveAe una matrice simmetrica eX= (x 1; :::; x n)t sono le coordinate rispetto alla base canonica di Rn . Operiamo un cambio di variabili:X=P X0 . Il polinomioXt AXdiventa allora (P X0 )t A(P X0 ) =X0 t (Pt AP)X0 Quindi la matriceAche rappresenta la forma quadratica, si trasforma in A0 =Pt AP 34 Per il teorema spettrale, esiste una matrice ortogonaleP(di cambio di base) che diagonalizza la matriceA: A0 =P 1 AP=Pt AP= diag ( 1; :::;  n) (1.43) Con il cambio di coordinateX=P X0 , la matrice rappresentativa della forma quadraticaqsi trasforma proprio nella matrice diagonaleA0 =Pt AP. Dunque, nelle coordinateX0 la forma quadratica si scrive in forma diagonale.2 1.32 Matrici ortogonali De nizione 1.36(Matrici ortogonali).Una matrice quadrataAsi diceortogonalese At A=I(1.44) Se vale (1.44), allora ancheA At =I(Per un fatto gia dimostrato). Quindi una matriceA e ortogonale se e solo seAe invertibile eA 1 =At . Teorema 1.37(Le matrici ortogonali rappresentano le isometrie).SiaA2M at(nn). Le seguenti condizioni sono equivalenti: 1.La matriceAe ortogonale (cioeAt A=I); 2.L'operatore lineareRn A !Rn ,X7!AX, e una isometria diRn , cioe preserva il prodotto scalare standard diRn : 8X; Y2Rn ;(AX)(AY) =XY(1.45) Dimostrazione.La condizione 8X; Y2Rn ;(AX)(AY) =XY(1.46) e equivalente a8X; Y2Rn ; XAt (AY) =XY(1.47) a sua volta equivalente aX(At AI)Y= 0 (1.48) Quest'ultima condizione, valida per ogniX; Y, equivale aAt AI= 0. 2 Teorema 1.38.SeAe una matrice ortogonale, al loradetA= 1oppuredetA=1. Dimostrazione.1 = detI= det(At A) = (detAt )(detA) = (detA)2 2 Le matrici ortogonali con determinante uguale a 1 rappresentano le rotazioni. 35 1.33 Equazione caratteristica Teorema 1.39(Equazione caratteristica).L'esponenzialex(t) =et e soluzione del l'equa- zione a coecienti costantix00 +a 1x0 +a 0x = 0 (1.49) se e solo see una radice del l'equazione caratteristica 2 +a 1 +a 0= 0 (1.50) Dimostrazione.Sex(t) =et , si ha: x0 (t) =et ; x00 (t) =2 et Sostituendo nell'equazionex00 +a 1x0 +a 0x = 0 (1.51) si ottiene:et (2 +a 1 +a 0) = 0 Poicheet e sempre diversa da zero,x(t) =et e soluzione dell'equazione (1.51) se e solo se 2 +a 1 +a 0= 0 2 1.34 Soluzioni di un sistema di erenziale lineare Teorema 1.40.L'insieme del le soluzioni del sistema lineareX0 =AXe uno spazio vetto- riale. In breve: ogni combinazione lineare di soluzioni, e ancora una soluzione. Dimostrazione.Supponiamo cheX 1; X 2siano soluzioni del sistema ,lineare X0 =AX: X0 i= AX i, i= 1;2. Allora, per ogni combinazione lineareZ=c 1X 1+ c 2X 2, Z0 = (c 1X 1+ c 2X 2)0 =c 1X0 1+ c 2X0 2 =c 1AX 1+ c 2AX 2 =A(c 1X 1+ c 2X 2) = AZ Quindi ancheZ=c 1X 1+ c 2X 2e soluzione del sistema. 2 1.35 Sistema di erenziali lineari e autovettori Teorema 1.41(Soluzioni su linea retta).Supponiamo cheV 12 Rn sia autovettore di una matrice realeA,nn, con autovalore reale 1. Al lora X(t) =e 1t V1(1.52) e una soluzione del sistema diferenziale lineareX0 =AX. 36 Dimostrazione. Esplicitiamo l'ipotesi e la tesi del teorema: Ipotesi:AV 1=  1V 1. Tesi: Per ognit2R,X0 (t) =AX(t), doveX(t) =e 1t V1. La dimostrazione consiste nel calcolo seguente: X0 (t) = (e 1t V1)0 = 1e 1t V1 =e 1t ( 1V 1) =e 1t (AV 1) = A(e 1t V1) =A X(t)2 1.36 Condizione necessaria (non suciente) per la convergenza di una serie Teorema 1.42.Se una serie numerica+ 1 X n=1a ne convergente, al lora lim n!+1a n= 0 . Dimostrazione.Supponiamo che la serie numerica+ 1 X n=1a nsia convergente e che+ 1 X n=1a n= L (L2R). Questo signi ca che lim k!+1S k= L, doveS ke la somma parziale S k= a 1+ :::+a k. Ora si noti che, per ogni interon >2,a n= S n S n1. Quindi: lim n!+1a n= lim n!+1( S n S n1) = lim n!+1S n lim n!+1S n1= LL= 0 2 Si noti che la condizione limn!+1a n= 0 non e sucienteper assicurare la convergenza della serie+ 1 X n=1a n. Ad esempio, si consideri la serie armonicaP +1 n=11n . Il suo termine generale an= 1 =ntende a zero (pern!+1), ma la serie diverge a +1. 1.37 La serie geometrica Unaserie geometricadiragioneqe una somma in nita del tipo: +1 X n=0q n = 1 +q+q2 +q3 +q4 +::::+qn +::::(1.53) Teorema 1.43.La serie geometrica +1 X n=0q n = 1 +q+q2 +q3 +q4 +::::+qn +::::(1.54) ha il seguente carattere:37 1.Se jqj