logo
  • userLoginStatus

Welcome

Our website is made possible by displaying online advertisements to our visitors.
Please disable your ad blocker to continue.

Current View

Energy Engineering - Analisi e geometria 2

Principali dimostrazioni - 2013

Other

Analisi e Geometria 2 Dimostrazioni nel programma 2012-2013 Maurizio Citterio, Achille Frigeri, Christian Migliavacca 26 giugno 2013 In queste pagine sono raccolte le dimostrazioni richieste per l’esame orale, ed alcune facoltative, proposte come sono state illustrate in aula nel corso 2012/2013. Lo studente pu`o presentare qualsiasi altro procedimento dimostrativo, purch´e corretto e coerente. Algebra Lineare Spazi Vettoriali Base e coordinate Teorema 1. Se B =( v1,..., vn)`e una base di uno spazio vettoriale V, al lora ogni vettore v 2 V si scrive in un unico modo come combinazione lineare di v1,..., vn. Dimostrazione. Poich´e i vettori v1,..., vngenerano V, ogni vettore vsi scrive come combinazione lineare di v1,..., vn. Scriviamo vin due modi v= x1v1+··· +xnvn, v= y1v1+··· +ynvn e dimostriamo che le due scritture coincidono. Sottraendo membro a membro, si ottiene: (x1y1)v1+··· +( xnyn)vn= 0 Poich´e i vettori v1,..., vnsono per ipotesi linearmente indipendenti , si conclude che i coecienti della combinazione lineare sono tutti nulli , cio`e x1= y1,...,x n= yn. Teorema di esistenza della base Teorema 2. Ogni spazio vettoriale finitamente generato ammette una base. Dimostrazione. Per ipotesi, V `e finitamente generato, cio`e esiste un insieme finito di vettori di V, diciamo v1,..., vk, tali che V = L(v1,..., vk). Se v1,..., vksono linearmente indipendenti, allora ( v1,..., vk) `e una base. Se v1,..., vksono linearmente dipendenti, allora uno di questi vettori, diciamo vk, pu`o essere scritto come combinazione lineare dei restanti k1 vettori, e abbiamo V = L(v1,..., vk1,vk)= L(v1,..., vk1) Allora possiamo eliminare questo vettore vk. Ripetiamo il procedimento, fino ad arrivare a un insieme di vettori linearmente indipendenti. Questi vettori indipendenti generano ancora V e dunque costituiscono una base di V. Teorema della dimensione. Dimostrazioni facoltative Teorema. Tutte le basi di uno spazio vettoriale V hanno la stessa cardinalit`a. Lemma. Sia {v1,v2,..., vk}un sistema di generatori di V formato da kvettori e sia {w1,w2,..., wn}un insieme di nvettori di V linearmente indipendenti. Risulta n k. Dimostrazione (facoltativa) del lemma. Supponiamo, per assurdo, che n>k . V = L(v1,v2,..., vk) e possiamo scrivere w1= a1v1+ a2v2+ ··· + akvk. I vettori w1,w2,..., wn sono linearmente indipendenti, quindi almeno uno dei coecienti ai, diciamo a1, deve essere non nullo. Ricavando v1= 1 a1w1 a2 a1v2+ ··· ak a1vk, abbiamo dunque V = L(w1,v2,..., vk) e possiamo scrivere w2= b1w1+ b2v2+ ··· + bkvk. I vettori w1,w2,..., wnsono 1 linearmente indipendenti, quindi almeno uno dei coecienti b2,b3,...,b k, diciamo b2, deve essere non nullo. Ricavando v2= b1 b2w1+ 1 b2w2 b3 b2v3+ ··· bk b2vk, abbiamo dunque V = L(w1,w2,v3,..., vk). Ripetendo il procedimento per kvolte, si giunge a V = L(w1,w2,..., wk)equindirisulta wk+1 = c1w1+c2w2+··· +ckwk, contro l’ipotesi di indipendenza. Dimostrazione (facoltativa) del teorema del la dimensione. Siano ( v1,v2,..., vk)e( w1,w2,..., wn) due basi dello spa- zio vettoriale V. Poich´e i vettori v1,v2,..., vkgenerano V e i vettori w1,w2,..., wnsono linearmente indipendenti, per il precedente lemma risulta k n. Ma anche i vettori w1,w2,..., wngenerano V e i vettori v1,v2,..., vksono linearmente indipendenti, quindi n k.Dunque n= k. Teorema del completamento della base Teorema 3. Ogni col lezione di k vettori linearmante indipendenti v1,..., vk di uno spazio vettoriale V di di- mensione finita pu`o essere estesa fino a diventare una base di V. Cio`e esistono h vettori w1,..., wh tali che (v1,..., vk,w1,..., wh)sia una base di V. Dimostrazione. Se i vettori linearmente indipendenti v1,..., vkgenerano V, allora ( v1,..., vk) `e una base di V. Altrimenti esiste w12V tale che w162L(v1,..., vk). Se i vettori linearmente indipendenti v1,..., vk,w1generano V, allora ( v1,..., vk,w1) `e una base di V. Altrimenti si itera il processo. Poich´e V ha dimensione finita, dopo un numero finito di passaggi il procedimento iterativo si arresta fornendo una base ( v1,..., vk,w1,..., wh). Applicazioni Lineari Linearit`a e dipendenza Teorema 4. Ogni applicazione lineare trasforma vettori linearmente dipendenti in vettori linearmente dipendenti. Dimostrazione. Sia f:V ! W un’applicazione lineare e siano v1,v2,..., vnvettori di V linearmente dipendenti, cio`e esistono ↵1,↵ 2,...,↵ nnon tutti nulli tali che ↵1v1+↵2v2+··· +↵nvn= 0. Per la linearit`a di f, possiamo scrivere il vettore nullo di W come segue: 0 = f(0) = f(↵1v1+↵2v2+··· +↵nvn) = ↵1f(v1)+ ↵2f(v2)+ ··· +↵nf(vn) Dunque f(v1),f (v2),...,f (vn) sono linearmente dipendenti. Iniettivit`a e indipendenza Teorema 5. Ogni applicazione lineare iniettiva trasforma vettori linearmente indipendenti in vettori linearmente indipendenti. Dimostrazione. Sia f:V ! W un’applicazione lineare; siano v1,v2,..., vnvettori di V linearmente indipendenti e supponiamo f(v1),f (v2),...,f (vn) siano linearmente dipendenti, cio`e che esistano ↵1,↵ 2,...,↵ nnon tutti nulli tali che ↵1f(v1)+ ↵2f(v2)+ ··· +↵nf(vn)= 0. Per la linearit`a di f, abbiamo anche: f(↵1v1+↵2v2+··· +↵nvn)= 0= f(0). Se finiettiva, deve essere ↵1v1+↵2v2+··· +↵nvn= 0, equindi v1,..., vnlinearmente dipendenti, contro l’ipotesi fatta. Iniettivit`a e nucleo Teorema 6. L’applicazione lineare F `e iniettiva se e solo se ker F = {0}. Dimostrazione. ) ... ( Siano vev0vettori di V tali che F(v)= F(v0), cio`e F(v)F(v0)= 0. Per la linearit`a di F si ha F(v)F(v0)= F(vv0)equindi F(vv0)= 0,cio`e vv02ker F = {0}. Dunque vv0= 0,cio`e v= v0eF `e iniettiva. 2 Isomorfismi e dimensioni Teorema 7. Due spazi vettoriali V eW finitamente generati sono isomorfi se e solo se dim V =dim W . Dimostrazione. ) Se V eW sono isomorfi, esiste un isomorfismo F :V ! W . Poich´e F `e iniettivo, si ha dim V  dim W ; poich´e F `e suriettivo, si ha dim V dim W ;quindidim V =dim W . ( Se dim V =dim W , siano ( v1,v2,..., vn) una base per V e( w1,w2,..., wn) una base di W ; esiste un’applicazione lineare (unica) F :V ! W tale che F(vi)= wi,(i=1 ,...,n ). •F `e suriettiva poich´e Im F = Span( F(v1),F (v2),...,F (vn)) = Span( w1,w2,..., wn)= W . •F `e i n i e t t i v a p e r c h ´e k e r F = {0}; infatti, se v= ↵1v1+↵2v2+··· +↵nvn2ker F, allora 0 = f(↵1v1+↵2v2+··· +↵nvn) = ↵1f(v1)+ ↵2f(v2)+ ··· +↵nf(vn) = ↵1w1+↵2w2+··· +↵nwn Poich`e ( w1,w2,..., wn) `e una base di W , dovranno essere ↵1= ↵2= ··· = ↵n= 0. Dunque v= 0. Quindi F risulta essere un isomorfismo. Teorema delle dimensioni (“nullit`a + rango”) Teorema 8. Sia F :V ! W un’applicazione lineare tra spazi vettoriali, con V finito-dimensionale. Risulta dim V = dim(ker F)+dim(Im F). Dimostrazione. Sia v1,..., vkuna base di ker F. Estendiamola a una base di V: v1,..., vk,vk+1 ,..., vk+r (1) Naturalmente, dim ker F = kedim V = k+r. Per dimostrare la tesi, basta dimostrare che dim(Im F)= r. Poniamo F(vk+1 )= w1,...,F (vk+r)= wre dimostriamo che w1,..., wrcostituiscono una base di Im F. Dimostriamo che w1,..., wrgenerano il sottospazio Im F.Sia w 2Im F.Dunque,esiste v2V v= x1v1+··· +xkvk+y1vk+1 +··· +yrvk+r tale che w = F(v). Allora: w = F(v)= F(x1v1+··· +xkvk+y1vk+1 +··· +yrvk+r) = y1F(vk+1 )+ ··· +yrF(vk+r) = y1w1+··· +yrwr (Infatti: F(v1)= ··· = F(vk) = 0, in quanto v1,..., vkappartengono al nucleo di F). Dunque, w1,..., wrgenerano Im F. Dimostriamo che w1,..., wrsono linearmente indipendenti. Supponiamo: 0= y1w1+··· +yrwr = y1F(vk+1 )+ ··· +yrF(vk+r) = F(y1vk+1 +··· yrvk+r) Allora y1vk+1 +··· yrvk+r2ker F.Dunque y1vk+1 +··· +yrvk+r= z1v1+··· +zkvk ossia: z1v1+··· +zkvky1vk+1 ··· yrvk+r= 0 (2) Poich´e v1,..., vk,vk+1 ,..., vk+rsono linearmente indipendenti (formano una base di V), tutti i coecienti del- la combinazione lineare (2) sono nulli. In particolare, y1= ··· = yr= 0. Dunque w1,..., wrsono linearmente indipendenti. 3 Il determinante Teorema di Binet. Dimostrazioni facoltative Teorema. Siano F eG due endomorfismi del lo spazio vettoriale V,risulta det( FG )=(det F)(det G). Dimostrazione (facoltativa) per dim V =2 .Per ogni forma⌦, si ha ⌦( FG (u),FG (v)) = det( FG )·⌦( u,v), ma anche ⌦( FG (u),FG (v)) = det( F)·⌦( G(u),G (v)) =det( F)det( G)·⌦( u,v). Dall’unicit`a del determinante, segue l’enunciato. Corollario (Teorema di Binet per matrici) .Siano A eB due matrici quadrate del lo stesso ordine, risulta det( AB )= (det A)(det B). Dimostrazione (facoltativa). det( AB )=det LAB =det( LALB) =(det LA)(det LB) =(det A)(det B). Invertibilit`a e determinante Teorema 9. Sia F :V ! V un endomorfismo. F `e invertibile se e solo se det F 6=0 . Inoltre, se F invertibile al lora det F1=(det F)1. Corollario. Sia A una matrice quadrata. A ha inversa se e solo se det A 6=0 . Inoltre, se A invertibile al lora det A1=(det A)1. Dimostrazione. ) Se F1esiste, da FF 1= Id V si ha (det F)det F1=det FF 1=det( Id V)=1 , dunque det F 6=0 e det F `e i l r e c i p r o c o d i d e t F1. ( Sia det F 6= 0 e supponiamo, per assurdo, che F non sia invertibile. Allora F non `e inettivo. Dunque esiste v16= 0 tale che F(v1)= 0. Completiamo a una base B=( v1,..., vn). Se⌦`e una forma multilineare alternante non nulla, si ha ⌦( F(v1),...,F (vn)) | {z } =0 =(det F) | {z } 6=0 ⌦( v1,..., vn) | {z } 6=0 Poich´e F(v1)= 0, il primo membro dell’uguaglianza `e nullo; anch´e⌦sia non nulla `e necessario e suciente che ⌦( v1,..., vn)6= 0 e, poich´e det F 6= 0, il secondo membro dell’ugaglianza `e non nullo. Ma questo `e un assurdo. Diagonalizzazione Matrici simili e polinomio caratteristico Teorema 10. Matrici simili hanno lo stesso polinomio caratteristico. Dimostrazione. Sia A0= P1AP . Allora det( A0I )=det( P1AP P1I P ) =det[ P1(AI )P] =det P1det( AI )det P =det( AI ) 4 Teorema dell’equazione caratteristica Teorema 11. Il numero `e autovalore per la matrice quadrata A se e solo se `e una soluzione del l’equazione caratteristica det( AI) = 0 . Dimostrazione. `e autovalore di A se e solo se esiste v 6= 0in Rnper il quale Av = v,cio`e Av =( I)v, ossia (A I )v = 0.Per il Teorema di Cramer, questo sistema lineare omeogeneo (A I )v = 0ha una soluzione non nulla se e solo se det( AI) = 0 . Indipendenza degli autovettori relativi ad autovalori distinti. Dimostrazione facoltativa Teorema. Sia F :V ! V un endomorfismo lineare. Siano v1,..., vm autovettori di F, con rispettivi autovalori 1,..., m.Se 1,..., m sono a due a due distinti, al lora v1,..., vm sono linearmente indipendenti. Dimostrazione (facoltativa). Per induzione su m. Se m = 1, un autovettore v1`e un vettore non nullo, e quindi `e linearmente indipendente. Assumiamo (ipotesi induttiva) che l’enunciato sia vero per m1 autovettori. Dimostriamo la tesi per m autovettori. Supponendo che c1v1+c2v2+··· +cm1vm1+cmvm = 0, (3) dobbiamo dimostrare che c1= ··· = cm = 0. Applicando F, ricordando che F(vj)= jvj, otteniamo: c11v1+c22v2+··· +cm1m1vm1+cmmvm = 0 Moltiplicando la (3) per m otteniamo c1mv1+c2mv2+··· +cm1mvm1+cmmvm = 0 Sottraendo le ultime due espressioni abbiamo c1(1m)v1+··· +cm1(m1m)vm1= 0. L’ipotesi induttiva implica c1(1m)= ··· = cm1(m1m)=0 Poich´e j m 6=0per j6= m, concludiamo che c1= ··· = cm1= 0. Tornando alla relazione iniziale (3), vediamo che cmvm = 0e quindi anche cm = 0. Criterio di diagonalizzabilit`a nel campo reale Teorema 12. Una matrice quadrata A `e diagonalizabile su R se e solo se tutti gli autovalori di A sono reali e regolari. Dimostrazione. Siano 1,..., kgli autovalori (tutti reali); a1,...,a kle loro molteplicit`a algebriche; g1,...,g kle loro molteplicit`a geometriche. Gli autovettori si trovano negli autospazi; quindi, se vogliamo una base di Rnche sia formata da autovettori di A, dobbiamo prendere g1vettori indipendenti (il massimo numero possibile) in V1,..., gkvettori indipendenti in Vk. Anch´e questi g1+··· +gkautovettori (sicuramente indipendenti) siano una base di Rn, occorre che siano n. Poich´e gi aiea1+ ··· + ak= n, la condizione g1+ ··· + gk= n equivale a gi= ai, per ogni i=1 ,...,n . Spazi euclidei Proiezione ortogonale su vettore Teorema 13. Sia V uno spazio euclideo e sia b un vettore non nul lo di V. Ogni vettore a2 V si scrive in modo unico come a= ak+ a? ,co n akparal lelo a b ea? ortogonale a b.Risultano ak= ha,bi kbk2b ea? = a ha,bi kbk2b. Inoltre ak`e il vettore di Span (b)adistanzaminimada a, cio`e kaakk< kawkper ogni w 2Span (b),w 6= ak. Dimostrazione. Il vettore proiezione ortogonale ak`e un vettore di W =Span( b)edevequindiessere ak= tb per un unico treale. Il vettore a tb `e ortogonale a b se e solo se ha tb,bi= 0, cio`e ha,bi thb,bi= 0. Da quest’ultima uguaglianza si ricava t= ha,bi hb,bi. Sostituendo in ak= tb, si ottiene ak= ha,bi kbk2b. Inoltre, se w 2 W anche akw `e un vettore di W ortogonale a a?= aak. Per il teorema di Pitagora, con w 6= ak,siha kawk2= kaak+akwk2= kaakk2+kakwk2> kaakk2. 5 Fibre di un’applicazione lineare Teorema di struttura delle fibre Teorema 14. Sia F :V ! W un’applicazione lineare e w un vettore di W . Se la fibra F⇤(w)sopra w non `e vuota, sia ¯vun suo elemento. Risulta F⇤(w)= ¯v+ker F, dove ¯v+ker F = {¯v+v:v2ker F}. Dimostrazione. Mostriamo che F⇤(w)✓ ¯v+ker F. Se v02F⇤(w), consideriamo la di↵erenza v0 ¯v.F(v0 ¯v)= F(v0) F(¯v)= w w = 0;quindi v0 ¯v `e u n e l e m e n t o d e l n u c l e o d i F,cio`e v0 ¯v = v 2 ker F.Dunque v0= ¯v+v2 ¯v+ker F. Mostriamo che F⇤(w)◆ ¯v+ker F. Se ¯v+v2 ¯v+ker F, allora F(¯v+v)= F(¯v)+ F(v)= w +0= w.Dunque ¯v+v2F⇤(w). I teoremi di Rouch´e-Capelli e di Cramer Teorema 15 (Rouch´e-Capelli) .Il sistema lineare Ax= bco n m equazioni e nincognite ammette soluzioni se e solo se la matrice dei coecienti A e la matrice completa [A|b]hanno lo stesso rango. Inoltre, detto r=rk A =rk [ A|b], le soluzioni dipendono da nrparametri. Teorema 16 (Cramer) .Il sistema lineare quadrato Ax= b(con tante equazioni quante incognite) ammette un’unica soluzione se e solo se la matrice dei coecienti A `e invertibile. Dimostrazioni. Osservato che l’immagine di LA `e generata dalle colonne di A, abbiamo che Ax = b se e solo se b2Im LA se e solo se rk A =rk [ A|b]. Poich´e dim ker LA= nrk A, osservato che l’insieme delle soluzioni del sistema `e la fibra ( LA)⇤(b)di LAsu b,la seconda parte del teorema di Rouch´e-Capelli discende dal teorema di struttura della fibra. In particolare, il sistema Ax= bammette un’unica soluzione se e solo se b2Im LAeker LA= {0}. Se il sistema `e quadrato, il dominio e il codominio di LA sono lo stesso spazio Rnequindi LA `e i n i e t t i v a ( c i o `e ker LA= {0}) se e solo se LA`e invertibile se e solo se A `e i n v e r t i b i l e . D u n q u e b2Im LAeker LA= {0}se e solo se A invertibile. Equazioni di↵erenziali lineari Equazioni di↵erenziali lineari del secondo ordine Teorema di struttura e principio di sovrapposizione Teorema 17. Assegnate le funzioni a0,a1,bcontinue su un interval lo I, 1. l’insieme del le soluzioni del l’equazione di↵erenziale lineare omogenea y00+ a1(x)y0+ a0(x)y =0 `e u n o s p a z i o vettoriale; 2. l’integrale generale del l’equazione di↵erenziale lineare completa y00+ a1(x)y0+ a0(x)y= b(x)si ottiene sommando l’integrale generale del l’equazione omogenea y00+a1(x)y0+a0(x)y=0 eunasoluzioneparticolare eydel l’equazione completa y00+a1(x)y0+a0(x)y= b(x). Teorema 18. Se ey1`e u n a s o l u z i o n e p a r t i c o l a r e d i y00+ a1(x)y0+ a0(x)y= b1(x)eey2`e u n a s o l u z i o n e p a r t i c o l a r e di y00+ a1(x)y0+ a0(x)y= b2(x), al lora, per ogni c1,c22 R,lafunzione c1ey1+ c2ey2`e u n a s o l u z i o n e p a r t i c o l a r e d i y00+a1(x)y0+a0(x)y= c1b1(x)+ c2b2(x). Dimostrazioni. Consideriamo lo spazio vettoriale C0(I) delle funzioni reali di variabile reale continue sull’intervallo I e il sottospazio C2(I) delle funzioni con derivata seconda continua su I. L’operatore di↵erenziale L:C2(I)!C 0(I), L(y)= y00+a1(x)y0+a0(x)y `e lineare. Infatti, L(c1y1+c2y2)= c1L(y1)+ c2L(y2) per ogni c1,c22R e per ogni y1,y22C 2(I). 1. Indicato con Sol (L,0) l’insieme delle soluzioni dell’equazione omogenea y00+a1(x)y0+a0(x)y=0 cio`e L(y)=0 si ha che Sol (L,0) = ker L.Dunque Sol (L,0) `e uno spazio vettoriale. 2. Indicato con Sol (L,b) l’insieme delle soluzioni dell’equazione completa y00+a1(x)y0+a0(x)y= b(x)cio`e L(y)= b(x), sia ey2Sol (L,b) una soluzione particolare. Per il teorema di struttura delle fibre di un’applicazione lineare, si ha che Sol (L,b)= Sol (L,0) + ey. 6 Anche il principio di sovrapposizione `e conseguenza immediata della linearit`a di L, infatti L(c1ey1+c2ey2)= c1L(ey1)+ c2L(ey2)= c1b1(x)+ c2b2(x). La dimensione dello spazio vettoriale delle soluzioni di un’equazioni di↵erenziale lineare omogenea del secondo ordine Teorema 19. Lo spazio vettoriale del le soluzioni di un’equazione di↵erenziale lineare omogenea del secondo ordine ha dimensione due. Dimostrazione. Siano x1ex2, rispettivamente, le soluzioni dei problemi⇢ x00+a1(t)x0+a0(t)x=0 x(t0)=1 ,x 0(t0)=0 , ⇢ x00+a1(t)x0+a0(t)x=0 x(t0)=0 ,x 0(t0)=1 . 1. Proviamo che x1ex2sono linearmente indipendenti. Consideriamo la generica combinazione lineare delle funzioni x1ex2e poniamola uguale alla funzione nulla. Da ↵x 1(t)+ x 2(t) = 0, derivando si ha ↵x 01(t)+ x 02(t) = 0. Tali uguaglianze devono essere verificate per ogni t;in particolare, per t= t0si ha ⇢ ↵x 1(t0)+ x 2(t0)=0 ↵x 01(t0)+ x 02(t0)=0 , ⇢ ↵·1+ ·0=0 ↵·0+ ·1=0 , ⇢ ↵=0 =0 . Dunque x1ex2sono linearmente indipendenti. 2. Proviamo che ogni soluzione dell’equazione x00+a1(t)x0+a0(t)x= 0 `e combinazione lineare di x1,x2. Sia z= z(t) una soluzione dell’equazione x00+ a1(t)x0+ a0(t)x= 0 e indichiamo con A eB i valori assunti da ze z0in t= t0. Consideriamo il problema di Cauchy ⇢ x00+a1(t)x0+a0(t)x=0 x(t0)= A, x 0(t0)= B Le funzioni zeAx 1+ Bx 2sono soluzioni di questo problema e dunque, per l’unicit`a della soluzione del problema di Cauchy, risulta z= Ax 1+Bx 2. Teorema dell’equazione caratteristica Teorema 20. La f u n z i o n e x(t)= et `e soluzione del l’equazione a coecienti costanti x00+a1x0+a0x= 0 (4) se e solo se `e una radice del l’ equazione caratteristica 2+a1+a0= 0 (5) Dimostrazione. Da x(t)= et,x0(t)= e t,x00(t)= 2et, sostituendo nell’equazione (4) si ottiene: et(2+a1+a0)=0 Poich´e et `e sempre diversa da zero, x(t)= et `e soluzione dell’equazione (4) se e solo se `e una soluzione di (5). Serie Serie numeriche Condizione necessaria per la convergenza Teorema 21. Se una serie numerica +1X n=1 anconverge, al lora limn!+1an=0 . Dimostrazione. Indichiamo con {Sk}la successione delle somme parziali della serie convergente al numero L: +1X n=1 an=lim k!+1Sk= L. Il termine n-esimo della serie `e dato da an= SnSn1,quindi limn!+1an=lim n!+1(SnSn1)= ✓ limn!+1Sn ◆ ✓ limn!+1Sn1 ◆ = LL=0 . 7 Criterio del confronto asintotico Teorema 22. Siano +1X n=1 ane +1X n=1 bndue serie a termini positivi. Se le succesioni {an}e{bn}sono asintotiche, al lora le due serie hanno lo stesso carattere. Dimostrazione. an ⇠ bn (per n ! +1) significa lim n!+1 an bn = 1; quindi, per ogni "> 0 si ha definitivamente che an bn1 0 si ha definitivamente |npan|>M ,dunque an>M n.Considerando M> 1, abbiamo che an`e definitivamente maggiore del termine generale di una serie geometrica divergente. Quindi X andiverge. Calcolo di↵erenziale per funzioni di pi`u variabili Derivate e di↵erenziali Di↵erenziabilit`a, continuit`a e derivabilit`a (* BPS2, 3.4.3, Prop. 3.2) Teorema 24. Sia f:A ✓ Rn! R co n A aperto e sia x02 A.Se f`e di↵erenziabile in x0, cio`e esiste un vettore a2Rntale che f(x0+h)= f(x0)+ a·h+o(khk)per h! 0,allora f`e c o n t i n u a i n x0,f`e derivabile in x0einoltre a= rf(x0). Dimostrazione. Se f`e di↵erenziabile in x0,risulta f(x0+h)= f(x0)+ a·h+o(khk)per h! 0. Per provare che f`e continua in x0, basta passare al limite: limh!0f(x0+h)= lim h!0[f(x0)+ a·h+o(khk)] = f(x0). Indicati con eii versori canonici di Rn, consideriamo h= heicon h2R e scriviamo a=( a1,a2,...,a n). Da lim h!0 f(x0+h)f(x0)a·h khk = 0 abbiamo lim h!0 f(x0+hei)f(x0)h(a·ei) h = 0 e, poich´e a·ei= ai, risulta limh!0 f(x0+hei)f(x0) h = ai, Dunque @f @x i(x0)= a1per ogni i=1 ,2,...,n .Questoprovache f`e derivabile in x0ea= rf(x0). 8 La formula del gradiente Teorema 25. Sia f:A ✓ Rn! R co n A aperto e sia x02A.Se f`e di↵erenziabile in x0, al lora, per ogni versore v, esiste la derivate direzionale Dvf(x0)erisulta Dvf(x0)= rf(x0)·v. Dimostrazione. Per ipotesi f`e di↵erenziabile, dunque f(x0+h)f(x0)= rf(x0)·h+o(|h|)per h! 0. Considerando l’incremento h= tv,dove v`e un versore, si ha f(x0+tv)f(x0)= rf(x0)·tv+o(t)per t! 0. Dividiamo per te otteniamo f(x0+tv)f(x0) t = rf(x0)·v+o(1) per t! 0. Passando al limite si ha la tesi Dvf(x0)= lim t!0 f(x0+tv)f(x0) t = rf(x0)·v. Il gradiente `e ortogonale alle linee di livello Teorema 26. Sia f :A ✓ R2! R una funzione di classe C1sul l’aperto A. Il gradiente (quando non `e nul lo) `e ortogonale in ogni punto al la curva di livel lo. Dimostrazione. Sia f(x0,y0)= cper un ( x0,y0)2A.Se rf(x0,y0)6=(0 ,0), allora il Teorema di Dini, applicato alla funzione f(x, y ) c, garantisce che la curva di livello f(x, y )= csia regolare (almeno localmente). Detta r(t)una parametrizzazione regolare di f(x, y )= c,siha g(t)= f(r(t)) . Dalle regole di derivazione delle funzioni composte abbiamo che la derivata di g= fr `e g0(t)= rf(r(t)) ·r0(t). Ma g(t)= c,cio`e g`e costante (in un intorno del punto), quindi risulta g0(t)=0 . Dunque rf(r(t0))·r0(t0)=0 . Forme quadratiche Propriet`a estremali degli autovalori Teorema 27. Sia q:Rn! R la forma quadratica q(X)= XtAX .Indicaticon min emax rispettivamente il minimo e il massimo autovalore del la matrice A, per ogni punto X 2Rnrisulta min kXk2 q(X) max kXk2. Dimostrazione. Indichiamo con P una matrice ortogonale che abbia come colonne una base ortonormale di autovettori di A e diagonalizziamo la forma quadratica con la trasformazione Y = PtX: q(X)= XtAX =( PY )tA(PY )= Yt(PtAP )Y = 1y21+2y22+··· +ny2n. Osserviamo che min nX i=1 y2i !  nX i=1 iy2i max nX i=1 y2i ! . La traformazione Y = PtX `e un’isometria e quindi kYk= kPtXk= kXk.Daquestoeda nX i=1 y2i= kYk2, abbiamo min kXk2= min kYk2 nX i=1 iy2i max kYk2= max kXk2. Ma q(X)= nX i=1 iy2i,quindi min kXk2 q(X) max kXk2. Analisi delle forme quadratiche sulle sfere unitarie. Dimostrazioni facoltative Teorema. Sul la sfera unitaria Sn1= {(x1,...,x n)2Rn|x21+ ··· + x2n=1 }, il massimo del la forma quadratica q(X)= XtAX `e il massimo autovalore del la matrice A eilminimodi q`e il minimo autovalore di A. Lemma. Data la forma quadratica q(X)= XtAX ,sia v⇤un autovettore unitario relativo al l’autovalore ⇤di A. Risulta q(v⇤)= ⇤. Dimostrazione (facoltativa) del lemma. q(v⇤)= vt⇤(Av⇤)= vt⇤(⇤v⇤)= ⇤(vt⇤v⇤)= ⇤kv⇤k2= ⇤. Dimostrazione (facoltativa) del la proposizione. Siano min emax il minimo e il massimo autovalore della matrice A e siano vmin evmax due rispettivi autovettori unitari. Poich´e Sn1`e l ’ i n s i e m e d e i p u n t i X di Rncon kXk= 1, dalle propriet`a estremali degli autovalori, per ogni X 2 Sn1,risulta min  q(X) max .Per il lemma, abbiamo q(vmin )= min eq(vmax )= max .Quindi min `e i l m i n i m o e max `e il massimo di qsu Sn1. 9 Estremi liberi Studio della natura dei punti critici Teorema 28. Siano f:A ✓ Rn! R una funzione di classe C2(A)eX0un punto del l’aperto A che sia stazionario per f. Indichiamo con qla forma quadratica associata al la matrice hessiana H = Hf (X0)di fin X0: q(X)= XtHX . Se la forma quadratica q`e: 1. definita positiva, al lora X0`e un punto di minimo locale forte per f; 2. definita negativa, al lora X0`e un punto di massimo locale forte per f; 3. indefinita, al lora X0`e un punto di sel la per f. Dimostrazione. Lo sviluppo di Taylor di f, centrato in X0, del secondo ordine, con resto secondo Peano `e f(X0+h)= f(X0)+ rf(X0)h+ 1 2htHf (X0)h+o(|h|2). Poich´e X0`e un punto stazionario, cio`e rf(X0)= 0, indicando H = Hf (X0)e q(h)= htHh, abbiamo f(X0+h)f(X0)= 1 2q(h)+ o(|h|2). Indicati con min emax rispettivamente il minimo e il massimo autovalore di H, per ogni punto h2Rnrisulta min |h|2 q(h) max |h|2. Distinguiamo i casi: 1. se q`e definita positiva, allora min > 0 e, per ogni hsucientemente piccolo e non nullo, risulta: f(X0+h)f(X0)= 1 2q(h)+ o(|h|2) 1 2min |h|2+o(|h|2)= 1 2min |h|2(1 + o(1)) > 0. Dunque X0`e un punto di minimo locale forte per f; 2. se q`e definita negativa, allora max < 0 e, per ogni hsucientemente piccolo e non nullo, risulta: f(X0+h)f(X0)= 1 2q(h)+ o(|h|2) 1 2max |h|2+o(|h|2)= 1 2max |h|2(1 + o(1)) < 0. Dunque X0`e un punto di massimo locale forte per f; 3. se q`e indefinita, allora esistono due vettori non nulli vew tali che q(v)> 0e q(w)< 0. Per treale sucientemente piccolo e non nullo risulta: f(X0+tv)f(X0)= 1 2q(tv)+ o(|tv|2)= 1 2t2q(v)+ o(t2)= 1 2t2(q(v)+ o(1)) > 0 f(X0+tw)f(X0)= 1 2t2(q(w)+ o(1)) < 0. Dunque X0`e u n p u n t o d i s e l l a p e r f. Estremi vincolati Teorema dei moltiplicatori di Lagrange nel caso bidimensionale Teorema 29. Siano f, g 2C 1(R2)esia (x⇤,y⇤)un punto di estremo vincolato per fsotto il vincolo g(x, y )= b.Se (x⇤,y⇤)`e regolare per il vincolo, cio`e rg(x⇤,y⇤)6=(0 ,0), al lora esiste ⇤2R (detto moltiplicatore di Lagrange) tale che rf(x⇤,y⇤)= ⇤rg(x⇤,y⇤). 10 Dimostrazione. Poich´e g2C 1(R2)e rg(x⇤,y⇤)6=(0 ,0), dal teorema di Dini abbiamo che il vincolo definisce localmente un arco di curva regolare. Sia r(t)=( x(t),y(t)) con t2 Ie( x(0) ,y(0)) = ( x⇤,y⇤) una parametrizzazione di tale arco. Il vettore tangente a (che esiste e non `e nullo per la regolarit`a) `e v=( x0(0) ,y0(0) . Consideriamo la restrizione 'di falla curva : '(t)= f(x(t),y(t)) ,t 2I. Poich´e f2C 1(R2)e r(t)=( x(t),y(t)) `e regolare, '`e derivabile in un intorno di t= 0 e, per la regola di derivazione di funzioni composte, risulta: '0(t)= rf(x(t),y(t))·r(t). In particolare, per t=0 risulta '0(0) = rf(x⇤,y⇤)·v. La funzione derivabile 'ha in t= 0 un punto estremante, quindi dovr`a essere '0(0) = rf(x⇤,y⇤)·v=0 , cio`e, il gradiente rf(x⇤,y⇤)di f`e ortogonale a v. Ricordiamo che anche il gradiente rg(x⇤,y⇤)di g`e ortogonale a v. Per la geometria di R2, i vettori rf(x⇤,y⇤)e rg(x⇤,y⇤) sono paralleli in quanto entrambi ortogonali a v.Dunque esiste un ⇤2R tale che rf(x⇤,y⇤)= ⇤rg(x⇤,y⇤). Campi conservativi Campi conservativi e potenziali Lavoro di un campo conservativo e di↵erenza di potenziale Teorema 30. Sia F = rU un campo conservativo (di classe C1)su ⌦.Sia una curva orientata regolare (a tratti) contenuta in ⌦ e parametrizzata da r= r(t)co n t2[a, b ]. Il lavoro di F lungo `e Z F·dr= U(r(b))U(r(a)) . Dimostrazione per regolare. Ricordando le formule di derivazione di funzioni composte, si ha Z F·dr= Zb a F(r(t))·dr(t)= Zb a rU(r(t))·r0(t)dt= Zb a d dtU(r(t))d t= U(r(b))U(r(a)) . Definizioni equivalenti di campo conservativo Teorema 31. Per un campo vettoriale F:⌦ ✓ R3! R3di classe C1(⌦) sono equivalenti le seguenti a↵ermazioni: 1. F `e conservativo in ⌦; 2. per ogni curva regolare (a tratti), contenuta in ⌦,siha: I F·dr=0; 3. per ogni coppia di curve regolari (a tratti) 1,2contenute in ⌦ e aventi lo stesso punto iniziale e lo stesso punto finale, si ha Z 1 F·dr= Z 2 F·dr. Dimostrazione per curve regolari. 1.)2. Poich`e F `e conservativo, esiste un potenziale U. Siaparametrizzata da r= r(t) con t2[a, b ]. Poich´e`e chiusa, cio`e r(a)= r(b), risulta Z F·dr= U(r(b))U(r(a)) = 0 . 11 2.)3. Siano 1,2due curve regolari (a tratti) contenute in⌦e aventi lo stesso punto iniziale A elostessopunto finale B;sia= 12la curva regolare a tratti e chiusa ottenuta percorrendo prima 1nel verso assegnato (da A verso B) e poi 2nel verso opposto (da B aA). Dall’a↵ermazione 2 .abbiamo 0= I F·dr= Z 1 F·dr Z 2 F·dr, dunque Z 1 F·dr= Z 2 F·dr. 3.)1. Fissato P0(x0,y0z0), sia P(x, y, z ) un punto generico di⌦(che per semplicit`a supponiamo connesso per archi). La 3 .a↵erma che il lavoro del campo F=( F1,F 2,F 3) per portare un punto da P0aP non dipende dal percorso seguito, ma solo da P (e da P0fissato). Possiamo allora definire una funzione G(x, y, z )= Z F·dr, dove `e una qualsiasi curva regolare (a tratti) contenuta in⌦da P0aP(x, y, z ). Vogliamo mostriamo che G `e un potenziale di F,cio`eche rG = F. Proviamo che @G @x = F1;similmentesi procede per verificare che @G @y = F2e@G @z = F3. Consideriamo x1fissato e il punto P1(x1,y,z ) con yezgenerici. Per passare da P0aP consideriamo una curva 1regolare (a tratti) da P0aP1ed il segmento 2parallelo all’asse xda P1aP (si noti che⌦`e aperto). Abbiamo G(x, y, z )= Z 1 F·dr+ Z 2 F·dr e @G @x = @ @x Z 1 F·dr+ @ @x Z 2 F·dr. Poich´e Z 1 F·drdipende da x0ex1fissati, ma non dal generico x,risulta @ @x Z 1 F·dr=0 . Parametrizzando 2con r(t)=( t, y, z ),t2[x1,x ], risulta Z 2 F·dr= Zx x1 F(r(t))·r0(t)dt= Zx x1 (F1(t, y, z ),F 2(t, y, z ),F 3(t, y, z ))·(1,0,0)d t= Zx x1 F1(t, y, z )dt. Dunque, per il teorema fondamentale del calcolo, @ @x Z 2 F·dr= @ @x Zx x1 F1(t, y, z )dt= F1(x, y, z ). Riepilogando @G (x, y, z ) @x = @ @x Z 1 F·dr+ @ @x Z 2 F·dr=0+ F1(x, y, z )= F1(x, y, z ). Campi irrotazionali Ogni campo conservativo `e irrotazionale Teorema 32. Sia F:⌦ ✓ R3! R3un campo di classe C1(⌦) .Se F `e conservativo in ⌦,allora`eirrotazionalein ⌦. Dimostrazione. Scrivendo F= F1i+F2j+F3z, ricordiamo che rot F= r^ F=det 2 4 ijk @x @y @z F1 F2 F3 3 5= ✓@F 3 @y @F 2 @z ◆ i ✓@F 3 @x @F 1 @z ◆ j+ ✓@F 2 @x @F 1 @y ◆ k. Poich´e F `e conservativo in⌦, esiste un potenziale U in⌦: U :⌦ ✓ R3! R con rU = F,cio`e F1= @U @x ,F 2= @U @y ,F 3= @U @z . Risulta allora rot F= r^r U = ✓ @2U @y@z @2U @z@y ◆ i ✓ @2U @x@z @2U @z@x ◆ j+ ✓ @2U @x@y @2U @y@x ◆ k. Poich´e F 2C 1(⌦), risulta U 2C 2(⌦). Dunque U verifica le condizioni del teorema di Schwarz sulle derivate miste e rot F= 0. 12