logo
  • userLoginStatus

Welcome

Our website is made possible by displaying online advertisements to our visitors.
Please disable your ad blocker to continue.

Current View

Mathematical Engineering - Algebra Lineare e Geometria

Algebra 2.0

Etc

HOW TO ALGEBRA Determinante 1 MEG (però se cambio riga cambio il segno) + prodotto pivot -> se matrice quadrata 2 Teorema degli sviluppi di Laplace 3 Prodotto degli autovalori Proprietà Matrice inversa -> deve avere rango massimo / determinante diverso da 0 => essere non singolare 1 Algoritmo di Gauss-Jordan 2 Formula 2x2 : 3 dove i sono i complementi algebrici delle righe i e colonne j 4 Teorema di Hamilton-Cayley = risoluzione del polinomio caratteristico con A al posto di ! + moltiplicazione per A -1 (per trovare la matrice inversa) Rango 1 MEG + calcolo n° pivot diversi da 0 2 Teorema di Kronecker -> si usano i minori di ordine k (il numero di minori è n k) Nucleo 1 Soluzioni -> esiste solo se il rango di A è minore di n Sistema lineare N° soluzioni 1 Teorema di Roche-Capelli Soluzioni 1 2 MEG 3 -> se esiste il KER le soluzioni dipendono da un parametro 4 Formula di Cramer : Controllo dipendenza e indipendenza lineare Si mettono i vettori in una matrice M e si guarda 1 Determinante => linearmente indipendenti => linearmente dipendenti 2 MEG su M -> le colonne/righe con i pivot sono i vettori linearmente indipendenti 3 Prodotto scalare -> 4 Vettori ortogonali sono sempre linearmente indipendenti Indipendenza lineare tra 3 vettori Trovare un vettore linearmente indipendente Basta sommare tutti i vettori e poi sommare uno ad una componente det(A)=det(AT) A−1= 1 det(A)⋅[d −b −c a] A−1= 1 det(A)⋅[Cij]T CijA⋅x=0 A ⋅x = b x=A−1⋅b x=v0+KER(A) x= x1......xn xi= det(Ai) det(A) det(M )≠0 det(M )=0 = ||v||⋅||w|| u∙(v×w)≠0 1 Base Trovare una base Controllo l'indipendenza lineare sui vettori generatori Cambiamento di base Trovo la matrice di passaggio dalla base B alla base B' inversa : -> la matrice di passaggio è invertibile Trovare le coordinate di un vettore rispetto a una base Le soluzioni del sistema è il vettore delle coordinate Spazio vettoriale Controllo spazio vettoriale - Somma e prodotto per scalare interni - 8 proprietà Controllo sottospazio vettoriale - Somma e prodotto per scalare interni - Vettore nullo appartenente Controllo intersezione spazi / sottospazi vettoriali Si controlla l'appartenenza dei vettori di uno spazio vettoriale all'altro spazio -> la soluzione è formata da vettori, il numero dei vettori è uguale alla dimensione dell'intersezione ed i vettori risultato sono una base dell'intersezione Sottospazi vettoriali notevoli si NO Trovare l'equazione cartesiana di un sottospazio Si mettono in una matrice i generatori del sottospazio e si trova la base del -> i vettori della base trovata sono i coefficienti dell'equazione cartesiana del sottospazio Basi dei sottospazi 1 in equazioni cartesiane Si risolve il sistema lineare associato all'equazione cartesiana (solitamente numero di incognite - numero di equazioni) 2 La base è formata dai vettori di una base che appartengono anche all'altra -> vengono soddisfatte le equazioni dei sottospazi messe a sistema metodo : prendo le equazioni cartesiane dei sottospazi , le metto a sistema e risolvo il sistema omogeneo composto da quelle equazioni 2 La base è formata dai vettori della base di U che non appartengono a W uniti con quelli di W -> si trovano i vettori che soddisfano tutte le equazioni dei due sottospazi metodo : metto a sistema le basi dei due spazi per trovare i vettori linearmente dipendenti, li tolgo, e i vettori che mi rimangono sono la base dello spazio somma Uguaglianza di due spazi vettoriali 1 Uno spazio è contenuto nell'altro e hanno stessa dimensione 2 Uno spazio è contenuto nell'altro e viceversa Formula di Grassman - somma diretta Teorema di nullità più rango B=→ B′= [b1...bn]=[v1...vn]⋅Mc [v1...vn]=[b1...bn]⋅M−1c [b1...bn|v] U∩W,U+W,KER(A)... U ∪W AKER(AT) Udim(U)= U∩W UeW U+W dim(U+W )=dim(U)+dim(W )−dim(U∩W ) dim(U⊕ W )=dim(U)+dim(W ) dim(KER(A))+R(A)=n 2 Spazio riga e spazio colonna 1 2 3 4 5 6 7 Trovare una base di spazio riga e spazio colonna Una base dello spazio riga di A è formata dalle righe non nulle della matrice ridotta a scala U (guardo le righe di U) Una base dello spazio colonna di A è formata dalle colonne linearmente indipendenti di A (guardo le colonne di A)
 dim(row(A))=dim(col(A))=R(A)=R(U) row(A)=row(U) col(A)≠col(U) Im(L)=col(L) row(AT)=col(A) row(A)=col(AT) KER(A)=KER(U) Brow(A): Bcol(A): 3 Applicazione lineare L Controllo linearità = controllo additività e omogeneità Additività : Omogeneità : Fibra 1 = controimmagine 2 Nucleo Teorema di nullità più rango -> per una matrice n è Base del nucleo Si risolve il sistema lineare omogeneo : o Controllo appartenenza al nucleo Controllo dipendenza lineare vettore / vettore dei coefficienti rispetto alle basi del nucleo Similitudine al nucleo Un sottospazio di qualunque può essere il nucleo di un applicazione lineare se l'applicazione lineare è in e ha la stessa dimensione del nucleo trovato tramite la matrice rappresentativa Immagine Teorema di nullità più rango Base dell'immagine Sono i vettori colonne linearmente indipendenti della matrice rappresentativa Sono le matrici individuate dalle colonne linearmente indipendenti della matrice rappresentativa -> = la base dell'immagine è uguale alla base dello spazio colonna della matrice rappresentativa Controllo appartenenza all'immagine (o spazio colonna) Controllo dipendenza lineare vettore / vettore dei coefficienti rispetto alle basi dell'immagine (= di col(L)) Vettori dell'immagine I vettori dell'immagine di L definita da A sono i vettori del tipo => sono combinazione lineare delle colonne di A Similitudine all'immagine Un sottospazio di qualunque può essere l'immagine di un applicazione lineare se l'applicazione lineare è in e ha la stessa dimensione dell'immagine trovata tramite la matrice rappresentativa Iniettività 1 2 3 Suriettività 1 2 3 L:V→ W v→ L(v)=w v→ L(v)=A⋅v=w L(v+w)=L(v)+L(w) L(t⋅v)=t⋅L(v) L−1(w)={v∈V:L(v)=w} L−1(w)=v0+KER(L) L−1(0w)={v∈V:L(v)=0} dim(KER(L))+R(L)=n m ×n ML=0 ML=0m,n URnRnUIm(L)={w ∈W :∃v∈Vcon L(v)=w} dim(KER(L))+dim(Im(L))=dim(V) BIm(L)=Bcol(ML) v=A⋅x URnRnUKER(L)=0 R(L)=n R(L)=dim(Im(L))=dim(V)=n Im(L)=W R(col(L))=m R(L)=dim(W )=m 4 Biettività = esistenza dell'inversa -> L invertibile = L iniettiva e suriettiva => L è un isomorfismo 1 2 Trovare la matrice di cambiamento di base La matrice di passaggio è la matrice tale che -> le componenti della matrice P sono le coordinate della base vecchia rispetto alla base nuova Cambiamento di coordinate Trovare la matrice rappresentativa Partendo da dati sul funzionamento dell'applicazione lineare 1. Trovo l'applicazione lineare delle basi (di ogni singolo vettore della base) 2. Trovo i coefficienti, delle applicazioni lineari dei vettori della base, come combinazione lineare dei vettori della base (i vettori di coefficienti che trovo sono i trasposti) 3. Costruisco una matrice quadrata con i vettori dei coefficienti trovati = matrice rappresentativa Relazione matrice rappresentativa e di cambiamento di base (modo per trovare matrice rappresentativa rispetto ad un altra base) A matrice rappresentativa L (da B v a B w) A' matrice rappresentativa L' (da B' v a B' w) T cambio base da B v a B' v e P cambio base da B w a B' w Partendo da due autovettori Si trova il vettore ortogonale ad entrambi i vettori con il prodotto vettoriale Tramite la decomposizione spettrale si ricava A (somma di autovalore per matrice proiezione ortogonale del rispettivo autospazio) Teorema di nullità più rango 1 -> per una matrice n è 2 R(L)=m =n R(L)=dim(V)=dim(W ) Bv→ Bb [b1...bn]=[v1...vn]⋅P x=P⋅x′ A′=T−1⋅A⋅P dim(KER(L))+R(L)=n m ×n dim(KER(L))+dim(Im(L))=dim(V) 5 Autovalori e Autovettori Calcolo autovalori - possono non esistere su R, ma solo su C => Autovalori di matrice ortogonale Una matrice ortogonale reale ha Matrici simili Proprietà - - - 1 2 hanno stesso polinomio caratteristico, autovalori, traccia, determinante e rango Criteri similitudine 1 A diag + B non diag => A non simile a B 2 A diag + B diag (stessa molteplicità geometrica da prima) => se P A = P B (stesso polinomio caratteristico) => se hanno gli stessi autovalori con le stesse molteplicità algebriche e geometriche 3 A non diag + B non diag => se esiste S tale che => se hanno gli stessi autovalori con le stesse molteplicità geometriche Matrice invertibile di passaggio da B ad A (S) e -> la matrice di passaggio è la moltiplicazione della matrice degli autovettori (che diagonalizza) di A per l'inversa della matrice degli autovettori di B Polinomio caratteristico -> (per matrice quadrata) -> Matrice 2x2 Matrice triangolare Autovettori v è un autovettore di L se - - Trovare autovettore Indipendenza lineare n autovettori sono linearmente indipendenti quando gli autovalori a loro relativi sono diversi -> massimo numero di vettori linearmente indipendenti = λtale che det(A−λI)=0 KER(A−λI)≠{0} λi=±1 A∼A A∼B⇒ B∼A A∼B∧B∼C ⇒ A∼C B=S−1⋅A⋅S⇒ A∼B A∼B⇒ A∼B A∼B A∼B B=S−1⋅A⋅S A∼B T−1⋅A⋅T=D X−1⋅B⋅X=D D =T−1⋅A⋅T=X−1⋅B⋅X ⇒ B=XT−1ATX−1⇒ S=XT−1 PA=det(A−λI)=(−1)n⋅λn+c1⋅λ(n−1)+...+ck⋅λ(n−k)+...+cn−1⋅λ+cn c1=(−1)n−1⋅Tr(A) Tr(A)= n ∑i=1 aii= n ∑i=1 λi cn=det(A)= n ∏i=1 λi ck=(−1)n−k⋅(somma dei minori principali diordine k) Sminprincipali= tot ∑i=1 det(sottomatrice kxkcon diagonale sulla diagonale principale )i PA=λ2−(a+d)+a⋅d−b⋅c PA=(a11 −λ)⋅(a22 −λ)...(ann−λ) v≠0 ∃λ∈Ktale che L(v)=A⋅v=λ⋅v A⋅v=λ⋅v gλ1+...+gλn 6es Minori principali di ordine 2 di una 3x3 123 456 789 → [1379],[1245],[5689] Ci sono minori principali di ordine k in una matrice nxn (n k) Autovettori per matrici simili P matrice invertibile "di passaggio" da A a B Ortogonalità tra autovettori 1 Autovettori di una matrice simmetrica reale relativi ad autovalori distinti sono ortogonali tra loro -> se in R 3 si può trovare la retta perpendicolare a due rette date (gli altri due autovettori) facendo il prodotto vettoriale tra le due -> con prodotto scalare e algoritmo di Gram-Schmidt non si trovano autovettori Base di autovettori Si cercano i vari autospazi per ogni autovalore e le relative basi e poi si mettono insieme Autospazio Spazio vettoriale che contiene tutti gli autovettori relativi ad uno specifico autovalore => nelle formule si sostituisce l'autovalore rispetto a cui si vuole trovare l'autospazio 1 2 3 4 Autospazi ortogonali Se la matrice da diagonalizzare è reale e simmetrica gli autospazi relativi ad autovalori distinti sono ortogonali tra loro Molteplicità geometrica = massimo numero di vettori linearmente indipendenti relativi ad un singolo autovalore Autovalore regolare Massimo numero di autovettori linearmente indipendenti Diagonalizzabilità 1 A diagonalizzabile se e solo se esistono autovalori - - -> A diagonalizzabile 2 A diagonalizzabile = se esiste una matrice di passaggio 3 Primo criterio di diagonalizzabilità A è diagonalizzabile se ha una base formata da autovettori -> 4 Condizione sufficiente di diagonalizzabilità A quadrata di grandezza n è diagonalizzabile se possiede n autovalori distinti (significa che ha n autovettori linearmente indipendenti) 5 Secondo criterio di diagonalizzabilità (condizione necessaria e sufficiente) A quadrata di grandezza n è diagonalizzabile se - P A ha n radici (contate con a !) - ogni ! è regolare o semplice (-> vale il viceversa ) 6 Teorema spettrale A simmetrica reale => A ortogonalmente diagonalizzabile Matrice P che diagonalizza A P si trova facendo una matrice con gli autovettori della base della matrice A Matrice ortogonalmente diagonalizzabile -> A ort diag da Q matrice ortogonale Decomposizione spettrale di A A∼B⇒ v→ P⋅v B=BVλ1+...+BVλn Vλ={v∈V:L(v)=λ⋅v} Vλ=KER(λI−A)=KER(A−λI) dim(Vλ)=dim(KER(λI−A))=dim(KER(A−λI)) V=Vλ1+...+Vλn gλ=dim(Vλ)=dim(KER(A−λI))=n−R(A−λI) aλ=gλ N =gλ1+gλ2+...+gλn L(vk)=λk⋅vk∀k=1... n LA(vk)=A⋅vk=λk⋅vk∀k=1... n ⇒ Im(vk)=λk⋅vk∀k=1... n P−1⋅A⋅P=diag(λ1...λn)⇒ A∼diag(λ1...λn)⇒ A∼diag(λ1...λn)⇔ BAformata da autovettori P−1⋅A⋅P=diag(λ1...λn) Q−1AQ =diag(λ1...λn)=QTAQ 7 -> : matrice della proiezione ortogonale su -> -> (se i e j sono gli indici di due autospazi ortogonali) Decomposizione spettrale di f(A) -> si seguono le regole dell'analisi per f (es. se un autovalore è 0 la decomposizione spettrale di non si può trovare perché verrebbe ) -> la matrice che subisce variazioni di f se esiste è ortogonalmente diagonalizzabile perché somma degli stessi autospazi di A, con A diagonalizzabile Nucleo e immagine di autovettori Il nucleo di autovettori è l'autospazio generato da L'immagine di autovettori è la somma degli autospazi generati dagli autovalori diversi da 0 => la somma tra i due è una base di K n Teorema di Hamilton-Cayley Ogni matrice è radice del proprio polinomio caratteristico 
 A= d ∑j=1 λj⋅Pj=λ1P1+...+λnPn PjVλjI=P1+...+Pn Pi⋅Pj=0se i≠j f(A)=f(λ1)⋅P1+...+f(λn)⋅Pn A−1 1 0 λ=0 PA=(−1)n⋅An+c1⋅A(n−1)+...+cn−1⋅A+cn=0m,n 8 Geometria analitica Retta nello spazio retta passante per due punti Posizione reciproca tra due rette nello spazio Posizione reciproca tra rette nello spazio (si può usare anche per i piani con i rispettivi vettori normali) perpendicolari parallele (coincidenti) incidenti sghembe Posizione reciproca tra due rette nel piano Piano nello spazio Equazione con passaggio per un punto P e normalità rispetto a un vettore n Equazione con passaggio per 3 punti A, B, C 1 -> risolvendo il sistema si ottiene l'equazione del piano 2 -> risolvendo l'equazione del determinante si ottiene l'equazione del piano Equazione con passaggio per un punto P e // a due vettori v1 e v2 Posizione reciproca tra due piani nello spazio r: x=xA+at y=yA+bt z=zA+ct r: x=xA+(xB−xA)t y=yA+(yB−yA)t z=zA+(zB−zA)t a −α |xb−xa b −β |yb−ya c −γ |zb−za R(A)=1∧R(A|b)=2⇒ ∄sol⇒ parallele R(A)=2∧R(A|b)=3⇒ ∄sol⇒ sghembe R(A)=2∧R(A|b)=2⇒ ∃∞1sol⇒ coincidenti R(A)=3∧R(A|b)=3⇒ ∃!sol⇒ incidenti v∙w =0⇒ v×w =0⇒ v×w ≠0∧u∙(v×w)=0⇒ u∙(v×w)≠0⇒ [ a b c1 α β c2] R(A)=1∧R(A|b)=2⇒ ∄sol⇒ parallele R(A)=2∧R(A|b)=2⇒ ∃!sol⇒ incidenti R(A)=1∧R(A|b)=2⇒ ∃∞1sol⇒ coincidenti a(x−xP)+b(y−yp)+c(z−zP)=0 n=[a,b,c]T π: axA+byA+czA+d=0 axB+byB+czB+d=0 axC+byC+czC+d=0 det x−xA y−yA z−zA xB−xA yB−yA zB−zA xC−xA yC−yA zC−zA =0 π: x=xA+t1a1+t2a2 y=yA+t1b1+t2b2 z=zA+t1c1+t2c2 ∀t1,t2∈R [ a b c|d α β γ|δ] R(A)=1∧R(A|b)=2⇒ ∄sol⇒ paralleli R(A)=2∧R(A|b)=2⇒ ∃∞1sol⇒ incidenti R(A)=1∧R(A|b)=2⇒ ∃∞2sol⇒ coincidenti 9 Distanze Tra due punti Punto-piano Punto-retta 1 Metodo lungo : 1. Trovo il versore direttore di r 2. Trovo il piano " con versore normale n e passante per A 3. Trovo il punto in cui r passa per " 4. d(r, A) = AH 2 dove è il vettore direttore di r e (A è un punto qualsiasi di r) Retta-retta (sghembe) r passa per P e ha direzione v s passa per Q e ha direzione u -> se le due rette sono parallele invece si calcola la distanza tra due generici punti Equidistanza da due vettori , tale che Retta parallela a due piani Retta perpendicolare a due piani Direttori di un piano Sono i coefficienti davanti a x, y e z nell'equazione cartesiana del piano Equazione del fascio di piani per r (retta scritta in forma cartesiana) -> per trovarne uno che passa per un determinato punto basta sostituire agli che sono scritti nell'equazione e si ottengono per cui si ha il piano passante per quel punto e la retta generatrice del fascio
 AB= (xA−xB)2+(yA−yB)2+(zA−zB)2 d(A,π)= |axP+byP+czP+d| a2+b2+c2 dist(P,r)= ||v×w|| ||w|| =||v− v∙w w∙w ⋅w|| wv=AP d(r,s)= |PQ∙(v×u)| ||v×u|| v1=[a,b,c]T v2=[α,β,γ]T vequidistante=[x,y,z]T (x−a)2+(y−b)2+(z−c)2=(x−α)2+(y−β)2+(z−γ)2=0 r=π1∩π2={ π1π2 ∃solo se π1incidente aπ2 r⊥π1⇒ r⊥π2 ∃solo se π1//π2 r={ ax+by+cz=d αx+βy+γz=δ λ(ax+by+cz−d)+μ(αx+βy+γz−δ)=0 xP,yPezP x,yez λeμ 10 Spazi euclidei Prodotto scalare Prodotto scalare con coordinate Controllo ortogonalità Se il prodotto scalare da 0 significa che i due vettori sono ortogonali Controllo definizione prodotto scalare < , > 1 Commutativa 2 Linearità del primo fattore (=> linearità del secondo) 3 Positività (e annullamento) -> si controlla completando il quadrato in maniera utile oppure se la matrice è definita positiva Prodotto vettoriale -> il determinante va fatto con Laplace usando la riga superiore, le coordinate del vettore risultante sono date dai coefficienti che moltiplicano e 1 ... e n Controllo parallelismo Se il prodotto vettoriale da solo coefficienti uguali a 0 significa che i due vettori sono paralleli Vettore ortogonale a due dati Il prodotto vettoriale tra due vettori trova i coefficienti di un nuovo terzo vettore perpendicolare ad entrambi Controllo definizione prodotto vettoriale 1 Bilineare (= lineare per entrambi i fattori = commutativo + lineare di un fattore) 2 Antisimmetrico 3 Annullamento Prodotto misto Controllo vettori sghembi Se il prodotto misto viene diverso da zero significa che i tre vettori sono sghembi Teorema di Pitagora Teorema di Carnot Disuguaglianza di Schwarz -> uguali se linearmente indipendenti Angolo tra due vettori =vT⋅w =a1⋅a′1+a2⋅a′2+...+an⋅a′n v=x1b1+...+xnbn w =y1b1+...+ynbn =x1⋅y1+x2⋅y2+...+xn⋅yn v= v1v2...vn ∧w = w1w2...wn → e1 e2 ... en v1 v2 ... vn w1 w2 ... wn ... ... ... ... → det(matrice )=v×w u∙(v×w)=det a1 b1 c1 a2 b2 c2 a3 b3 c3 v⊥w ||v+w||2=||v||2+||w||2 ||v+w||2=||v||2+||w||2+2 ||v−w||2=||v||2+||−w||2+2 ≤ ||v||⋅||w|| α=arccos( ||v||⋅||w||) 11 Base ortogonale Genera vettori che hanno coordinate: Come scrivere un vettore rispetto ad una base ortogonale -> le coordinate sono i coefficienti di Fourier Come trovare una base ortogonale 1 Algoritmo di Gram-Schmidt -> se ci sono vettori linearmente dipendenti tra i che prendo automaticamente l'algoritmo mi da 2 Partendo da un vettore trovo ogni volta un vettore che sia perpendicolare a tutti usando il prodotto scalare 3 Prendendo una matrice simmetrica e reale e sommando gli autospazi relativi ad autovalori distinti (le basi degli autospazi devono essere ortogonali o rese tali) -> attenzione alla non ortogonalità tra vettori dello stesso spazio lineare Esistenza di una base ortogonale di autovettori Una base ortogonale formata da autovettori esiste solo se la matrice è simmetrica e quindi ortogonalmente diagonalizzabile Base ortonormale Genera vettori che hanno 1 Coordinate : 2 Norma : Come trovare una base ortonormale Si cerca una base ortogonale e si dividono i vettori della base trovata per le rispettive norme Controllo base ortonormale Si mettono in una matrice i vettori della base, se allora i vettori sono ortonormali Esistenza di una base ortonormale di autovettori Una base ortonormale formata da autovettori esiste solo se la matrice è simmetrica e quindi ortogonalmente diagonalizzabile Matrice ortogonale 1 Le colonne sono ortonormali 2 3 4 I suoi autovalori sono 5 6 Proiezione ortogonale 1 dove è generatore dello spazio H su cui sto proiettando 2 dove è il coefficiente di Fourier di rispetto a e la base del sottospazio H di K n è ortogonale 3 dove P è la matrice della proiezione ortogonale Proprietà - di minimo - unicità => unico Vettore ortogonale ̂xi= ||bi||2 v= ̂x1b1+...+ ̂xnbn= ||b1||2 b1+...+ ||bn||2 bn bk=vk− ||bk−1||2 ⋅bk−1−...− ||b1||2 ⋅b1 v1...vn 0 ̂xi= ||v||= ̂x12+...+ ̂xn2 UT⋅U =I UT⋅U =I UT=U−1 λ=±1 ||Ux||=||x|| det(U)=±1 vH= ||b||2 ⋅b bvvH= ̂x1b1+...+ ̂xdbd ̂xi= ||bi||2 vbiB= vH=Pv v=vH+v⊥ v⊥=v−vH 12 Distanza tra Controllo matrice di proiezione Una matrice è di proiezione se è : - idempotente : - simmetrica : Matrice proiezione ortogonale (su H) H sottospazio di R n e Matrice proiezione ortogonale (su H con base ortonormale ) e Proprietà - idempotente - simmetrica - => -> la matrice della proiezione ortogonale è sempre quadrata Complemento ortogonale => si trova imponendo il prodotto scalare uguale a 0 1 E' un sottospazio vettoriale di V 2 3 4 5 Trovare 1 Si trova imponendo il prodotto scalare uguale a 0 -> si impone il prodotto scalare di un generico vettore e i vettori della base di uguale a 0 e poi si risolve il sistema ottenuto (si ottiene direttamente il numero di vettori desiderati, però può essere necessaria l'ortogonalizzazione tra i vettori trovati) 2 3 dove P è la matrice proiezione ortogonale su H e è l'autospazio relativo a o il semplice 4 Una base di è lo spazio generato dai vettori con componenti i coefficienti delle rette che definiscono il piano H (se scritte in forma cartesiana) -> le rette hanno come vettori direttori dei vettori perpendicolari a quelli del piano => definiscono Trovare lo spazio ortogonale allo spazio colonna di H => si cerca il nucleo di A trasposta Spazio riga e colonna 1 -- 2 -- 3 4 5 veH dist(v,H)=||v⊥|| Pn=P PT=P BH= A=[b1...bd] P=A(ATA)−1AT BH= A=[q1...qd] P=AAT=q1qT1+...+qdqTd P2=P PT=P I=Pλ1+...+Pλd H =col(P)∧H⊥=KER(P) H⊥={v∈V:v⊥vi∈H ∀i=1... n} H =(H⊥)⊥ V=H⊕ H⊥ dim(V)=dim(H)+dim(H⊥) dim(H⊥)=n−dim(H) H⊥[x1...xn]T HH⊥=row(A) H⊥=KER(P) KER(P) λ=0 KER(P) H⊥H⊥(col(A))⊥=KER(AT) (row(A))⊥=KER(A) row(A)=(KER(A))⊥ (col(A))⊥=KER(AT) col(A)=(KER(AT))⊥ KER(A)=KER(AT⋅A) R(A)=R(AT⋅A) col(AT)=col(AT⋅A) 13 Ultima parte Soluzione ai minimi quadrati Se Equazioni normali => se è invertibile => se è invertibile = vettore dello spazio colonna di che ha distanza minima da Regressione lineare Si risolve il sistema ai minimi quadrati e si trovano q e m della retta Regressione quadrata Si risolve il sistema ai minimi quadrati e si trovano a, b e c della parabola Forme quadratiche 1 2 (v autovettore di A con autovalore ) Autovalore massimo e minimo di una forma quadratica 1. Trovo la matrice rappresentativa A 2. Trovo gli autovalori di A facendo 3. Scelgo l'autovalore minimo e quello massimo Quoziente di Rayleigh E' contenuto tra il massimo e il minimo di sulla sfera unitaria Diagonalizzazione simultanea di forme quadratiche con Esiste un cambio di variabili per diagonalizzare entrambe le forme quadratiche ed è dato dalla matrice ortogonale formata dagli autoversori ortogonali relativi agli autovettori dati da -> il più delle volte basta guardare e si interpreta subito cosa c'è da cambiare per avere la matrice identità a denominatore Massimo e minimo autovalore di una diagonalizzazione simultanea 1 Trovo di 2 Trovo il cambio di variabili per avere I a denominatore e sostituisco in A e trovo di A Autovettori relativi agli autovalori massimo e minimo di una forma quadratica 1. Trovo l'autospazio degli autovalori facendo 2. Scelgo un vettore dell'autospazio e lo rendo un versore -> si può ricontrollare facendo A⋅x=b ∄solma R(A)=n⇒ A⋅˜x=bH∃!sol ATA˜x=ATb ˜x=(ATA)−1ATb ATA bH=A⋅˜x=A(ATA)−1ATb ATA bHAbx1ix0iy1ix=[mq]=[ β1 β0] A= x1 1 x2 1 ... ... xn 1 b= y1y2...yn y=mx+q x2ix1ix0iy1ix=[ a bc] A= x21 x1 1 x22 x2 1 ... ... x2n xn 1 b= y1y2...yn y=ax2+bx+c q([x1...xn])=xTAx q(tx)=t2q(x) q(v)=λ||v||2 λdet(A−λI)=0 q(x)q(x) ||x||2= wTAw wTw = wTAw ||w||2 λmin≤ wTAw wTw ≤λmax ⇔ λmin≤ wTAw ||w||2≤λmax R(x)= xTAx xTBx Avk=λkBvk⇒ B−1Avk=λkvk x=PX Pdet(A−λB)=0 λmineλmax B−1A λmineλmax Vλ=KER(A−λI) q(vλ)=λ 14 Punti della sfera unitaria in cui si trovano massimo e minimo di una forma quadratica 1. Trovo i versori relativi agli autovettori di massimo e minimo della forma quadratica dividendo gli autovettori per la norma 2. I punti sono e Segno di una forma quadratica A simmetrica è definita positiva se i minori principali di nord-ovest sono maggiori di 0 A simmetrica è semidefinita positiva se tutti i minori principali sono (almeno uno è uguale a zero) A simmetrica è definita negativa se i minori principali di nord-ovest di indice dispari sono negativi e quelli di indice pari sono positivi (se -A è definita positiva) A simmetrica è semidefinita negativa se tutti i minori principali sono (almeno uno è uguale a zero) A simmetrica è indefinita se tra tutti i minori principali ce n'è uno e uno Matrici congruenti B congruente ad A simmetrica se ortogonale tale che => B è simmetrica Diagonalizzazione della forma quadratica - cambio di base per diagonalizzare (S matrice ortogonale) - esiste sempre una matrice ortogonale che diagonalizza A reale e simmetrica (teorema spettrale) Legge di inerzia di Sylvester A congruente a B => hanno uguale numero di autovalori positivi, negativi e nulli => A è sempre congruente ad una matrice diagonale con 1, -1 o 0 sulla diagonale, in base al segno degli autovalori di A
Pλmin=(v1,v2,v3) Pλmax=(w1,w2,w3) λi>0∀i⇔ definita positiva ⇔ λi≥0∀i∧∃λk=0⇔ semidefinita positiva ⇔ ≥0 λi0∧λj Tramite con Q ortogonale mi riconduco a : o Matrice di rotazione antioraria di un angolo -> può servire per trovare una conica ruotata di rispetto agli assi x e y Riconoscere conica da un'equazione qualsiasi Si trovano le sostituzioni tali che la conica diventa della forma es. oppure si guardano Trovare grafico da equazione della conica avente solo termini di grado 2 e 0 1. Trovo la matrice A 2x2 della forma quadratica trascurando il termine di grado 0 2. Diagonalizzo A facendo 3. Trovo l'equazione della conica rispetto al vettore 4. Torno alle coordinate x e y originarie risolvendo il sistema del punto 3 e trovando gli assi u e v rispetto a x e y q(x,y)=a11x2+2a12xy+a22y2+2a13x+2a23y+2a33 =zTaz=xTAx+2bTx+c q(x,y)=xT˜Ax+2˜bTx+˜c ˜A=QTAQ ˜b=QT(Av+b) ˜c=vTAv+2bTv+c x=Q⋅X⇔ [xy]=Q⋅[X Y] x=QX+v αx2+βy2+γ=0 βy2+δx=0 θQ =[ cos(θ) −sin(θ) sin(θ) cos(θ)] θλ1X2+λ2Y2=k x2+2xy+2yz+z2=−4→ X=x,Y= y+z 2 ,Z= y−z 2 → 3X2+Y2−Z2=8 I1,I2eI3 STAS=D [ u v]=STx 16Coniche(0, 0)2 rette2 rette coincidenti2 rette paralleleEllisse PF1+PF2=costante Iperbole |PF1−PF2|=costante Parabola PF=dist(P,d) ellisse reale : ellisse immaginaria : x2 a2+y2 b2=1 x2 a2+y2 b2=−1 fuochi sull'asse x : -> asintoti : fuochi sull'asse y : -> asintoti : iperbole equilatera : x2 a2−y2 b2=1 y=±b a x2 a2−y2 b2=−1 y=±a b a=b y2+2px=0 x2+y2=0 x2−y2=0→ (x−y)(x+y)=0 x2=0 x2=a{ a0 2rette immaginarie // ClassificazioneForma quadratica di A indefinitaIperboleForma quadratica di A definita negativa o positivaEllisseForma quadratica di A semidefinita positiva o negativaParabola conica non degenereI3≠0 I2 >0 2rette immaginarie distinte 0∧λ2>0∧λ30 iperboloide a1falda k=0 cono k0 ellissoide osfera 17