dimensione di una matrice simmetrica n×n: dimA=2n(n+1) .
Traccia: (matrici quadrate) somma degli elementi sulla diagonale principale.
se V è uno S.V. e β è una sua base, allora dim(V)=∣β∣ = numero degli elementi di una sua qualsiasi base.
uno S.V. V è dato dato da V=Span(u1,u2,u3) : u1,u2,u3 sono generatori di V e sono linearmente indipendenti, allora (u1,u2,u3) è una base di V.
la base canonica di un S.V. è composta da n matrici nulle meno che un elemento =1 .
matrice identica I=100010001 è quindi tale che AI=IA=A .
prodotto tra matrici (AB)i,j=∑k=1nAi,k⋅Bk,j con Am×n,Bn×l→ABm,l
Lemma di Eliminazione siano v1,...,vn+1 dei vettori in uno S.V. V, se vn+1 è combinazione lineare degli altri allora SPAN(v1,...,vn+1)=SPAN(v1,...,vn)
Formula di Grassmanndim(V+W)+dim(V∩W)=dim(V)+dim(W)
sistema lineare è un sistema composto da tante equazioni quante incognite e si può abbreviare con Ax=b dove A è la matrice dei coefficienti, x,b sono vettori colonna, x delle incognite e b dei termini noti (forma matriciale) e il sistema lineare omogeneo ad esso associato è Ax=0 .
Def Applicazione Lineare:
siano V e W S.V. , una app. lin. è una f:V→W t.c. f(v1+v2)=f(v1)+f(v2) e f(λV)=λf(v)
==ker(f) è l’insieme ker(f)={v∈V:f(v)=0} ed è sottospazio V. di V== .
Im(f) è l’insieme Im(f)={f(v):v∈V} ed è sottospazio V. di V .
se ker(f)={∅} allora f è iniettiva
se v1,...,vn sono una base di V allora f(v1),...,f(vn) sono generatori di Im(f), ma non è detto che siano linearmente indipendenti, lo sono solo se f è iniettiva e quindi se ker(f) è vuoto.
Teo. Rank Nullity: se f:V→W è applicazione lineare allora dim(ker(f))+dim(Im(f))=dim(V) , corollario: se dim(V)>dim(W) allora f non è iniettiva, se dim(V)<dim(W) allora f non può essere suriettiva (Im(f)=W). Se invece dim(V)=dim(W) allora f è biettiva.
Se ci riferiamo ad una matrice: dim(ker(A))+rank(A)=n con n = numero di colonne
Matrice Associata ad una applicazione lineare: f:V→W , v1,...,vn base di V , w1,...,wm base di W
calcolo f(v1)=c1,1w1+c2,1w2+...+cm,1wm e i coefficienti sono la prima colonna della matrice,
calcolo f(v2)=c1,2w1+c2,2w2+...+cm,2wm ed ottengo seconda colonna
continuo fino a f(vn)
Matrice Inversa data una A quadrata m×m, A−1 è tale che AA−1=A−1A=Id ma det(A) DEVE essere DIVERSO da 0.
1. se m=2 allora A−1=det(A)1(d−c−ba) con A=(acbd) e se det(A)=0 l’inversa non esiste.
2. Caso generale Aadgbehc∣f∣i∣100010001 e lavoro alla jordan fino a che la metà di sinistra non torni identica: 1000100∣0∣1∣jmpknqlor e la parte di destra è A−1 .
una matrice si dice ortogonale se la sua inversa coincide con la sua trasposta.
Matrice Cambio di Base: V S.V. di dimensione finita, v1,...vn prima base di V, w1,...,wn seconda base di V
scrivo v1 usando la prima base: v1=c1,1w1+c1,2w2+...+c1,nwn e i coefficienti cx,y formano la prima colonna della matrice
continuo fino ad cn
oppure
mat= (inversa di matrice base d’arrivo) ⋅ (matrice associata rispetto a basi canoniche) ⋅ (matrice base di partenza)
Determinante
Algoritmo di Gauss: porto in forma a scala usando solo scambi di riga e operazioni ultraortodosse (Ri=1×R1+bRj), il det(A)=(moltiplicodiagonale)⋅(−1)numerodiscambidiriga
Sviluppi di Laplace: scelgo la riga o colonna con più 0, formata da diciamo (a,b,c,d), det(A)=a⋅(detresto)−b⋅(detresto)+c⋅(detresto)−d⋅(detresto)
Le Proprietà del determinante:
det(Id)=1
det(AB)=det(A)⋅det(B)
det(A−1)=det(A)1
det(At)=det(A)
det(λA)=λndet(A)
se A mat diagonale: det(A)=prodottoelementidiagonale (vale anche per mat triangolari)
Se scambio due righe o colonne tra di loro il det cambia di segno
Se moltiplico una sola riga o colonna per λ: det(A)=λdet(A)
Sottomatrice: le ottengo togliendo ad una matrice righe e/o colonne.
Minore: determinante delle sottomatrici quadrate
Rango: massima dimensione di un minore con determinante =0 .
oppure massimo numero di righe/colonne linearmente indipendenti = dim(Span(righe/colonne))
oppure numero di pivot dopo una riduzione gaussiana a scala
oppure la dimensione dell’immagine dell’applicazione lineare
Teorema di Rouché-Capelli:
considero un sistema Ax=b
costruisco la matrice A^=(A∣b) , aggiungiamo quindi la colonna b
Allora
il sistema ammette soluzione solo se rango(A)=rango(A^)
se ha soluzione, allora la soluzione generale dipende da k parametri con k=n−r , n numero di incognite e r rango delle due matrici ed inoltre k=dim(ker(A)) .
I casi quindi sono 2:
i due ranghi sono uguali →b è comb lin di c1,...,cn
rango(A^)=rango(A)+1→b NON è comb lin di c1,...,cn
Regola di Cramer: dato un sistema lineare Ax=b con A=n×n, allora ogni incognita è data da: xi=det(A)det(Ai) dove xi è la matrice ottenuta sostituendo la i-esima colonna con la colonna b dei termini noti.
un numero λ si dice Autovalore (relativo ad autovettore ecc) di A se esiste un Autovettorev=0 t.c. Av=λv .
per trovare gli autovalori di A: det(A−λ⋅Id)=0
otteniamo un polinomio in λ di grado n se A è una matrice n×n, che chiamiamo polinomio caratteristico di A. Le radici (gli autovalori) appartengono a C, possono essere quindi complessi o reali, e possono avere molteplicità. P(λ)=det(A−λId)
Il prodotto degli autovalori è uguale al termine noto del polinomio caratteristico ed è uguale al determinante della matrice (quindi se un λ=0 allora det(A)=0. La somma degli autovalori è uguale alla traccia della matrice. Si dice molteplicità algebrica di una λ (ma(λ)) quante volte λ è radice del pol, caratteristico. Si dice molteplicità geometrica di una λ (mg(λ)) la dimensione dell’autospazio di λ e quindi mg(λ)=dim(ker(A−λ⋅Id))=n−rango(Aλ⋅λId) .
dato un Autovalore λ, si dice Autospazio di λ l’insieme di tutti gli autovettori, compreso lo zero, relativi a λ.
Quando si diagonalizza una matrice, gli autovalori diventano gli elementi sulla diagonale e gli autovettori diventano le colonne della matrice M.
TH di Diagonalizzazione:
una matrice An×n è diagonalizzabile se e solo se mg(λ)=ma(λ),∀λ quindi se 1≤mg(λ)≤ma(λ) e quindi se tutti gli autovalori hanno mg(λ)=1 .
Posso dare queste stesse esatte definizioni per applicazioni lineari f:V→V
Due matrici A,B sono simili se ∃Minvertibilet.c.B=M−1AM, allora hanno:
stesso polinomio caratteristico
stessi autovalori
stesso determinante
stessa traccia
Teoria delle forme canoniche: data A, trovare B simile che sia il più semplice possibile, quindi:
diagonalizzazione di lusso: M è anche ortogonale (A−1=At)
diagonalizzazione su reali o complessi
nessuna diagonalizzazione, forma alla Jordan su reali o complessi.
TH DERIVATO DA Th Fond dell’Algebra: sia p(x) un polinomio monico di grado n a coefficienti ∈C. Allora p(x)=(x−λ1)(x−λ2)⋅...⋅(x−λn) dove quindi λ1,...,λn sono le radici di p(x) .
se una matrice è triangolare inf o sup, gli autovalori sono gli elementi sulla diagonale.
Fattorizzazione A=LU: L=1de01f001 e U=a00gb0hic quindi LU=aadeagdg+beg+bfhdh+ieh+fi+c=A
Dischi di Gershgorin:
In un unione di n dischi ci sono n autovalori, quindi in ogni disco isolato c’è un autovalore Reale (se fosse Complesso nello stesso cerchio ci dovrebbe essere anche il suo coniugato).
Matrice Riducibile: una matrice A si dice riducibile se esiste una matrice di permutazione P tale che PAPT=(A110A12A22) con A11,A22 matrici quadrate. Geometria:
angolo tra retta e piano: cosβ=∣∣(a,b,cpiano)∣∣⋅∣∣(direzretta)∣∣∣<(a,b,cpiano),(direzioneretta)>∣
distanza punto-retta nel piano: dist(P,retta)=a2+b2∣ax0+by0+c∣