AA: 2014/2015 Corso: Geometria e Algebra Corso di laurea: Ing. dell'automazione e dell'energia elettrica. Programma svolto in classe: 24/09/2014 3 ore: Insiemi numerici. Numeri naturali, interi, razionali, reali, complessi. Operazioni sui numeri complessi, notazione cartesiana ed esponenziale/polare. Modulo, coniugio, inverso di un numero complesso. Interi modulo 2. Gruppi, Anelli, Campi, definizoni ed esempi. Anelli dei polinomi. 25/09/2014 2 ore: Fattorizzazione di polinomi a coefficienti reali e complessi, teorema fondamentale dell'algebra (solo enunciato). Spazi vettoriali, definizione ed esempi. R^2 graficamente, R^3, C^2, (Z/2Z)^2. K^n, spazio delle funzioni da un insieme X a valori in K. 01/10/2014 3 ore: Sottospazi vettoriali. Esempi di sottoinsiemi che sono sottospazi e di sottoinsiemi che non lo sono. Teorema "intersezione di sottospazi e' sottospazio". Equazioni lineari omogenee o non. Teorema "l'insieme delle soluzioni di un'equazione omoenea e' sottospazio vettoriale di K^n". Le soluzioni di un'equazione non omogenea non sono mai sottospazio. Sistemi di equazioni lineari, omogenei e non. Spazio dele soluzioni di un sistema omogeneo. Risoluzione di sistemi lineari per sostituzione. Matrici. Matrici associate a un sistema lineare (matrice dei coefficienti, colonna dei termini noti, matrice completa). 02/10/2014 2 ore: Operazioni elementari sulle Righe. Riduzione a scala. Rango. Teorema di Rouche'-Capelli (versione provvisoria). Esempi ed esercizi. Sistemi dipendenti da parametro. 08/10/2014 3 ore: Trasposta di una matrice. Prodotto righe per colonne tra matrici. Trasposta di un prodotto. Non commutativita' del prodotto. Sistemi lineari come AX=b. Polinomi di matrici. Matrici quadrate, matrice identita', invertibilita' di matrici. Teorema (con dim. basata su Rouche'-Capelli) "Una matrice quadrata di ordine n e' invertibile se e solo se ha rango n". Calcolo dell'inversa tramite soluzione di sistemi lineari e tramite processo di riduzione di Gauss-Jordan. Esempi ed esercizi. 09/10/2014 2 ore: Determinante di matrici quadrate. Interpretazione geometrica nel caso 2x2 e 3x3. Definizione tramite lo sviluppo per riga/colonna. Proprieta' del determinante: multilinearita', alternanza. Determinante della trasposta, determinante del prodotto. Determinante e matrici invertibili. 15/10/2014 3 ore: Matrice dei cofattori, proprieta' della matrice dei cofattori, inversa di una matrice tramite la trasposta della matrice dei cofattori. Teorema (con dimostrazione) "COF(A)^TA=det(A)I". Regola di Cramer per i sistemi lineari. Formula per l'inversa di una matrice 2x2. Metodo dei minori orlati per calcolare il rango di una matrice. Combinazioni lineari. Lineare indipendenza e dipendenza. Teorema (con dimostrazione) "v_1,...,v_k sono linearmente dipendenti se e solo se uno di loro si esprime como combinazione lineare degli altri." Lineare indipendeza di vettori in K^n e relazione con le soluzioni di un sistema del tipo AX=0. Teorema (con dimostrazione) "Sia A una matrice m x n. Le colonne di A sono linearmente indipendenti se e solo se rango(A)=n". 16/10/2014 2 ore: Lineare indipendenza in spazi di polinomi. Sistemi di generatori. Sistemi di generatori di K^n e relazioni con le soluzioni di sistemi del tipo AX=b. Teorema (con dimostrazione solo accennata) "Sia A una matrice m x n. Le colonne di A sono un sistema di generatori per K^m se e solo se rango(A)=m." 22/10/2014 3 ore: Basi. Teorema "Sia A una matrice m x n. Le colonne di A sono una base di K^m se e solo se m=n e det(A) diverso da zero, se e solo se le righe di A sono una base di K^n". Basi canoniche di K^n, K[x] e dello spazio di matrici m x n. I polinomi non sono finitamente generati. Base canonica dello spazio dei polinomi di grado al piu n. Un soprainsieme di un sistema di generatori e' un sistema di generatori. Un sottoinsieme di un insieme di vettori linearmente indipendenti e' formato da vettori linearmente indipendenti. Teorema (con dimostrazione e algoritmo) "da ogni sistema di generatori si estrae una base, ogni insieme di vettori linearmente indipendenti tra loro si estende a base". Teorema (no dim.) "Ogni spazio vettoriale ha una base, due basi di uno stesso spazio hanno sempre la stessa cardinalita' (numero di elementi)". Definizione di dimensione di V come numero di elementi di una sua base. Teorema (con dimostrazione) "Siano v1...vk k vettori di uno spazio di dimensione n. Se kn non sono mai linearmente indipendenti, se k=n sono linearmente indipendenti se e solo se sono una base se e solo se generano." Rouche'-Capelli reoladed: dim(AX=0) = n-rango(A) ove n e' il numero di colonne di A. Metodo per trovare una base di AX=0, descrizione delle soluzioni di AX=b. Dimensione di C su R e su C. Teorema (dim. lasciata per esercizio) se V e' uno spazio vettoriale complesso allora la sua dimensione su R e' il doppio della sua dimensione su C. Numero di elementi di uno spazio vettoriale su K = |K|^dim(V) (caso |K| finito e infinito). 23/10/2014 2 ore: Span: spazio generato da un sottoinsieme di uno spazio vettoriale. Definizioni equivalenti di span. Span di sottoinsieme di R^2 ed R^3. Teorema (con dim.) "Il rango di una matrice e' uguale alla dimensione dello spazio generato dalle righe." Teorema (senza dim.) "Il rango di una matrice e' uguale alla dimensione dello spazio generato dalle colonne" (equivalente a "A e sua trasposta hanno lo stesso rango") Moltiplicazione tra matrici e rango. Le colonne di AB stanno nello span delle colonne di A. Le righe di AB stanno nello span delle righe di B. Il sistema AX=b ha soluzione se e solo se b appartiene allo span delle colonne di A. Le righe di A generano se e solo se le sue colonne sono linearmente indipendenti e viceversa. Equazioni parametriche e cartesiane di un sottospazio vettoriale. Passaggio da equazioni cartesiane a parametriche: risoluzione per sostituzione + isolamento dei parametri liberi (+ controllo di correttezza). Passaggio da equazioni parametriche a cartesiane: applicazione dei minori orlati (+ controllo di correttezza). 29/10/2014 3 ore: Sottospazi vettoriali e sottospazi affini. Giacitura di uno spazio affine. Equazioni parametriche e cartesiane di sottospazi affini, passaggio dalle une alle altre. Intersezione di spazi affini tramite equazioni cartesiane messe a sistema. Intersezione di spazi affini e' vuota oppure e' uno spazio affine. Somma di sottospazi vettoriali. Base di W+V attraverso le equazioni parametriche. Formula di Grassmann (con dimostrazione): dim(V)+dim(W)-dim(intersezione di V e W)= dim(V+W). Posizione reciproca di sottospazi affini: rette e piani in R^2 e R^3. Somma diretta di sottospazi. Teorema (con dim.) "V=somma diretta di U e W se e solo se ogni vettore di V si scrive in modo unico come u+w con u in U e w in W". 30/10/2014 2 ore: Teorema (con dim.) "V,W sottospazi affini di K^n, se giac(V)+giac(W)=K^n allora V e W si intersecano". Posizione reciproca di sottospazi affini di K^n: posizioni non generiche (uno dentro l'altro, paralleli, incidenti) e generiche (sghembi e intersezione generica). Teorema (con dim.) "v1,...,vk base di V se e solo se ogni vettore di v si scrive in modo unico come loro combinazione lineare". Coordinate di un vettore rispetto a una base data. 05/11/2014 3 ore: E' stato fatto il parziale. 06/11/2014 2 ore: Span di uno spazio affine. Punti affinemente indipendenti, K-spazio affine passante per (k+1) punti affinemente indipendenti. Equazioni cartesiane di retta per due punti distinti in R^2 e R^2, equazione cartesiana di un piano per tre punti non allineati in R^3. Coordinate baricentriche di uno spazio affine. Descrizione dell'inviluppo convesso di k punti in R^n. 12/11/2014 3 ore: Applicazioni lineari, definizione come applicazione che commuta con le combinazioni lineari. Teorema "F:V -> W e' lineare se e solo se F(v+w)=F(v)+F(w) e F(av)=aF(v)". Teorema "F lineare e' univocamente determinata dai valori che assume su una base". Struttura di spazio vettoriale sull'insieme delle applicazioni lineari. Notazioni hom(V,W), L(V,W). Matrice associata a una applicazione lineare rispetto a una base in partenza e una in arrivo. Composizione di funzioni e prodotto di matrici. Cambio di base. Matrici del cambio di coordinate. Data una bae v1,...,vn di K^n, e vettori qualsiasi w1,...,wn di K^s, metodo per trovare l'applicazione lineare f: K^n -> K^s tale che f(vi)=wi. Esempi ed esercizi: derivata, rotazione in R^2, funzioni espresse in coordinate, AX tra spazi di matrici. Cambi di base in K^n. 13/11/2014 2 ore: Esistenza e costruzione esplicita di applicazioni lineari che mandano k vettori dati di uno spazio V in altri k di uno spazio W. Caso in cui i k vettori iniziali sono una base, caso in cui sono solo linearmente indipendenti, caso generale. Trasformazioni affini. Esistenza e costruzione esplicita di trasformazioni affini che mandano k punti dati di uno spazio V in altri k di uno spazio W. Caso in cui i k punti iniziali sono affinemente indipendeti e generalizzazioni. Nucleo e immagine di applicazioni lineari. Invertibilita'. Teorema delle dimensioni: "Per ogni f:V -> W lineare si ha dim(ker(f))+dim(Immm(f))=dim(V)" Equivalenza con Rouche'-Capelli e dimostrazione esplicita usando come base B di V v1,...,vk,v(k+1),...,vn ove v1,...,vk e' base di ker(f) e base B' di W w1,...,w(n-k),u1,...,us ove wi=f(v(k+i)) e' base dell'immagine di f. Matrice associata a f in tale base. Uso dell'isomorfismo lineare tra hom(V,W) e uno spazio di matrici per calcolare la dimensione di sottospazi di hom(V,W). 19/11/2014 3 ore: Endomorfismi, cambio di base per endomorfismi. Autovalori e autovettori. Esempi ed esercizi. Autospazio come insieme dei vettori tali che f(v)= lambda v. Polinomio caratteristico. Teorema (con esempi e dim.) "un numero c e' autovalore di un endomorfismo f se e solo se e' una radice del polinomio caratteristico di f". L'autospazio relativo a un autovalore c e' il nucleo di (f-cI). 20/11/2014 2 ore: Esercizi ed esempi su matrici con stesso polinomio caratteristico ma con autospazi diversi. Molteplicita' geometrica. Sottospazi invarianti, restrizione. Matrici a blocchi, matrici diagonali. Il determinante di una matrice diagonale a blocchi e' il prodotto dei determinanti dei blocchi. Gli autospazi sono invarianti. Autospazi relativi ad autovalori differenti sono in somma diretta. Definizione "f e' diagonalizzabile se ammette una base di autovettori". Definizione "una matrice e' diagonalizzabile se e solo se e' simile a una matrice diagonale". Teorema "f e' diagonalizzabile se e solo se la sua matrice in una base qualsiasi lo e'. Teorema "la molteplicita' geometrica non eccede quella algebrica". Teorema "la somma delle molteplicita' algebriche non eccede la dimensione di V". Teorema "un endomorfismo f di V e' diagonalizzabile se e solo se V e' somma diretta degli autospazi se e solo se la somma delle molteplicita' geometriche e' uguale alla dimensione di V." Teorema "se un endomorfismo di uno spazio di dimensione n ha n autovalori distinti allora e' diagonalizzabile". 26/11/2014 3 ore: Teorema (no dim.) Una matrice simmetrica e' sempre diagonalizzabile. Endomorfismi triangolabile definito come "f in End(v) e' triangolabile se la somma delle molteplicita algebriche = dim(v)" Teorema "f e' triang. se e solo se il polinomio caratteristico si fattorizza completamente". Teorema "f e' triangolabile se e solo se esiste una base in cui la matrice associata ad f e' triangolare" (dimostrato solo che l'esitenza di una tale base implica la triangolabilita' con la definizione data". Forma di Jordan: Blocchi di Jordan, matrici di Jordan. Teorema (no dim.) "ogni f triangolabile ammette una forma di Jordan, che e' unica a meno di permutazione dei blocchi". Due matrici sono simili se e solo se hanno la stessa forma di Jordan. Aspetti dinamici dei blocchi di Jordan, algoritmo (dei quadratini) per calcolare la forma di Jordan. 27/11/2014 2 ore: Esercizi sulla forma di Jordan. Digressione su serie di potenze calcolate su matrici nilpotenti, log(I+X) e radice quadrata (fuori programma d'esame). 03/12/2014 3 ore: Forme bilineari b: V x V --> K. (Esempi: determinante 2x2, integrale, tXAY) Teorema (con dim.) "Data una base v1,...,vn di V, ogni forma bilineare b:V x V --> K e' univocamente determinata dai valori b(vi,vj)" Matrice associata a una forma in una base data. Restrizione a sottospazi. Cambio di base. 04/12/2014 2 ore: Forme bilineari simmetriche e antisimmetriche. Restrizione a K=R. Struttura di spazio vettoriale su bil(V). Teorema (con dim.) "bil(V) = Simm. somma diretta Antisimm." Forma quadratica associata a una forma bilineare. Teorema (con dim.) "una forma bilineare simmetrica e' univocamente determinata dalla sua forma quatratica". Forme definite positive, prodotti scalari. Teorema (con dim.) "la matrice associata a un prodotto scalare ha determinante non nullo e non puo' avere autovalori negativi". Prodotti scalari standard su R^n e su spazi di funzioni. 10/12/2014 3 ore: Teorema (no dim.) "Sia b una forma bilineare simmetrica con matrice associata A, allora b e' un prodotto scalare se e solo se tutti i determinanti principali sono positivi". Teorema (no dim.) "Ogni matrice simmetrica reale ammette una base di autovettori". Se A e' la matrice associata a una forma bilineare simmetrica, gli autovalori di A dipendono fortemente dalla base e non sono quantita' intrinseche della forma bilineare. Esempi. I segni degli autovalori invece sono intrinseci: Teorema (no dim.) "Una forma bilineare simmetrica b e' un prodotto scalare se e solo se tutti gli autovalori della matrice associata a b (in una qualsiasi base) sono positivi". Teorema (no dim.) "Sia b una forma bilineare simmetrica su V, e sia A una matrice associata a b in una base. Allora le tre quantita' n0=dim(ker A), n+=somma molteplicita' delgi autovalori positivi, n-=somma molteplicita' autovalori negativi, non dipendono dalla base scelta." La tripla (n0,n+,n-) si chiama segnatura di b. Esempio: prodotto di Minkowski dello spazio tempo. Esempi di hessiani di funzioni semplici e relazioni con massimi e minimi locali. Norma indotta da un prodotto scalare, angolo tra due vettori, ortogonalita'. Definizione dell'ortogonala a un insieme. Teorema (no dim.) l'ortogonale dell'ortogonale di I e' span(I). (Cenni a problemi in dimensione infinita.) Proiezione di un vettore lungo span(v). Terminologia \pi_v(w). Teorema "v vettore di V allora V e' somma diretta di span v e v ortogonale". Teorema (no dim.) "W