La copia cartacea di questa pagina è disponibile presso il centro fotocopie di Ingegneria.

Domande e risposte ("FAQ")

(un consiglio: NON pronunciare "facc"...)

Home page di M. Ferri

Per inoltrare le tue domande mandami un messaggio - con "FAQ" o "domanda" nel Subject - che provvederò ad inserire qui.

Argomenti trattati finora:

Geometria e algebra t

Operazioni binarie interne.
Caratteristica di un anello.
Permutazioni e determinante.
Dimensione e sottospazi somma e intersezione.
Costruzione di rappresentazioni cartesiana e parametrica di sottospazi vettoriali.
Dimensione di sottospazi in forma cartesiana e parametrica.
Passaggio da forma parametrica a cartesiana e viceversa.
Basi e basi ordinate.
Spazio riga, spazio colonna, rango di una matrice.
Matrici di componenti di vettori: in riga o in colonna??
Omomorfismi.
Isomorfismi (1).
Isomorfismi (2), endomorfismi, ecc. 
Nucleo.
Cambiamenti di base.
Significato delle matrici associate alle trasformazioni lineari.
Determinazione di un'applicazione lineare (1).
Determinazione di un'applicazione lineare (2).
Come cambia la matrice di un endomorfismo se cambio base.
Righe, colonne, nucleo, immagine.
Ancora righe e colonne per nucleo, immagine e loro complementi ortogonali.
Trasformazioni di riga e autovalori.
Similitudine e congruenza.
Giacitura.
Interpretazione geometrica dei sistemi lineari.



Complementi di geometria

Spazi proiettivi.
Spazi proiettivi e grafica (libro)
Spazio congiungente e distanza fra due rette in E^4.
Vertice di una forma quadratica e di una conica.
Polarità.
Tangenti da un punto ad una conica degenere.
Iperpiani diametrali.
Simmetria rispetto agli iperpiani diametrali.
Classificazione di iperquadriche.
Coni e cilindri reali e immaginari.


D. Non sono riuscito a capire né (a) la definizione di operazione binaria interna né (b) il relativo esempio sui numeri razionali. In particolare non mi è chiara la scrittura (x,y)+(z,t)=(xt+yz,yt) e quella analoga per la moltiplicazione.

R. Ehhh, mi tocca di fare un po' di filosofia... La tua difficoltà è, infatti di carattere filosofico: tu ti aspetti delle definizioni e delle argomentazioni semantiche (cioè relative al contenuto, al significato delle cose) mentre tutta la matematica "moderna" (si fa per dire: è così da circa 60 anni) si vuole assolutamente mantenere sul piano sintattico (cioè del puro comportamento, delle regole formali). La differenza è circa quella fra una persona che abbia gusto a giocare a scacchi con dei bei pezzi intagliati artisticamente e uno che sia totalmente indifferente a questo aspetto e si accontenti di pezzettini di carta con scritto "torre", "alfiere" ecc.

Che gusto c'è? Be', se pensi che un calcolatore (almeno per adesso...) può lavorare ESCLUSIVAMENTE in ambito sintattico, capisci quanto sia importante impostare la matematica (e non solo) in questo modo. Anzi, c'è da sorprendersi che quest'impostazione sia fiorita quando ancora i calcolatori elettronici erano pochissimi e primitivi.

(a) Veniamo a noi. La definizione di "operazione" vuol subito mettere in chiaro il suo aspetto sintattico: non gliene frega niente di quale sia (e neanche SE ci sia) un significato per chiamare una certa cosa "operazione"; la definizione pretende solo che tu le presenti una "macchina" (un'applicazione, anche detta funzione) che AD OGNI coppia ordinata di elementi dell'insieme A associ ESATTAMENTE UN elemento di A. A quel punto la chiama "operazione". La teoria prosegue interessandosi alle proprietà formali (associatività, commutatività, esistenza di elemento neutro ecc.) dell'operazione, sempre ignorando volutamente il suo eventuale significato. Perciò viene considerata operazione anche quella che ho definito a lezione (quella che ad ogni coppia di interi (m,n) associa sempre l'intero 42) anche se è completamente idiota, infatti non significa niente e non serve a niente. Anzi, la teoria mette quest'operazione in una luce migliore dalla vecchia e cara sottrazione fra interi, visto che gode della proprietà associativa, mentre la sottrazione (per quanto significativa, utile, importante) no.

(b) Passiamo alla seconda parte della tua domanda. Questa è molto più complicata. Qui si presenta ancora la stessa difficoltà, peggiorata dal fatto che in mezzo ci sarebbe una nozione (relazione di equivalenza e insieme quoziente) che non ho avuto il tempo di definire. Cerco di riassumerla limitatamente all'esempio. Il concetto di "numero razionale" viene introdotto NON per formalizzare l'idea (semantica) di quantità frazionaria (la tipica fetta di torta) ma SOLO per ottenere il vantaggio (sintattico) di costruire un insieme dentro a cui 1) ritrovare gli interi, 2) avere l'inverso moltiplicativo di ogni elemento (diverso da zero). A questo punto le regole del gioco chiedono che costruiamo i nuovi oggetti (che chiameremo appunto "numeri razionali") usando solo ciò che abbiamo fino a quel momento: i numeri interi. Allora utilizziamo coppie ordinate (m,n) con m,n interi ed n diverso da 0 (e qua già puoi riconoscere che m farà da numeratore ed n da denominatore). FERMO! NON pensare a tagliare la tua torta in n pezzi uguali e prenderne m! Questo sarebbe semantico! Ricordati che dobbiamo solo rispettare le due richieste 1) e 2) che ho scritto qui sopra.

Qua devo parlarti di quella maledetta cosa che a lezione ho saltato. Non definisco come numero razionale una sola coppia (m,n) del tipo che ho detto. Insieme ad (m,n) prendo anche tutte le possibili coppie (km,kn) con k intero. anzi, per essere più precisi, insieme ad (m,n) prendo tutte le coppie (p,q) tali che mq=np (il prodotto dei medi sia uguale al prodotto degli estremi). Vedi come siamo stati bravi? Abbiamo sostanzialmente introdotto il concetto di frazioni equivalenti usando semplicemente i numeri interi e la loro operazione di prodotto; nessuna torta tagliata; nessun apporto semantico. Riassumiamo: un numero razionale è dunque un insieme di coppie di interi (di cui il secondo non nullo) fra loro proporzionali. Un esempio di numero razionale, secondo questa costruzione: l'insieme {..., (-4,-6), (-2,-3), (2,3), (4,6), (6,9), ...}. Il numero razionale è tutto l'insieme, ed ogni suo elemento (per esempio (2,3) o (-6,-9)) viene detto suo "rappresentante".

Siamo riusciti a rispettare la richiesta 1)? Sì, basta considerare i numeri razionali che hanno come rappresentanti le coppie (m,1). Questi numeri razionali (dati dalle frazioni in cui il numeratore è multiplo del denominatore, per intenderci) "fanno da" numeri interi.

E la richiesta 2)? Qui bisogna definire le operazioni. La somma, che ti ha messo in difficoltà, è nient'altro che quello che bisogna fare con le frazioni, mettendo a comune denominatore e poi sommando i numeratori. Il prodotto è ancora più semplice: (m,n)*(p,q) è definito come (mp,nq). (In realtà non dovrei parlare della singola coppia (m,n), ma di tutta la sua "classe di proporzionalità"; idem per (p,q)). Cosa succede, allora? Succede che ogni numero razionale (diverso da zero, cioè diverso dalla classe di proporzionalità {...,(0,-2), (0,-1), (0,1), (0,2),...}) ammette inverso. Vuoi vedere? Prendi il numero razionale che sia rappresentato dalla coppia (frazione) (m,n), con m ed n diversi da zero. Allora il numero rappresentato dalla coppia (n,m) è il suo inverso: infatti (m,n)*(n,m) = (mn,nm), che è proporzionale ad (1,1), elemento neutro del prodotto (e corrispondente all'intero 1).

Difficile, eh? Be', come ho detto c'è molta teoria tutta insieme, in questa risposta. Per quello che serve nel corso, concentrati su quello che facciamo sulle matrici, almeno per adesso. Quando tornerai su questa parte alla fine del corso, le cose saranno molto più chiare.



D. Se mi potesse spiegare brevemente il concetto di classe resto le sarei grato. Più che altro non riesco a capire la definizione di caratteristica e il significato della scrittura: 1+..(n volte)..+1=0. come può essere zero una somma di elementi diversi da zero?

R. Te lo spiego con Z3, insieme (e poi anello, anzi campo) delle classi resto modulo 3. I suoi elementi sono z, u, d.
z è l'insieme di tutti i multipli di 3
u è l'insieme di tutti gli interi che divisi per 3 dànno resto 1
d è l'insieme di tutti gli interi che divisi per 3 dànno resto 2

La somma di due elementi di Z3 è un elemento stesso di Z3.
Esempio: se sommi tutti i multipli di 3 con tutti gli interi a resto 1 riottieni tutti e soli gli interi a resto 1: cioè z+u = u
Se sommi tutti gli interi a resto 1 con tutti gli interi ancora a resto 1 ottieni tutti e soli gli interi a resto 2: cioè u+u = d

Sarà - penso - chiaro che z è elemento neutro della somma.

Puoi fare una cosa analoga col prodotto.
Se moltiplichi tutti i multipli di 3 con tutti gli interi a resto 2 ottieni tutti e soli i multipli di 3:
z*d = z.
Idem con gli interi a resto 1:
z*u = z.

Interessante è che c'è un elemento neutro per il prodotto: u. Infatti si può dimostrare che:
se moltiplichi tutti gli interi a resto 1 con tutti gli interi a resto 1 ottieni tutti e soli gli interi a resto 1,
u*u = u
se moltiplichi tutti gli interi a resto 1 con tutti gli interi a resto 2 ottieni tutti e soli gli interi a resto 2,
u*d = d.

Siamo pronti per la caratteristica, che in questo caso è 3. Infatti:
u+u = d,
u+u+u = d+u = z.



D. Non riesco bene a capire che cosa è una permutazione e come si fanno a calcolare e che ruolo svolgono nel calcolo del determinante.

R. Una permutazione è un'applicazione biiettiva da un insieme in sé. Per intenderci, è uno dei varii modi per rimescolare l'insieme. Ogni volta che metti in fila i cinque numeri 1, 2, 3, 4, 5 in modi diversi ne stai facendo una permutazione.

Sul libro e sugli appunti troverai tutte le permutazioni dell'insieme {1, 2, 3}, comunque le ripeto qui:

1 2 3    2 3 1    3 1 2    3 2 1    1 3 2    2 1 3

attenzione:
con 1 2 3 intendo l'applicazione che a 1 fa corrispondere 1, che a 2 fa corrispondere 2, che a 3 fa corrispondere 3;
con 2 3 1 intendo l'applicazione che a 1 fa corrispondere 2, che a 2 fa corrispondere 3, che a 3 fa corrispondere 1; e così via.

Non il CALCOLO, ma la DEFINIZIONE di determinante (di una matrice quadrata di ordine n) usa le permutazioni degli indici di colonna. Infatti il determinante è definito come una somma di certi prodotti di elementi della matrice. Quali prodotti? Tutti i possibili prodotti di n elementi, presi in modo che in ogni prodotto sia rappresentata ogni riga e ogni colonna. Per far questo, scriviamo ogni singolo prodotto come

 1        2                n
a     · a  ·   ...   · a
 p(1)   p(2)            p(n)

dove, volta per volta, p(1), p(2), ..., p(n) sono gli indici di colonna permutati secondo la permutazione p.

Siccome gli indici di riga sono 1, 2, ... , n, sei sicuro che tutte le righe sono rappresentate. Ma anche p(1), p(2), ... , p(n) sono tutti i numeri 1, 2, ... , n; infatti p è biiettiva! Quindi in ogni prodotto sono rappresentate tutte le colonne.

Non basta: occorre anche moltiplicare questi prodotti certe volte per -1, certe volte per +1. Quando l'uno e quando l'altro? Dipende dalla permutazione p che hai usato per rimescolare gli indici di colonna: moltiplicherai per (-1)^(numero di coppie in inversione di p), quello che indichiamo con sign(p).
Questo lo devi fare per TUTTE le possibili permutazioni di 1, 2, ... , n e poi devi sommare tutti i prodotti ottenuti. Il numero che ottieni è definito come il determinante della matrice.

Questa è la definizione. Insisto però, come ho già fatto più volte a lezione, che anche se questa definizione è comoda per studiare le proprietà del determinante, non è però la formula più adatta per calcolarlo effettivamente. I teoremi sul determinante consentono di calcolarlo in almeno due modi: portando la matrice in forma triangolare poi moltiplicando gli elementi della diagonale principale, o facendo lo sviluppo di Laplace lungo una riga o una colonna.

Una domanda sorge spontanea: E CHI ME LO FA FARE DI CALCOLARE TUTTI 'STI PRODOTTI ECC. ECC.? Risposta: mi dispiace, ma se vuoi 1) sapere se una matrice è invertibile, 2) sapere se certi vettori sono linearmente dipendenti o indipendenti, hai bisogno proprio del determinante e di nessun altro...



D. Prof , ho un problema nel trovare le dimensioni e anche nel capire un teorema che abbiamo enunciato: la relazione di Grassmann . La prego prof , me lo spiegi con un esempio palpabile.

R. Vediamo un po' l'insieme X = {(x,y,z) in R^3 | x=a, y=2·a, z=0, a in R}.
Questo risulta essere un sottospazio vettoriale di R^3, perché è chiuso rispetto alla somma e rispetto al prodotto per scalari. Qual è la sua dimensione?

Bene, cerco una sua base. Mi accorgo che tutti questi vettori sono fra loro proporzionali, e tutti ottenibili come a·(1,2,0). Ma allora l'insieme {(1,2,0)} è un sistema di generatori per il sottospazio X ed anzi, visto che è linearmente indipendente, ne è una base. Contiene un elemento, quindi la dimensione del sottospazio X è uno.

Parliamo di Grassmann.
Mettiamoci, per esempio, nello spazio vettoriale V delle matrici quadrate di ordine 3 su R.

Considera

U = {M in V | M è diagonale}, W = {M in V | M ha elementi tutti nulli fuori dalla diagonale secondaria}

Cioè le matrici di U sono fatte così:

a  0  0
0  b  0
0  0  c

e quelle di W sono così:

0  0  d
0  e  0
f  0  0

Ora, sempre verificando che U e W sono chiusi linearmente si vede che sono sottospazi vettoriali.

Qual è loro dimensione?  Basta trovare delle basi.

Una possibile base per U è quella costituita dalle tre matrici

1  0  0            0  0  0             0  0  0
0  0  0            0  1  0             0  0  0
0  0  0            0  0  0             0  0  1

Una base per W è costituita dalle matrici

0  0  1            0  0  0            0  0  0
0  0  0            0  1  0            0  0  0
0  0  0            0  0  0            1  0  0

Quindi dimU=3, dimW=3.

Qual è l'intersezione? E' costituita dalle matrici che sono sia in U sia in W, quindi le matrici fatte così:

0  0  0
0  g  0
0  0  0

Una base è costituita dalla sola matrice

0  0  0
0  1  0
0  0  0

e la dimensione è 1.

Qual è il sottospazio somma? E' fatto da tutte le matrici somma di una di U più una di W, quindi sono matrici del tipo

a  0  0        0  0  d         a  0  d
0  b  0   +   0  e  0  =     0  h  0
0  0  c         f  0  0          f  0  c

dove h = b+e, ma visto che b ed e sono reali qualunque, anche h è un reale qualunque.

Una base del sottospazio somma è costituita dalle matrici

1  0  0        0  0  1        0  0  0        0  0  0        0  0  0
0  0  0        0  0  0        0  1  0        0  0  0        0  0  0
0  0  0        0  0  0        0  0  0        1  0  0        0  0  1

e la dimensione è 5. Torna tutto:

dimU  +  dimW  =  3 + 3  = 6
dim(UintW)  +  dim(U+W)  =  1 + 5  = 6,

come prevede appunto la relazione di Grassmann.

(Attenzione: per i sottospazi che ho considerato ci sono infinite altre basi possibili; quelle che ho indicato sono solo le più semplici.)



D. Come si costruiscono le rappresentazioni parametrica e cartesiana di un sottospazio vettoriale dato come chiusura lineare di un insieme?

R. Come al solito, supponiamo di lavorare in uno spazio vettoriale di dimensione finita, e di rappresentare tutto quanto rispetto ad una base ordinata. Quindi sostanzialmente lavoriamo in R^n.
Mi è stato dato un insieme finito X di vettori, mediante le loro n-ple di componenti, e mi si chiede di rappresentare la chiusura lineare U=L(X).

Passo 0
Formo la matrice che ha come colonne le n-ple di componenti dei vettori di X. Cerco un minore (supponiamo che sia M, di ordine r) a determinante diverso da 0, tale che ogni suo orlato abbia determinante = 0.
Butto via le colonne che NON hanno contribuito a formare M (tanto sono necessariamente combinazioni lineari di quelle che HANNO contribuito a formare M: lo dice il Prof. Leopold Kronecker!). Mi resta una matrice A di tipo n x r e di rango r. I vettori corrispondenti alle colonne di A formano una BASE di U (mentre X, in generale, è soltanto un sistema di generatori di U).

Esempio:

in uno spazio V di dimensione 5 sia X={u,v,w} con u,v,w aventi per 5-ple di componenti, rispetto ad una data base ordinata B, le colonne della matrice

2  -4  0
-1  2  0
0   0  0
0   0  3
1  -2  -1

Come minore M va bene, per esempio, quello ottenuto dalle righe 1 e 4 e dalle colonne 1 e 3:

M=
2   0
0   3

detM è diverso da 0, ed ogni orlato di M ha determinante nullo, dunque la matrice ha rango 2 (v. anche questa domanda). Dunque

A=

2   0
-1  0
0    0
0    3
1   -1

(e una base di U è dunque {u,w}).

Passo 1par
Scrivo la colonna delle generiche componenti x1,..., xn come prodotto della matrice A per una colonna di r parametri a1,...,ar. Questa è una rappresentazione parametrica di U.
Già fatto? Già fatto, perché è come imporre alla colonna delle componenti di essere la combinazione lineare a1*(prima colonna di A) + ... + ar * (r-esima colonna di A).

Esempio:

Una rappresentazione parametrica (minima) di U è data dall'equazione matriciale

x1           2    0
x2          -1    0       a1
x3   =     0     0   *  a2
x4          0     3
x5          1    -1

o anche, se ti senti tradizionalista, puoi scrivere (con un segno di sistema davanti)

x1 = 2 a1
x2 = -a1
x3 = 0
x4 = 3 a2
x5 = a1 - a2

Passo1car
Aggiungo (a sinistra o a destra, come preferisci) ad A una colonna di generiche componenti x1,...,xn ottenendo una matrice A' di tipo n x (r+1). Impongo ad A' di avere rango r, costringendo così la nuova colonna ad essere combinazione lineare delle colonne di A (per la stessa definizione di rango). Come faccio ad imporlo? Ma con l'aiuto del solito Prof. Kronecker! Infatti riprendo il minore M trovato al passo 0, ne faccio tutti i possibili orlati (quanti sono? Tanti quante le righe lasciate fuori da M, cioè n-r) e impongo ai loro determinanti di essere = 0. Bene, quello che abbiamo ottenuto è un sistema di n-r equazioni lineari omogenee linearmente indipendenti, soddisfatte dalle n-ple di componenti di tutti e soli i vettori di U. Cioè abbiamo una rappresentazione cartesiana di U.

Esempio:

A'=

x1   2   0
x2   -1  0
x3   0    0
x4   0    3
x5   1   -1

O1=
x1   2   0
x2   -1  0
x4   0    3

O2=
x1   2   0
x3   0    0
x4   0    3

O3=
x1   2   0
x4   0    3
x5   1   -1

Una rappresentazione cartesiana (minima) è data dal sistema

detO1=0
detO2=0
detO3=0

cioè dal sistema

-3 x1 - 6 x2 = 0
-6 x3 = 0
-3 x1 + 2 x4 + 6 x5 = 0



D. Se ho un sottospazio vettoriale rappresentato in forma cartesiana, come faccio a trovarne la dimensione? E se è in forma parametrica?

R. Se U è in forma cartesiana, cioè è rappresentato da un sistema di m equazioni lineari omogenee in n incognite, allora la sua dimensione è (n - rango della matrice dei coefficienti). Se è in forma parametrica, cioè le n componenti sono espresse come funzioni omogenee di primo grado di r parametri, allora dimU = (rango della matrice dei coefficienti dei parametri).

Per esempio, se U è il sottospazio di  R^5 rappresentato da

x - y + 3z -u = 0
-x + 2y +z + u + v = 0
x  + y + 11z - u + 2v = 0

allora il rango = 2 della matrice

 1  -1   3   -1   0
-1   2   1    1   1
 1   1  11  -1   2

ci permette di calcolare dimU = 5-2 = 3.

Se W è il sottospazio di R^5 rappresentato da

x =   a - b
y = 5a   - 5c
z =  -a + 2b + c
u =   b + c
v = a + b + 2c

allora il rango = 2 della matrice

 1  -1   0
 5   0   5
-1   2   1
 0   1   1
 1   1   2

ci permette di calcolare dimW = 2.

Attenzione: un errore comune è scambiare le due regole! Un altro errore comune è credere che la dimensione (in forma cartesiana) sia sempre uguale alla differenza n-m; analogo errore è credere che la dimensione (in forma parametrica) sia sempre uguale al numero r dei parametri. Questi due numeri limitano la dimensione, ma possono NON esserle uguali. Infatti puoi avere equazioni cartesiane linearmente dipendenti, ed allora la dimensione sarà maggiore di n-m; analogamente puoi avere colonne dei coefficienti dei parametri linearmente dipendenti, ed allora la dimensione sarà minore di r.

Ma perché valgono le due formule che ho citato all'inizio? Un po' di teoria chiarisce tutto.

Quando rappresentiamo un sottospazio U di V in forma parametrica, lo rappresentiamo come immagine di una trasformazione lineare S avente V come codominio (ed avente come dominio lo spazio dei parametri); S è rappresentata dalla matrice C dei coefficienti. Ma allora sappiamo che la dimensione dell'immagine (cioè di U) è proprio uguale al rango di C.

Se invece rappresentiamo U in forma cartesiana, lo rappresentiamo come nucleo di una trasformazione lineare T avente V come dominio. T è rappresentata dalla matrice A dei coefficienti del sistema. Ma allora l'equazione dimensionale delle trasformazioni lineari ci dice che la dimensione del nucleo (cioè di U) è uguale alla dimensione del dominio (cioè n) meno la dimensione dell'immagine (che è uguale al rango di A).

Ah, già che ci sono: c'è un "bonus". Le colonne della matrice dei coefficienti (in forma parametrica) sono n-ple di componenti di un sistema di generatori per l'immagine, quindi per il sottospazio. Se, studiando il rango della matrice, ne estraiamo un sottoinsieme massimale di colonne linearmente indipendenti, ci siamo procurati una base del sottospazio!



D. Come faccio a passare da forma parametrica a cartesiana e viceversa?

R. Fammi usare i sottospazi U e W della risposta alla domanda precedente come esempi.

Parametrica --> cartesiana
Sia W espresso in forma parametrica come sopra. Eseguendo il calcolo del rango (che lì mi serviva per determinare la dimensione di W) ho trovato, come dico nell'ultima frase, una base di W. Ma allora uso il Passo 1car della domanda su forma cartesiana e parametrica per ottenere una forma cartesiana.

Esempio:

In

 1  -1   0
 5   0   5
-1   2   1
 0   1   1
 1   1   2

intersecando le prime due righe con le prime due colonne trovo

M=

1  -1
5   0

che ha determinante diverso da 0 ed i cui orlati hanno tutti det=0.

Allora una base è formata dalle prime due colonne. Applico il Passo 1car:

A'=
x   1  -1
y   5   0
z  -1   2
u   0   1
v   1   1

O1=
x   1  -1
y   5   0
z -1   2

O2=
x   1  -1
y   5   0
u   0   1

O3=
x   1  -1
y   5   0
v   1   1

detO1=0
detO2=0
detO3=0

mi forniscono una rappresentazione cartesiana minima di W mediante il sistema

10x - y + 5z = 0
5x - y + 5u = 0
5x - 2y + 5v = 0.

Cartesiana --> parametrica
Questa è la parte più facile! Infatti basta risolvere il sistema.

Esempio:

U rappresentato in forma cartesiana come sopra da

x - y + 3z -u = 0
-x + 2y +z + u + v = 0
x  + y + 11z - u + 2v = 0

La matrice dei coefficienti è

 1  -1   3   -1   0
-1   2   1    1   1
 1   1  11  -1   2

Intersecando le prime due righe e prime due colonne trovo il minore

M=

 1  -1
-1   2

che ha determinante diverso da 0, mentre tutti i suoi orlati hanno det=0. Allora

cancello l'equazione i cui coefficienti NON hanno contribuito a formare M:

x - y + 3z -u = 0
-x + 2y +z + u + v = 0

trasformo in altrettanti parametri indipendenti le incognite i cui coefficienti NON hanno contribuito a formare M:

z = a
u = b
v = c

e porto a secondo membro:

x - y = -3a + b
-x + 2y = -a - b - c
z = a
u = b
v = c

infine risolvo in x e y; quella che ottengo è una rappresentazione parametrica minima di U:

x = -7a + b - c
y = -4a - c
z = a
u = b
v = c

o anche, in forma matriciale,

x        -7   1   -1
y        -4   0   -1           a
z    =    1   0    0    *     b
u          0   1    0           c
v          0   0    1

(da cui il solito "bonus": una base per U, fornita dalle tre colonne della matrice dei coefficienti dei parametri).


D. Potrebbe gentilmente spiegarmi la differenza che vi è tra il concetto di BASE e quello di BASE ORDINATA? (nonostante i miei sforzi non ci sono ancora arrivato...)

R. C'è la stessa differenza che c'è fra insieme ed n-pla. Una base è semplicemente un insieme di vettori (linearmente indipendente, e che genera lo spazio, ovviamente). Una base ordinata è una n-pla ordinata di vettori, il cui insieme di vettori è una base. è necessario che sia una n-pla e non un semplice insieme, perché lo stesso ordine si riflette sui coefficienti con cui esprimiamo il generico vettore come combinazione lineare. Se hai una base {v,w}, ogni vettore u si può esprimere come  av+bw, per opportuni scalari a e b. Ma allora la coppia di componenti che associamo ad u dev'essere (a,b) o (b,a)? Se invece che un _insieme_ {v,w} abbiamo la _coppia_ordinata_ (v,w), ecco che sappiamo bene che ad u dobbiamo associare la coppia ordinata (a,b) e non l'altra. Così abbiamo una vera e propria applicazione che ci porta da V ad R^2.

D. 1) Cos'è lo spazio riga e lo spazio colonna di una matrice? 2) la caratteristica (o rango) della matrice?

R. 1) Prendi la seguente matrice A:

  1    3  -1   -1     5    2
-2   -6    2    2   -10   -4
  0    0    0    2     3   -1
 3    9   -3   -5    12    7
-2   -6    2    4   -7   -5
 

Spazio riga:

{ a(1,3,-1,-1,5,2) + b(-2,-6,2,2,-10,-4) + c(0,0,0,2,3,-1) + d(3,9,-3,-5,12,7) + e(-2,-6,2,4,-7,-5) | a,b,c,d,e in R }.

Spazio colonna:

{ f(1,-2,0,3,-2) + g(3,-6,0,9,-6) + h(-1,2,0,-3,2) + j(-1,2,2,-5,4) + k(5,-10,3,12,-7) + m(2,-4,-1,7,-5) | f,g,h,j,k,m in R }.

2) Vediamo cos'è il rango di A. Si può verificare che in effetti tutto lo spazio riga si può esprimere come:

{ a(1,3,-1,-1,5,2) + c(0,0,0,2,3,-1)| a,c in R }.

Infatti la seconda, quarta e quinta riga si possono esprimere come combinazioni lineari della prima e della terza. Dunque l'insieme di generatori dello spazio riga, costituito da tutte le righe, si può ridurre all'insieme della prima e della terza. Queste sono linearmente indipendenti, dunque formano una BASE dello spazio riga. Allora lo spazio riga ha dimensione 2. Questo è il rango (o caratteristica) di A. è dunque il massimo numero di righe linearmente indipendenti presenti nella matrice.

Cosa ci dice il teorema? Che 2 dev'essere anche la dimensione dello spazio colonna. Quindi se trovo due colonne linearmente indipendenti, queste formano una base per lo spazio colonna. Per esempio la prima e la quarta sono linearmente indipendenti. Il teorema dice che la seconda, la terza, la quinta e la sesta colonna sono loro combinazioni lineari. Con quali scalari? Non lo so. Io ho costruito la matrice guardando alle righe, quindi se me lo chiedi SO quali scalari servono per ottenere le varie righe a partire dalla prima e dalla terza riga. Per dare la stessa risposta per le colonne dovrei fare i conti, ma SO che quegli scalari necessariamente ci sono. In definitiva, anche lo spazio colonna si può scrivere in modo più economico a partire dalla base formata da prima e quarta colonna, invece che a partire dall'insieme di generatori formato da tutte le colonne:

{ f(1,-2,0,3,-2) + j(-1,2,2,-5,4) | f,j in R }.

Con questo spero di averti spiegato CHE COSA è il rango. Come calcolarlo è un'altra storia.


D. Quando scrivo la matrice contenente i vettori di una base so che i vettori, secondo le loro componenti, devono essere disposti nella matrice lungo le colonne. Lei però ha svolto un esercizio in cui li disponeva per riga. Perchè? Dov'è la differenza che non riesco a cogliere?

R. Siamo obbligati a mettere le n-ple di componenti in colonna SOLO quando costruiamo la matrice associata ad una trasformazione lineare. E questo dipende da come facciamo il prodotto di matrici.

Negli altri casi, che siano in riga o siano in colonna, l'importante è che ti ricordi come li hai messi. Tanto quello che importa è calcolare il rango. Quando lo fai, il minore di ordine massimo a determinante diverso da 0 è all'incrocio di certe righe e certe colonne della matrice. Bene: quelle righe formano un insieme massimale di righe linearmente indipendenti della matrice; le colonne, idem. A questo punto, se le componenti le hai messe per riga allora puoi subito sapere che i vettori corrispondenti a quelle righe (cioè le righe della matrice grande su cui si trova il minore) formano un insieme massimale di vettori linearmente indipendenti.

(Nota: io preferisco mettere sempre in colonna per non far venire scrupoli come i tuoi. Ma forse è meglio che ti siano venuti!)



D. Non capisco il significato del concetto di omomorfismo di gruppi.

R. È effettivamente un concetto molto importante, soprattutto quando l'omomorfismo è biiettivo, cioè un isomorfismo (v. anche le due domande successive a questa, nell'ambito degli spazi vettoriali).
La situazione più generale è quando hai due strutture diverse ma dello stesso tipo: due gruppi, o due anelli, o due spazi vettoriali (in quest'ultimo caso gli omomorfismi vengono chiamati "trasformazioni lineari").
Prendiamo il caso di due gruppi. Per chiarezza prendiamoli diversi (ma si può benissimo avere un omomorfismo di un gruppo in se stesso; v. isomorfismi (2)): (G,*) e (H,@), dove G e H sono insiemi non vuoti e *, @ sono operazioni binarie interne rispettivamente su G ed H. Prima di tutto rispolveriamo la definizione:
un'applicazione f:G->H si dice omomorfismo da (G,*) ad (H,@) se, per ogni g, g' in G accade che

f(g*g') = f(g)@f(g')

cioè prima comporre (con * in G) e poi trasformare ha SEMPRE lo stesso effetto che prima trasformare e poi comporre (con @ in H).

Vediamo questi due esempi, entrambi con (R^3,+) come dominio (+ è la solita somma di terne elemento per elemento) ed (R,+) come codominio (qui + è invece la somma di numeri reali).

F:R^3 -> R
(x,y,z) -> 2x-5y+3z

Perché sia un omomorfismo deve accadere che, comunque io prenda (a,b,c) e (d,e,f) in R^3, valga:

F((a,b,c)+(d,e,f)) = F((a,b,c)) + F((d,e,f))

Vediamo:
F((a,b,c)+(d,e,f)) = F((a+d,b+e,c+f)) = 2(a+d)-5(b+e)+3(c+f) = 2a+2d-5b-5e+3c+3f

F((a,b,c)) = 2a-5b+3f
F((d,e,f)) = 2d-5e+3f

da cui

F((a,b,c)) + F((d,e,f)) = 2a-5b+3f + 2d-5e+3f

ma siccome vale la commutatività della somma di numeri reali, questo numero è proprio uguale a quello visto sopra come F((a,b,c)+(d,e,f)). Perciò F è un omomorfismo dal gruppo (R^3,+) al gruppo (R,+).

Consideriamo ora
G:R^3 -> R
(x,y,z) -> xyz

Anche stavolta voglio sapere se, comunque io prenda (a,b,c) e (d,e,f) in R^3, valga:

G((a,b,c)+(d,e,f)) = G((a,b,c)) + G((d,e,f))

Vediamo:
G((a,b,c)+(d,e,f)) = G((a+d,b+e,c+f)) = (a+d)(b+e)(c+f)

G((a,b,c)) = abc
G((d,e,f)) = def

da cui

G((a,b,c)) + G((d,e,f)) = abc + def

Ora, vedo che i due risultati (a+d)(b+e)(c+f) e abc+def non sono in generale uguali; o almeno non vedo nessuna ragione che lo siano. Ma siamo sicuri che almeno una volta siano diversi?
L'unico modo per accertarcene è escogitare un controesempio. Cerchiamo due terne (a,b,c) e (d,e,f) particolari per cui ci sembra che possano venire risultati diversi. (Consiglio: provare con elementi il più possibile semplici).
Proviamo con (a,b,c)=(1,1,1) e (d,e,f)=(1,1,5). Allora:

G((1,1,1)+(1,1,5)) = G((2,2,6)) = 24
G((1,1,1)) = 1
G((1,1,5)) = 5
G((1,1,1))+G((1,1,5) = 1+5 = 6

Ma 24 è diverso da 6, perciò G NON È un omomorfismo da (R^3,+) ad (R,+).

Segnalo un importantissimo omomorfismo di gruppi, che anzi è (per fortuna) biiettivo, quindi un isomorfismo: il logaritmo (nella base che ti pare, diversa da 1). Con R+ = {reali positivi} e * il solito prodotto di reali,

log:(R+,*) -> (R,+)

è un omomorfismo, in quanto, per ogni x, x' in R+, vale

log(x*x') = log(x)+log(x').



D. Lei sembra attribuire una grande importanza agli isomorfismi, ma non capisco perché.

R. La prendo alla larga, come a lezione.

Supponi di avere una mappa molto dettagliata di Bologna, con tutti i vicoletti anche minimi. Allora tu puoi pianificare un percorso semplicemente guardando la mappa. Perché? Per il fatto che l'applicazione (biiettiva) che manda ogni strada della mappa in una strada della città "rispetta la struttura", cioè è fatta in modo che tu vedi via Farini che si immette in via S. Stefano sulla carta, e in effetti v. Farini _vera_ si immette in via S. Stefano _vera_.

Probabilmente in qualche altra città ci sono via Farini e via S. Stefano, ma una non si immette nell'altra (la struttura degli incroci NON è rispettata se passo dalla mappa di Bologna alle strade di quest'altra città).

Quello che abbiamo fra mappa e città è un isomorfismo. Non è un isomorfismo di spazi vettoriali, ma di un altro tipo di oggetto matematico (i grafi; prima o poi li studierai). Quando hai un isomorfismo, uno dei due oggetti in gioco può simulare l'altro. In effetti, la mappa è una simulazione della città.

Se invece avessimo una mappa un po' approssimativa, in cui ci sono solo le vie principali, avresti ancora un applicazione da {strade sulla mappa} a {strade di Bologna}, ma non biiettiva. Quindi potrai pianificare dei percorsi, ma magari non ti accorgerai di certe scorciatoie per certi vicoletti; o ti troverai in una stradina che non ritrovi sulla mappa.

Un po' lo stesso avviene con isomorfismi e trasformazioni lineari fra spazi vettoriali. In particolare gli isomorfismi sono molto più preziosi delle semplici trasformazioni lineari, perché permettono una simulazione completa.

Il più importante isomorfismo è senz'altro quello che, fissata una base ordinata B in V (di dimensione finita n) manda ogni vettore di v nella sua n-pla di componenti rispetto a B. Vuoi sapere se certi polinomi (o certi segmenti, ecc.) sono linearmente indipendenti? Prendine le n-ple di componenti rispetto a B.

stud: "Bene, e adesso che me ne faccio delle n-ple?"

prof: "Be', visto che le n-ple sono linearmente indipendenti se e solo se i polinomi lo sono (per via dell'isomorfismo) basta che io veda se le n-ple sono linearmente indipendenti."

stud: "Sì, ma ho solo spostato il problema: come faccio a sapere se le n-ple sono linearmente indipendenti?"

prof: "AHA! E' qui il bello. Quando il problema si sposta sulle n-ple, basta metterle in matrice e studiare il rango".

stud (sviene per l'emozione).


D. Non ho ben capito il significato di isomorfismo, endomorfismo eccetera.

R. Partiamo dalle definizioni.

Isomorfismo: applicazione lineare biiettiva.
Endomorfismo: applicazione lineare da uno spazio a se stesso.
Automorfismo: endomorfismo biiettivo.

Esempi di isomorfismi (che però non sono endomorfismi):

1) l'applicazione che ad ogni forza applicata nel punto M associa il segmento con un estremo in M, con stessa direzione e stesso verso, con lunghezza in cm uguale all'intensità in Newton.

2) l'applicazione che ad ogni vettore di uno spazio vettoriale V di dimensione n associa la n-pla delle componenti del vettore rispetto ad una base ordinata fissata.

Questi esempi sono particolarmente significativi, perché consentono un'efficace simulazione di uno spazio con un altro. Tuttavia nella definizione rientra anche un esempio non altrettanto interessante come questo:

3) f: R^3 --> {polinomi di gr<3}
   (a,b,c)--> (a-b)+(a+2c)x+(5b-c)x^2

Esempi di endomorfismo.

1) V = spazio dei segmenti con un estremo nel punto fissato M, nello spazio ordinario.
S = un fissato piano passante per M
T = l'applicazione che manda ogni segmento di V nella sua proiezione ortogonale su S.

Commento: siamo in dimensione finita, quindi se voglio dare un esempio di endomorfismo che NON sia un automorfismo, devo farlo NON iniettivo ed automaticamente (per via dell'equazione dimensionale di una trasf. lin.) NON suriettivo.

In dimensione infinita c'è più libertà d'azione:

2) V = C^infinito(R,R). La derivata è un endomorfismo. E' sì suriettivo, ma non è iniettivo, quindi non è un automorfismo.

Esempi di automorfismo.

1) V = solito spazio di segmenti. f = rotazione di un dato angolo attorno ad un dato asse.

2) f: R^2 --> R^2
     (x,y)-->(x-3y, 2x+y)

Questa f è lineare (le funzioni x-3y e 2x+y sono omogenee di primo grado) ed è biiettiva, come si può rilevare dall'invertibilità della matrice

1  -3
2   1

(basta vedere che il determinante è diverso da zero).



D. Vorrei che gentilmente mi  chiarisse il concetto di KerT.

R. Credo che la cosa migliore sia considerare degli esempi, visto che la definizione tutto sommato è semplice (è l'insieme dei vettori di V che una trasformazione lineare T da V a W manda nel vettore nullo di W).

T= proiezione
T: R^3-->R^2
(x,y,z)-->(x,y)

Chi va in (0,0)? Tutte e sole le terne (0,0,a) con a in R. Questo è il nucleo di T.

Analogo geometrico:
T: {segmenti con un estremo in N}--> {segmenti con un estremo in N}
       segmento v   --> proiezione ortogonale di v sul piano orizzontale che passa per N

Chi va nel segmento nullo? Tutti e soli i segmenti con un estremo in N, che stanno sulla retta verticale passante per N. Questo è il nucleo.

Invece:
T: {segmenti con un estremo in N}--> {segmenti con un estremo in N}
       segmento v   --> segmento ottenuto ruotando v di 20 gradi attorno alla retta verticale passante per N

Chi va nel segmento nullo? Solo il segmento nullo stesso. Quindi il nucleo è il sottospazio banale; infatti T in questo caso è iniettiva.

T: {funzioni con derivate di ogni ordine}--> {funzioni con derivate di ogni ordine}
        f   --> f' (cioè la derivata di f)

Chi va nella funzione costante nulla? Tutte le funzioni costanti; queste costituiscono il nucleo.

Variante:

T: {funzioni con derivate di ogni ordine}--> {funzioni con derivate di ogni ordine}
        f   --> f" (cioè la derivata seconda di f)

Chi va nella funzione costante nulla? Questa volta il nucleo è costituito dalle funzioni polinomiali a+bx.


D. C'è un esercizio che ci ha proposto su cui ho trovato delle difficoltà. Potrebbe risolverlo indicando bene tutti i passaggi per favore? Ecco l'esercizio:
In uno spazio vettoriale V su R di dim=r, siano B,B1 due basi. In particolare B1=(w1,w2) con w1 rispetto a B (1,5) w2 rispetto a B (2,3);
siano poi v rispetto a B (8,-3) e U il sottospazio vettoriale di V che ha rispetto a B equazione: x-4y=0.
TROVARE LE COMPONENTI DI v RISPETTO A B1 E L'EQUAZIONE DI U RISPETTO A B1.

R. Se metto in colonna (qua è importante: è un cambiamento di base, quindi una trasformazione lineare) le componenti dei vettori di B1 rispetto a B, ottengo la matrice F del cambiamento di base DA B1 A B (attenzione!). Cos'è questa matrice? è quella tale che, se le moltiplico a destra le componenti (x',y') di un vettore v rispetto a B1, saltano fuori le componenti (x,y) dello stesso vettore rispetto a B.

Quindi F=
1 2
5 3

Già, PECCATO CHE A NOI SERVA QUELL'ALTRA. Quale altra? Quella (chiamiamola E) che, se le moltiplichi a destra le componenti rispetto a B, ti dà le componenti rispetto a B1. Però c'è una furbizia: siccome i due cambiamenti di base (da B a B1 e da B1 a B) sono trasformazioni una inversa dell'altra, anche le matrici sono una inversa dell'altra, quindi per trovare E basta fare E=F^(-1).

Cioè E=(-1/7)·
3 -2
-5 1

Adesso, le componenti che t'interessano (cioè le componenti di v rispetto a B1) sono

         8       -30/7
E ·          =
        -3       43/7

OK fin qua? Ora parliamo del sottospazio. Per ottenere l'equazione dello stesso sottospazio, ma rispetto alla base B1, ho bisogno di conoscere x,y in funzione di x', y'. Ma siamo fortunati, perché questo è proprio ciò che ci fornisce la nostra vecchia matrice F:

x            x'
    = F ·
y            y'

cioè
x = x'+ 2 y'
y = 5 x'+ 3 y'

Ora basta sostituire nell'equazione x-4y=0 e ottieni
(x'+2y')-4(5x'+3y')=0
cioè
-19 x' - 10 y' = 0.



D. Non sono riuscito a capire che cosa sia e che ruolo abbia la matrice associata a T relativamente alle basi ordinate B e B'.

R. Semplice: ti riassume in una matrice tutto quello che fa la trasformazione lineare.

Cioè: che T sia una rotazione, una derivazione, un limite, un integrale, una proiezione o chissà cos'altro ancora (v. gli esempi che ho dato parlando di isomorfismi ecc.), purché lineare e fra spazi vettoriali di dimensione finita, tu la puoi simulare con una matrice.

Per usarla devi prendere il vettore v da trasformare (in V), ne leggi le componenti (x1,...,xn) rispetto alla base ordinata (B) fissata nel dominio V, le metti in colonna a destra della matrice, moltiplichi e vengono fuori, sempre in colonna, le componenti (y1,...,ym), rispetto alla base ordinata di arrivo (B', in W) del vettore trasformato T(v):

(y)=A.(x)



D. Come si trova la matrice associata ad una trasformazione lineare?

R. Innanzi tutto ricordiamo che la matrice è associata ad una trasformazione lineare
fra spazi di dimensione finita
T: V --> W
rispetto ad una base ordinata B=(v1,...,vn) di V e ad una base ordinata B' di W.
La "ricetta" da ricordare per bene è: trasforma il primo elemento v1 della base B
del dominio, scomponi il trasformato T(v1) rispetto alla base B' del codominio, metti in
colonna le componenti, poi lo stesso per il secondo vettore v2, ecc.; la matrice di cui
stai scrivendo le colonne è quella cercata.

Se il dato della trasformazione lineare è proprio la definizione, in termini di
componenti, allora la ricetta generale vale sempre, ma c'è
appunto una scorciatoia: gli elementi della matrice si possono leggere
direttamente dalla definizione; per esempio,se la trasformazione è

T: R^3 --> R^2
(x,y,z)-->(2x+3y+4z, 5x+6y+7z)

allora la matrice che la rappresenta rispetto alle basi naturali è

2  3  4
5  6  7

come puoi verificare applicando la costruzione generale alla base naturale di
R^3.



D. Come si risolve il seguente problema? Dati in R^3 i vettori v1=(1,0,8), v2=(2,1,-1), v3=(4,2,-1) e in R^2 i vettori w1=(1,1), w2= (0,2), w3=(-1,0), si trovi l'applicazione lineare T:R^3-->R^2 tale che T(vi)=wi , (i=1,2,3).

R. Si tratta di una variante del problema precedente, giustificata dal Teorema fondamentale
delle trasformazioni lineari, che garantisce l'esistenza e unicità di una trasformazione lineare,
quando siano assegnati i trasformati dei vettori di una base del dominio. Poni:

X=
1  2  4
0  1  2
8 -1 -1
 

Y=
1  0 -1
1  2  0

Allora X è invertibile (ha determinante diverso da 0, se no v1, v2, v3 non costituirebbero una base). La matrice cercata A è allora

A= Y X^(-1)

(occhio all'ordine!).

Ragione: A per la prima colonna di X deve dare la prima colonna di Y e così via; allora

A X = Y

adesso moltiplico ambo i membri (a destra) per X^(-1) ed ottengo il risultato.

C'è un ragionamento più sofisticato, che tira in ballo i cambiamenti di base, che porta alla stessa soluzione.  Eccolo.

Se consideri la sola matrice Y, questa è già una matrice che rappresenta l'applicazione T, solo che la rappresenta rispetto alla base B1=(v1,v2,v3) in R^3 e alla base canonica C2 in R^2. Cioè: se moltiplico Y per la terna (in colonna) di componenti di un vettore v rispetto a B1, esce la coppia delle componenti del vettore trasformato T(v) rispetto alla base naturale (cioè T(v) stesso, visto che qui stiamo usando la base canonica). Già, ma noi vogliamo far entrare le componenti rispetto alla base canonica C3 di R^3, non quelle rispetto a B1. Bene, allora mettiamo a destra di Y una specie di "adattatore" (v. la mia metafora nella risposta su endomorfismi e cambiamenti di base), cioè la matrice P del cambiamento di base da C3 a B1; a questo punto la matrice prodotto Y P accoglie in ingresso le componenti di v rispetto a C3 e (passando per le componenti rispetto a B1, ma chi se ne frega?) butta fuori le componenti di T(v) rispetto a C2. Proprio quello che volevamo! Quindi la matrice richiesta A è proprio Y P.

Ma chi è P? Be', che vogliamo o no, una matrice di cambiamento di base ce l'abbiamo già: è X. Solo che X è la matrice del cambiamento da B1 a C3, cioè l'inverso di quello che vogliamo noi. Ma per fortuna l'applicazione endomorfismi --> matrici è un isomorfismo di anelli, quindi per fare il cambiamento di base inverso (quello che serve a noi) basta invertire la matrice. Dunque P = X^(-1) e A = Y X^(-1).


D. Non capisco la risoluzione di un esercizio trovato su un libro. Dà una base B=(a,b,c) e una base B1=(a1,b1,c1), dà le componenti dei vettori della base B rispetto a B1 (a=a1-3b1...) e chiede: determinare la matrice A1 che rappresenta, rispetto alla base B1, l'endomorfismo T su V avente, rispetto a B, la matrice A=...... come matrice associata.
Soluzione: "sia M la matrice del cambiamento di base da B a B1. Vale A1=M.A.M' (dove M' è l'inversa di M)".
Domanda: perché??? Io avevo fatto così: ho calcolato la matrice M del cambiamento di base, poi ho direttamente moltiplicato M per A. Non capisco l'introduzione dell'inversa della matrice del cambiamento di base. Comunque sia, che cosa ottengo con il mio calcolo?

R. Ecco la mia metafora preferita.

Ho comperato un "invertitore di fase". Non chiedermi a cosa serva; diciamo che ne avevo bisogno. Entra la corrente alternata (che ha una certa "fase", fìdati) ed esce con la fase invertita. [Immaginalo, per favore, lì davanti a te con il filo e la spina d'ingresso a destra (capirai dopo perché) e la presa d'uscita a sinistra.]

Solo che c'è un problema: è tedesco. Quindi sia l'ingresso (una spina "maschio") sia l'uscita (una presa "femmina") sono di quelle tonde, speciali, appunto tedesche.

Come facciamo a mettere insieme un invertitore di fase italiano?

Ecco: aggiungiamo DUE adattatori. Uno con maschio italiano e femmina tedesca, per la corrente in ingresso, ed uno con maschio tedesco e femmina italiana per l'uscita. Voilà!

Veniamo a noi. Abbiamo una matrice A che accetta in entrata le componenti di v e dà in uscita le componenti di T(v). Sia in entrata sia in uscita le componenti sono scritte rispetto a B.

Io invece voglio usare (sia in ingresso sia in uscita) le componenti rispetto a B1. Come facciamo a mettere insieme la matrice giusta?

Ecco: aggiungiamo DUE cambiamenti di base. Uno che accetta componenti rispetto a B1 e restituisce componenti rispetto a B per il vettore v in ingresso, ed uno che accetta componenti rispetto a B e restituisce componenti rispetto a B1 per il vettore T(v) in uscita. Voilà!

Ehi, attenta: ricordati che il vettore v (voglio dire: la sua n-pla di componenti) "entra" da destra, quindi è a destra che ci vuole la matrice M', che è quella del cambiamento di base da B1 a B. Nota che M' è in realtà proprio la matrice che ottieni subito senza alcun calcolo, mettendo in colonna le componenti dei vettori di B1 rispetto a B. M invece la calcoli invertendo M'; M va poi moltiplicata a sinistra, per trasformare (da B a B1) le componenti di T(v). Perciò A1 = M.A.M'.

Ah, la tua ultima domanda. A questo punto avrai già intuito la risposta: il solo prodotto M.A fornisce sì le componenti di T(v) rispetto a B1, PERÒ accetta in ingresso le componenti di v rispetto a B. (V. l'ultima parte della mia risposta alla seconda domanda sul reperimento della matrice associata ad una trasformazione lineare).



D. In un esercizio era assegnata la matrice A associata ad una trasformazione lineare T; si chiedeva di rappresentare KerT ed ImT.  Perché per trovare la rappresentazione di KerT si prendono le righe, mentre per ImT si usano le colonne?

R. Cominciamo da ImT. Per come è costruita la matrice, le colonne sono (o meglio: rappresentano) i trasformati di una base del dominio; ora, i trasformati di un qualunque sistema di generatori del dominio (quindi in particolare di una sua base)  costituiscono un sistema di generatori per l'immagine.

Parliamo di KerT. Con la solita notazione per cui (x) è la colonna (n-pla) di componenti di un vettore v del dominio, (y) è la colonna (m-pla) di componenti del suo trasformato T(v), abbiamo (y)=A·(x). Ma allora i vettori del nucleo sono quelli le cui n-ple di componenti soddisfano A·(x)=(0) dove (0) significa la colonna (m-pla) nulla. Questo significa che le n-ple di componenti dei vettori di KerT sono tutte e sole le soluzioni del sistema omogeneo A·(x)=(0). Le righe di A sono dunque le n-ple dei coefficienti delle equazioni cartesiane del nucleo.

Se, per l'immagine, vuoi selezionare una base (per esempio perché vuoi scrivere una rappresentazione parametrica con il numero "giusto" cioè minimo di parametri) puoi utilizzare le colonne da cui avrai estratto un minore M di ordine massimo a determinante diverso da zero.

Se, per il nucleo, vuoi come rappresentazione cartesiana un sistema minimo, allora lo stesso minore M ti dice quali righe (dunque quali equazioni) tenere, buttando via le rimanenti.


D. Quando si parla di sottospazio, del suo complemento ortogonale e quindi delle sue rappresentazioni cartesiane e parametriche, lo devo prendere in considerazione come un particolare nucleo? Cioè tutte le cose dette sul nucleo valgono anche per i sottospazi? Mi riferisco a quella figura che ci aveva fatto una volta a lezione sui generatori di nucleo/immagine/compl ort del Ker/compl ort del Im e i coefficienti delle equazioni di nucleo/immagine/compl ort del Ker/compl ort del Im rispetto alla matrice canonicamente associata ad una trasformazione.

R. Calma.

Posso parlare di un sottospazio vettoriale anche in assenza di una qualsiasi trasformazione lineare. Tuttavia è vero che, quando rappresento un sottospazio (di uno spazio vettoriale V) in forma cartesiana, è come se mi inventassi una trasformazione lineare (che parte da V) su misura per lui, di cui esso è il nucleo.

È altrettanto vero che, quando lo rappresento in forma parametrica, è come se mi inventassi una trasformazione lineare (che arriva in V, diversa da quella di prima) di cui esso è l'immagine.

Detto questo, partiamo invece da una matrice che rappresenti una trasformazione lineare. Allora valgono le seguenti cose (v. anche la domanda precedente).

1) Le colonne sono generatori (non necessariamente linearmente indipendenti) dell'immagine (meglio: sono le m-ple di componenti di generatori dell'immagine).

2) Le righe sono n-ple di coefficienti di equazioni cartesiane (non necessariamente linearmente indipendenti) del nucleo.

A questo punto valgono anche:

3) Le colonne sono m-ple di coefficienti di equazioni cartesiane (non necessariamente linearmente indipendenti) del complemento ortogonale dell'immagine.

4) Le righe sono generatori (non necessariamente linearmente indipendenti) del complemento ortogonale del nucleo (meglio: n-ple di componenti di suoi generatori).



D. Calcolo degli autovalori. Data la matrice  A=

0  0  1  0
0  0  0  1
1  0  0  0
0  1  0  0

se trasformo tale matrice mediante trasformazioni T1, ottengo una matrice diagonale. A questo punto gli  autovalori non sono altro che gli elementi della diagonale di A, quindi (1,1,1,1). Invece la soluzione proposta (per la matrice iniziale) è (1,1,-1,-1); quale errore ho commesso?

R. Semplice: se operi in quel modo cambi l'endomorfismo (e quindi puoi cambiare gli autovalori). Te ne accorgi più facilmente interpretando geometricamente la matrice

0 -1
1  0

e la sua trasformata

1  0
0 -1

infatti la prima rappresenta una rotazione di 90 gradi, priva di autovalori, mentre la seconda rappresenta il ribaltamento rispetto all'asse x, con autovalori 1 e -1.

Ma allora quali trasformazioni di matrici conservano gli autovalori? Quelle che si ottengono effettuando lo stesso cambiamento di base sia in V come dominio sia in V come codominio ("in partenza e in arrivo"). Se A è la matrice che rappresenta l'endomorfismo T rispetto alla base B, e la matrice F è quella del cambiamento di base da B' a B, allora rispetto a B' lo stesso T è rappresentato da A' = F^(-1).A.F (v. la domanda su matrici di endomorfismi e cambiamento di base). Questa matrice (cioè una qualunque matrice simile ad A) ha sicuramente gli stessi autovalori.


D. 1) Non ho ben capito la differenza fra similitudine e congruenza. 2)  C'è qualche algoritmo che permette di verificare la similitudine fra matrici? 3) E un algoritmo per la congruenza?

R. 1) Similitudine e congruenza si assomigliano sia come definizione sia come "utilità".

Definizioni (A e B matrici quadrate di ordine n su K):

A si dice simile a B se esiste una matrice P in Gln(K) tale che B=P^(-1) A P.

(A e B simmetriche) A si dice congruente a B se esiste P in Gln(K) tale che B=Pt A P

Utilità (teoremi):

A e B risultano simili se e solo se rappresentano uno stesso endomorfismo rispetto a basi B1 e B2.

A e B risultano congruenti se e solo se rappresentano una stessa forma quadratica rispetto a basi B1 e B2.

2) Un algoritmo generale per verificare la similitudine c'è, ma NON nell'ambito del nostro corso.

Per quanto compreso nel nostro programma, la situazione, date due matrici A e B quadrate dello stesso ordine su K, è la seguente.

Se A e B sono entrambe diagonalizzabili per similitudine (il che non è poca roba, visto che ci cascano dentro tutte le reali simmetriche) allora sono simili se e solo se hanno polinomi caratteristici identici.

Se A è diagonalizzabile per similitudine ma B no, allora non sono simili.

Se né A né B è diagonalizzabile per similitudine, allora NON abbiamo risposta se i polinomi caratteristici sono identici. Abbiamo risposta negativa se differiscono anche solo per un coefficiente. (In realtà potremmo sapere già qualcosa anche con i polinomi identici; se la molteplicità geometrica di un autovalore è diversa per A e per B, allora le due matrici non sono simili).

3) Tutto è molto più semplice per la congruenza: due matrici simmetriche dello stesso ordine, su C, sono congruenti se e solo se hanno lo stesso rango; due matrici simmetriche dello stesso ordine, su R, sono congruenti se e solo se hanno la stessa somma delle molteplicità degli autovalori positivi e la stessa somma delle molteplicità degli autovalori negativi.



D. Non mi è chiaro è come "visualizzare" la giacitura nella "realtà" ovvero cosa essa è fisicamente.

R. Prendo l'esempio più calzante. Sia V lo spazio vettoriale i cui vettori sono i punti di un piano, e in cui le operazioni di somma e prodotto per scalare sono compiute a partire da un punto fissato (arbitrariamente) M. Indendo dire che, dato un punto P, il punto 2P si ottiene tracciando il segmento MP e raddoppiandolo, poi prendendo come 2P il punto estremo di questo segmento doppio. Analogamente, P+Q si ottiene prendendo la punta del segmento somma dei segmenti MP ed MQ.

Quali sono i sottospazi vettoriali? Tutte e sole le rette passanti per M. (Va be', ci sono anche i due sottospazi dati da V stesso, di dim=2, e dal solo punto M, di dim=0).

A questo spazio vettoriale è associato in modo naturale uno spazio euclideo (veramente dovrei dire "affine"), in cui i sottospazi euclidei (affini) sono i traslati dei sottospazi vettoriali di cui sopra. Quindi avremo TUTTE le rette (dim=1), e poi anche tutto lo spazio stesso (dim=2) e tutti i punti (dim=0).

Parliamo delle rette. Ogni retta r la vedi come traslata di una retta s passante per il punto M. Bene: s è la giacitura di r!

Per piacere, immagina tu l'analogo di questo esempio nello spazio tridimensionale, sempre fissando arbitrariamente un vettore nullo, cioè un punto M. Sottospazi vettoriali: il punto M (dim=0), le rette passanti per M (dim=1), i piani passanti per M (dim=2) e naturalmente tutto lo spazio. Anche qui avremo uno spazio euclideo associato. Sottospazi euclidei: i traslati degli spazi vettoriali, quindi: tutti i punti, tutte le rette, tutti i piani (e tutto lo spazio). Ognuno di loro è il traslato di esattamente un sottospazio vettoriale, che ne è la giacitura.

Adesso, fissa come M un punto ben precisato: per esempio l'angolo a destra, dalla tua parte, della tua scrivania. Poi, sia r la retta a cui appartiene uno dei lati del tuo pavimento, e sia P il piano del soffitto. Entrambi sono sottospazi euclidei: sono i traslati di una particolare retta r' (che quindi è la giacitura di r), probabilmente la retta di uno spigolo della tua scrivania, e di un particolare piano P' (che quindi è la giacitura di P), il piano della scrivania, passanti per M. Nota una cosa: r NON è contenuta in P, ma r' E' contenuta in P'. Dalla definizione di parallelismo (la giacitura dell'uno contenuta nella giacitura dell'altro) otteniamo che r è parallela a P.



D. A lezione ha presentato uno schema per l'interpretazione geometrica dei sistemi lineari, che utilizza rango di A, rango di C, dimSolS, dimSolSo; non riesco a cogliere il nesso tra la parte algebrica (sistema, rango ecc.) e l'interpretazione geometrica .

R. Tutto è giocato attraverso il Teorema di Rouché-Capelli e la definizione di parallelismo. Ogni situazione è caratterizzata da un possibile rango della matrice incompleta A e da quello della matrice completa C.

Prima suddivisione: ranghi uguali / ranghi diversi.

Se i ranghi sono uguali, allora abbiamo intersezione; questa è un sottospazio euclideo, di dimensione uguale a: dimensione dello spazio ambiente (=numero di incognite) - rango comune. Nel seguito assumo la situazione più comune: lo spazio ambiente ha dimensione 3, perciò ognuna delle equazioni lineari rappresenta un piano.

1 e 1: in realtà sono equazioni diverse di uno stesso piano.

2 e 2: qualunque sia il numero dei piani considerati, la loro intersezione ha dimensione 3-2=1, quindi è una retta; i piani appartengono a uno stesso fascio (immagina le pagine di un quaderno).

3 e 3: la dimensione dell'intersezione è 3-3=0, quindi c'è un punto comune ai piani (per es. quello dove s'incontrano il pavimento e due pareti).

Quando i ranghi differiscono (e quindi quello della completa è esattamente 1 + quello dell'incompleta, v. anche Chicken's Corner), l'intersezione è vuota. A questo punto c'interessiamo alle situazioni di parallelismo, cioè all'eventuale esistenza di direzioni comuni. Perciò andiamo a confrontare non più i sottospazi, ma le loro giaciture; per fare questo passiamo al sistema omogeneo associato; dunque c'interessa solo il rango dell'incompleta.

1 e 2: l'intersezione delle giaciture ha dimensione 3-1=2, cioè le giaciture coincidono. Perciò tutti i piani in gioco sono fra loro paralleli.

2 e 3: l'intersezione delle giaciture ha dimensione 3-2=1, quindi è una direzione; i piani sono paralleli ad una stessa retta (come i piani delle facce laterali di un prisma).

3 e 4 (possibile solo quando i piani sono almeno 4): l'intersezione delle giaciture è di dimensione 3-3=0, cioè si riduce al vettore libero nullo; i piani non hanno in comune né punti né direzioni (immagina i piani a cui appartengono le 4 facce di una piramide triangolare).

ATTENZIONE (v. anche Chicken's Corner): le interpretazioni geometriche che ho dato sono rigorosamente attinenti uno spazio ambiente di dimensione 3. Devi adattare tutti i calcoli di dimensioni e le conseguenti interpretazioni geometriche, qualora la dimensione dello spazio ambiente sia 2 (e quindi le equazioni rappresentano rette di un piano) o 4 (e le equazioni rappresentano sottospazi 3-dimensionali di uno spazio 4-dimensionale).



D. Potrebbe illustrarmi delle motivazioni per lo studio degli spazi proiettivi, e magari un modo per immaginarmeli?

R. (piuttosto lunga)   :-(   Mettetevi comodi...

MOTIVAZIONI

1) (tecnica vettoriale)
Vorremmo usare le tecniche vettoriali e matriciali in modo più diretto che non negli spazi affini. In particolare vorremmo usare le coordinate direttamente come componenti, i punti direttamente come vettori; vorremmo poter trattare la dipendenza di punti esattamente come la lineare dipendenza di vettori.

2) (visione artificiale e grafica al calcolatore)
La necessità di tener conto della distorsione prospettica fa sì che si debbano effettuare trasformazioni più "libere" delle trasformazioni affini, ma che mandino ancora rette in rette; in particolare, la libertà che si richiede è quella di trasformare rette parallele in rette incidenti. Ciò impone di introdurre le direzioni come nuovi "punti".

3) (robotica meccanica)
Spesso si devono usare trasformazioni affini, ma la parte traslazionale (la colonna da sommare dopo aver fatto il prodotto) è scomoda; si preferisce usare una dimensione "ausiliaria" in più, ma dover fare solo prodotti di matrici.

4) (meccanica quantistica)
gli "stati" della meccanica quantistica sono proprio classi di proporzionalità di funzioni non nulle.

5) (geometria affine)
Dà fastidio che certi insiemi che hanno manifestamente k gradi di libertà siano invece descritti da k+1 parametri. Esempi tipici: fascio di rette per un punto in un piano, fascio di piani per una retta nello spazio (k=1), stella di rette per un punto nello spazio (k=2). Il fatto che i gradi di libertà siano k dipende dalla constatazione che ogni "oggetto" non è in realtà rappresentato da una sola (k+1)-pla (non nulla): (k+1)-ple proporzionali rappresentano lo stesso oggetto. Per accorgercene, possiamo passare ai rapporti di k di tali parametri rispetto al parametro restante. (Questo è poi il succo delle "carte affini"). Però se fai così escludi alcuni oggetti. Tipico esempio: se invece dei numeri direttori l,m di una retta (x/l = y/m o meglio mx=ly) usi il coefficiente angolare h=m/l (rappresentando la retta come y=hx) ti rendi meglio conto che si ha un solo grado di libertà, ma a prezzo di escludere dalla rappresentazione la retta x=0. Con la stella di punti nello spazio è anche peggio: perdi infinite rette.

DEFINIZIONE FORMALE

Uno spazio proiettivo è una terna (V, P, f), dove V è uno spazio vettoriale, P un insieme (detto insieme dei punti), t:V-{nullo}->P un'applicazione tale che f(v)=f(v') sse v' è proporzionale a v. Si definisce, come dimensione dello spazio proiettivo, quella dello spazio vettoriale -1 (calma! si vedrà dopo perché).

ESEMPI

1) (sp. proiettivo associato ad uno spazio vettoriale)
P={classi di proporzionalità di vettori non nulli di V} f(v)=[v] (la sua classe di proporzionalità). Immagino, per esempio, V come lo spazio vettoriale dei segmenti uscenti da un fissato punto M di questo spazio geometrico. Ogni "punto" è in realtà una retta vettoriale (una specie di spaghetto) privata del vettore nullo. Siccome dimV=3, si dichiara che dimP=2. Un piano proiettivo è dunque una specie di "truciolone".

2) (ampliamento proiettivo di uno spazio affine)
Prendi uno spazio affine A di dim=n. (Nota: n. Ecco perché c'è quella differenza di dimensioni). Fissaci sopra un riferimento affine. V=K^(n+1); P=unione di A e dell'insieme delle sue direzioni (classi di proporzionalità di vettori liberi). La definizione di f è spezzata in due parti: a certe classi di (n+1)-ple si associano punti, ad altre direzioni.

                                      Q di coord. (X1/Xo,...,Xn/Xo)    se Xo diverso da 0
f([(Xo, X1,...,Xn)])= {
                                      classe di proporz. del vettore libero
                                      di componenti (X1,...,Xn)    se Xo=0

COMMENTI

Il primo esempio sembra dire poco, perché pare antiintuitivo, poco geometrico. C'è da dire che, invece, è una situazione abbastanza naturale: quando vediamo un punto, in realtà ciò significa che un fotone arriva da quel punto al nostro occhio; se vediamo tre punti allineati, vuol dire che le tre rette percorse dai tre fotoni stanno in uno stesso piano passante per il nostro occhio. In realtà è lo spazio affine (e quello euclideo) che è un'astrazione. Ma noi ci siamo tanto abituati a quest'astrazione, che ci pare più naturale della natura (che, invece, è più proiettiva, come spero di averti mostrato).

Anche il cinema assomiglia a questa situazione: ogni punto sullo schermo corrisponde in realtà ad una retta uscente dal proiettore; ogni retta corrisponde ad un piano uscente dal proiettore. Due rette incidenti sono proiettate da due piani (uscenti dal proiettore) che si intersecano in una retta (anche lei uscente dal proiettore). Cosa succede a due rette parallele? Anche loro sono proiettate da due piani uscenti dal proiettore; se questo proiettasse a 360 gradi, e non solo l'angolo solido che colpisce lo schermo, vedremmo che anche questi due piani si intersecano in una retta; è però una retta che necessariamente NON interseca il piano dello schermo. Questa retta vettoriale (sostanzialmente uguale a quella di prima, che proiettava il punto d'incidenza) non corrisponde più ad un punto del piano dello schermo, ma ad una sua direzione. Abbiamo vinto! Oggetti comparabili (rette vettoriali, o vettori loro rappresentanti) rappresentano talvolta punti, talvolta direzioni; e basta un tranquillo endomorfismo (per esempio ruotare un pochino il proiettore) per trasformare rette-che-rappresentano-punti (dette "punti propri") in rette-che-rappresentano-direzioni ("punti impropri") e viceversa. Forte, no?

Ma questo è anche il succo del secondo esempio. Solo che ad un punto o ad una direzione non associ una retta geometrica, come ho fatto qua sopra, ma direttamente un oggetto spendibile nella teoria delle matrici: una (n+1)-pla di numeri.


D. Può indicarmi un libro che spieghi come visualizzare su uno schermo di pc grafica 3d con gli spazi proiettivi?

R. Sì; c'è il

Penna M.A., Patterson R.R., "Projective geometry and its application to computer graphics", Prentice-Hall, 1986.


D. In uno spazio euclideo E^4 , rispetto ad un riferimento cartesiano, si considerino le rette r ed s di equazioni cartesiane, rispettivamente,

  |y=0           |x=y
  |z=-1          |z=y+12
  |z+t-1=0    |x-y+t=5

a) Si calcoli la distanza fra r ed s.
b) Si trovi un sistema lineare che rappresenti lo spazio che le congiunge.

R. Allora, prima di tutto date comunque due rette in uno spazio E^n, c'è uno spazio di dimensione minima che le contiene (il "congiungente"); se loro sono parallele o incidenti, sarà un piano; altrimenti sarà un sottospazio 3-dimensionale. Ma su questo torno dopo.

Comunque, l'esistenza di questo spazio mi garantisce che i metodi soliti per la distanza fra due rette andranno bene (con opportuni adattamenti).

a) Propongo questo:

prendi il generico punto R_u su r ed il generico punto S_v su s. Congiungili con una retta; il segmento R_u S_v di minima lunghezza (quello che realizza la distanza fra le due rette) è ortogonale ad entrambe r ed s.

Risolvendo i sistemi, mettiamo in forma parametrica:
x=u, y=0, z=-1, t=2;       x=v, y=v, z=v+12, t=5,
da cui
R_u=(u,0,-1,2),      S_v=(v,v,v+12,5).

Ora, della retta R_u S_v ci servono solo i numeri direttori, che otteniamo come differenza di coordinate:

(h,l,m,n) ~ (v-u, v, v+13, 3).

Condizioni di ortogonalità con r e con s: si vede dalle forme parametriche che numeri direttori per le due rette sono rispettivamente

(1,0,0,0), (1,1,1,0).

Le condizioni diventano allora:

1·h + 0·l + 0·m + 0·n = 0,       1·h + 1·l + 1·m + 0·n = 0,

cioè

h = 0,    h + l + m = 0,

da cui (usando ora i parametri u e v)

v-u = 0,       v-u + v + v+13 =0,

dunque (risolvendo)

u = v = -13/2

Sostituisci questi valori in R_u ed S_v ed ottieni gli estremi del segmento di minima lunghezza:

R=(-13/2,0,-1,2),       S=(-13/2,-13/2,11/2,5).

Calcola la distanza euclidea, ed ottieni radice di 187/2.

b) Sottospazio congiungente: lo ottieni da due punti di r e due punti di s.

I punti si ottengono fissando due valori (per es. 0 e 1) per i due parametri u e v:

A=(0,0,-1,2),   B=(1,0,-1,2),      C=(0,0,12,5),    D=(1,1,13,5).
Subito servono i vettori liberi AB, AC, AD (dalle differenze di coordinate); il sistema si ottiene imponendo al generico vettore libero AP di essere combinazione lineare di questi, cioè imponendo rango 3 (e dunque det=0) alla matrice:

1   0    1    (x-0)
0   0    1    (y-0)
0   13   14   (z+1)
0   3    3    (t-2)

da cui l'equazione - 3y + 3z - 13t + 29 = 0.


D. 1) Considerando un cono isotropo, in dim V =3, questo è "graficamente" sempre un cono?
2) Sapendo che il vertice (in V) appartiene al cono isotropo, come mai possono esistere delle coniche (in P) (es: circonferenze e ellissi) che non hanno vertice? Infatti, se il cono isotropo fosse proprio un cono (graficamente!!), e considerando la conica come l'immagine I([q]) (e quindi graficamente come il piano intersecato con il cono), ogni conica dovrebbe possedere un vertice, mentre in realtà non è così!
Tutto ciò porta, forse più propriamente, ad un'altra domanda:
3) Che cosa è esattamente il vertice? Come lo posso "vedere graficamente" nel vettoriale e nel proiettivo?

R. 1) No: può essere il solo vettore nullo (es.: x^2+y^2+z^2), o un'unione di due piani (es.: xy), ecc.

2) Se il cono isotropo, di una forma rappresentante la conica, è "davvero" un cono, allora il vertice della forma è dato dal solo vettore nullo, perciò dà luogo ad un vertice (proiettivo) della conica vuoto. Graficamente: guarda la sua intersezione con un piano non passante dal vettore nullo.
Se intersechi il cono isotropo della forma x^2+y^2-z^2 con il piano z=1 trovi proprio una bella circonferenza (vertice vuoto). Se invece intersechi lo stesso piano con il cono isotropo della forma xy trovi due rette; il punto (0,0,1) comune alle due rette è il vertice (proiettivo) corrispondente al vertice (vettoriale)
   x=0
{
   y=0

che è la retta comune ai due piani x=0 ed y=0 la cui unione forma il cono isotropo (vettoriale).

3) Questa volta vince il proiettivo sul vettoriale! Prima guarda se ci sono, nell'immagine, punti doppi (tali, cioè, che ogni retta che passa di lì sia tangente in uno dei due sensi della definizione). I punti doppi formano il vertice (proiettivo) della conica. Ora, se immagine e vertice li vedi su uno schermo del cinema, guarda i raggi che provengono dal proiettore e vedrai cono isotropo (che proietta l'immagine) e vertice (che proietta appunto il vertice).


D. Cos'è la polarità? Come posso immaginarla?

R. Ho l'abitudine di proporre, metaforicamente, una proporzione: una forma quadratica sta alla sua forma bilineare simmetrica associata come l'immagine di una quadrica sta alla sua polarità. Quindi vedo la polarità come "l'altra faccia delle quadriche", rispetto all'immagine, così come forme bilineari e quadratiche sono due facce di una stessa medaglia. Ti propongo due interpretazioni della polarità: una algebrica e una geometrica.

Polarità dal punto di vista algebrico. Immagina una qualunque froma bilineare simmetrica come una generalizzazione dei prodotti scalari (in effetti, questi hanno in più di essere forme definite positive). Userò, ora, il termine "ortogonali", per due vettori v e w, per dire che la fissata forma bilineare simmetrica valga zero sulla coppia (v,w). A questo punto, l'immagine di una quadrica (rappresentata dalla forma quadratica associata alla forma bilineare) è l'insieme dei punti rappresentati dai vettori "ortogonali a se stessi". Ne abbiamo già parlato nella risposta su vertice e cono isotropo. Non deve fare alcuna meraviglia che per l'ortogonalità "vera" solo il vettore nullo sia ortogonale a se stesso: è insito nella definizione di forma definita. Nella generalizzazione che stiamo facendo, invece, ci possono essere vettori non nulli in questa situazione, dunque un'immagine non vuota. E la polarità? Be', qual è l'insieme dei vettori w coniugati ad un fissato v? È l'insieme dei w "ortogonali" a v. (Attenzione: NON pensare a questa "ortogonalità" in senso geometrico!). Questo insieme può anche essere tutto lo spazio vettoriale (vedi nuovamente la nozione di vertice); ancora una volta questo non può accadere se la forma è un vero prodotto scalare. Altrimenti, questo insieme è un iperpiano (dello spazio vettoriale) che dà luogo, dunque, ad un iperpiano dello spazio proiettivo: l'iperpiano polare del punto [v] rispetto alla quadrica.

Polarità dal punto di vista geometrico. C'è un caso in cui la polarità ha un senso abbastanza immediato: quando il polo appartiene all'immagine (ma non al vertice). In tal caso l'iperpiano polare è l'iperpiano tangente alla quadrica nel punto. (Attenzione: quello di iperpiano tangente è un concetto NON banale; vedi la nota nel Chicken's Corner). Unendo questo fatto alla legge di reciprocità, otteniamo un'intepretazione interessante per gran parte dei punti dello spazio: quelli come il punto P nella figura qua sotto, relativa ad una conica del piano. Immaginiamo di porre in P una lampadina; una parte dell'immagine della conica sarà illuminata, un'altra al buio. La transizione avviene nei punti A e B, per i quali la tangente passa proprio per P. Dunque P è il polo della retta AB, per la legge di reciprocità. Analogamente, nello spazio, se mettiamo una sorgente luminosa in un punto P "esterno" alla quadrica, la parte illuminata della quadrica è separata da quella al buio da una conica, che si ottiene intersecando la quadrica stessa con il piano polare di P. (N.B.: "punto esterno" è un concetto che qui uso in senso intuitivo, ma che è definito proprio come un punto il cui iperpiano polare ha intersezione reale e non degenere con l'immagine).

Consiglio di giocare con il programma Polar, scritto (da una ragazza affascinante) apposta per far imparare meglio la polarità.

Polarità


D. Sebbene i diversi libri che ho consultato (tra cui soprattutto il bellissimo testo del Rosati) definiscano rette tangenti ad una conica solo se quest'ultima è irriducibile, nella trattazione della mia dispensa si analizza anche il caso di tangenti ad una conica semplicemente e doppiamente degenere. Nel primo caso la situazione mi sembra abbastanza semplice: la tangente viene definita come la retta che passa per il punto dato e il punto doppio il che ci riporta in modo naturale al caso generale, se il punto appartiene alla conica. Tuttavia, mi risulta poco chiaro il caso in cui la conica sia doppiamente degenere, anche perché questa è una faccenda non trattata nella dispensa della mia prof, che invece pone solo il quesito per lasciare i commenti ed una risposta (probabilmente) agli ulteriori chiarimenti trattati a lezione. Potrebbe darmi qualche suggerimento a riguardo?

R. La risposta non ti piacerà tanto. OGNI retta per il punto è tangente. Infatti tutti i punti della "retta doppia" (anche quello improprio) sono doppi.
Ti do una riprova attraverso un altro ragionamento un po' contorto.
Come fai a trovare le tangenti condotte da un punto esterno P, con una conica non degenere C? Approfittando della legge di reciprocità, tracci la polare di P rispetto a C e intersechi con C stessa; le congiungenti di P con i punti di intersezione risultano essere tangenti a C.
Bene, se lo facciamo per la unione di due rette, tutto torna, vero? La polare di P passa per il punto che fa da vertice e interseca C solo in tale punto, quindi viene l'unica tangente che avevi trovato anche tu.
Facciamolo con la retta doppia. La polare di P è (sempre) la retta stessa, quindi i punti di intersezione con C sono TUTTI i suoi punti, da cui le infinite tangenti che asserivo prima.

D. Cosa sono praticamente i diametri e gli iperpiani diametrali?

R. (Vedi anche la nota nel Chicken's Corner). Riprendiamo l'interpretazione fisica della risposta alla domanda sulla polarità; già, se immaginiamo di allontanare il punto luminoso dalla quadrica, lungo una fissata direzione, vediamo che la curva di confine fra luce ed ombra "tende" ad una certa curva. Ma non c'è bisogno del pesante concetto di limite. Pensiamo di illuminare la quadrica, invece che con una lampadina, con un grosso riflettore che spara fotoni lungo la direzione rappresentata dal punto improprio P. Anche questa volta c'è una conica di confine fra luce e buio, ed è proprio l'intersezione della quadrica con il piano diametrale coniugato alla direzione rappresentata da P. (E' la conica a cui tendevamo prima).

Attenzione alla terminologia: in dimensione due "diametro" significa iperpiano diametrale; nelle dimensioni superiori significa retta intersezione di iperpiani diametrali.


D. Quando si trattano gli iperpiani diametrali, si parla di una certa proprietà di simmetria. Di cosa si tratta?

R. Immagina di essere nella situazione della risposta precedente, e di avere individuato il piano diametrale coniugato alla direzione rappresentata dal punto improprio P. Ora immagina di sparare, lungo questa stessa direzione, proiettili con tanti fucili fra loro paralleli. Per ogni proiettile si verifica che il foro praticato nel piano diametrale è punto medio fra i due fori (se ci sono) praticati nella immagine della quadrica (vedi l'illustrazione qua sotto per un'ellisse ed una parabola). Questa è una proprietà di simmetria della quadrica (o conica, o iperquadrica) molto utile (l'abbiamo usata per il robot mobile SAM); in generale è una simmetria non ortogonale. Diventa simmetria ortogonale quando il piano (o iperpiano) diametrale è ortogonale alla direzione coniugata (cioè quella rappresentata dal suo polo). Questa è una situazione così notevole, che si usa un termine speciale: (iper)piano principale (asse, in dimensione due).

simmetria 1

simmetria 2


D. Quando fa la domanda "classificazione proiettiva delle coniche (o quadriche, ecc.)" cosa vuole che si risponda?

R. Prendiamo, per esempio, la classificazione proiettiva delle coniche in campo reale. "Classificazione" significa, per me, due cose.

La prima è quella parte di teoria che definisce l'equivalenza proiettiva delle coniche, che la mette in relazione con la congruenza di matrici, e che porta - attraverso la segnatura non ordinata del discriminante - a stabilire quali sono tutte e sole le classi di equivalenza proiettiva di coniche. Questa è la parte che voglio sentir descrivere bene; m'interessa molto meno il dettaglio di come sono fatte le singole coniche.

La seconda accezione è quella di algoritmo che porta da un'equazione data fino alla determinazione della classe di equivalenza cui appartiene la conica con quell'equazione. Posso quindi chiedere in cosa consiste l'algoritmo.


D. Mi potrebbe esporre uno o più metodi per distinguere un cono reale da un cono immaginario e un cilindro reale da uno immaginario?

R. Un metodo sicuro ma un po' lento consiste nel trovare la segnatura: che si tratti di un cono (A00 diverso da zero) o di un cilindro (A00=0), abbiamo {3,0} per quello immaginario, {2,1} per quello reale.

Se però si tratta di un cono c'è una scorciatoia: il minore M00 ti dice tutto. Se è definito (positivo o negativo) il cono è immaginario; infatti in tal caso (e solo in tal caso) la conica impropria è non degenere immaginaria.

Più complicato è il caso del cilindro, perché allora la conica impropria è degenere. Allora si può vedere se il minore M11 (o M22, o M33) è definito o no: le conclusioni sono le stesse; infatti M11 (per esempio) definito (positivo o negativo) ci dice che la conica intersezione del cilindro con il piano x=0 (il cui discriminante è proprio M11) è non degenere immaginaria, e questo può succedere solo con un cilindro immaginario. (Nota: se hai in mente un cilindro con generatrici parallele al piano x=0 che, nello spazio affine, non lo intersecano, questo NON è un controesempio, perché in realtà siamo nell'ampliamento proiettivo e le generatrici incontrano comunque il piano nel loro punto improprio).