Algebra Lineare

Oltre la matematica elementare: teoria, esercizi, e riflessioni sulle varie branche della matematica che si fanno all'università.

Algebra Lineare

Messaggioda Gizeta » 28/01/2015, 17:53

Sto scrivendo delle dispense di Algebra lineare, visto che non sono riuscito a trovare alcun testo che mi soddisfi totalmente.
Poiché non ho alcun posto dove scriverle in latex se non vi dispiace le lascio qui, del resto a qualcuno potrebbe interessare dare un'occhiata :D


Manca la parte iniziale sulle matrici e i sistemi lineari, ma in seguito l'aggiungerò.

------------------------------------------------------

Determinante

Sia [tex]\mathbb{F}[/tex] un campo.
L'insieme [tex]\mathfrak{M}_n( \mathbb{F})[/tex] delle matrici quadrate di ordine [tex]n[/tex] ad entrate in [tex]\mathbb{F}[/tex] è un monoide rispetto all'operazione tra matrici di prodotto righe per colonne.
Il sottoinsieme di [tex]\mathfrak{M}_n( \mathbb{F})[/tex] le cui matrici ammettono inversa forma un gruppo rispetto all'operazione di prodotto righe per colonne, esso è chiamato gruppo lineare e denotato come [tex]\boldsymbol{GL}(n, \mathbb{F})[/tex].
Ci proponiamo di caratterizzare le matrici del gruppo [tex]\boldsymbol{GL}(n, \mathbb{F})[/tex].

Casi semplici:

[tex]\boxed{n=1}[/tex]

[tex]\mathfrak{M}_1( \mathbb{F})[/tex] può essere identificato a [tex]\mathbb{F}[/tex], di modo che gli elementi invertibili siano tutti e soli gli scalari non nulli di [tex]\mathbb{F}[/tex].

[tex]\boxed{n=2}[/tex]

Sia [tex]A= \left( \begin{array}{ccc}
a & b \\
c & d \end{array} \right) \in \mathfrak{M}_2 (\mathbb{F})[/tex], sia [tex]\left( \begin{array}{ccc}
x_1 & x_2 \\
x_3 & x_4 \end{array} \right) \in \mathfrak{M}_2 (\mathbb{F})[/tex] la sua inversa, allora deve essere soddisfatta la relazione

[tex]\left( \begin{array}{ccc}
a & b \\
c & d \end{array} \right) \left( \begin{array}{ccc}
x_1 & x_2 \\
x_3 & x_4 \end{array} \right)= \left( \begin{array}{ccc}
1 & 0 \\
0 & 1 \end{array} \right)[/tex]

Indubbiamente deve dunque valere

[tex]\begin{equation}
\begin{cases}
ax_2+bx_4=0\\cx_1+dx_3=0
\end{cases}
\end{equation}[/tex]

Banalmente una soluzione del sistema è la quaterna [tex](x_1,x_2,x_3,x_4)=(d, -b,-c,a)[/tex], quindi

[tex]\left( \begin{array}{ccc}
a & b \\
c & d \end{array} \right) \left( \begin{array}{ccc}
d & -b \\
-c & a \end{array} \right)= \left( \begin{array}{ccc}
ad-bc & 0 \\
0 & ad-bc \end{array} \right)[/tex]

In definitiva, se [tex]ad-bc \not = 0[/tex] risulta

[tex]\displaystyle A^{-1}=\frac{1}{ad-bc} \left( \begin{array}{ccc}
d & -b \\
-c & a \end{array} \right)[/tex]


La quantità [tex]ad-bc=[A]_{11}[A]_{22}-[A]_{12}[A]_{21}[/tex] prende il nome di determinante della matrice [tex]A[/tex].


Per procedere nello studio dobbiamo vedere alcune proprietà del gruppo [tex]\mathfrak{S}_n[/tex] delle permutazioni dell'insieme [tex]\{1,2,...,n\}[/tex] dei primi [tex]n[/tex] interi positivi.

Sia [tex]\sigma \in \mathfrak{S}_n[/tex], definiamo il seguente prodotto

[tex]\displaystyle \epsilon(\sigma)= \prod_{i<j}{\frac{\sigma(j)-\sigma(i)}{j-i}}[/tex]

La funzione [tex]\epsilon:=\{\sigma \mapsto \epsilon(\sigma): \mathfrak{S}_n \rightarrow \{-1,1\}\}[/tex] prende il nome di funzione segno.

Lemma 1: la funzione segno è moltiplicativa (più precisamente, è un omomorfismo del gruppo moltiplicativo [tex]\mathfrak{S_n}[/tex] nel sottogruppo moltiplicativo dei reali nonnulli [tex]\{-1,1\}[/tex]).

DIMOSTRAZIONE: Siano [tex]\sigma_1,\sigma_2 \in \mathfrak{S}_n[/tex]

[tex]\displaystyle \epsilon(\sigma_1 \circ \sigma_2)=\prod_{i<j}{\frac{\sigma_1(\sigma_2(j))-\sigma_1(\sigma_2(i))}{j-i}}=\prod_{i<j}{ \left ( \frac{\sigma_1(\sigma_2(j))-\sigma_1(\sigma_2(i))}{\sigma_2(j)-\sigma_2(i)} \cdot \frac{\sigma_2(j)-\sigma_2(i)}{j-i} \right )}=\epsilon(\sigma_1) \cdot \epsilon(\sigma_2)[/tex]

dacché [tex]\displaystyle \prod_{i<j} \frac{\sigma_1(\sigma_2(j))-\sigma_1(\sigma_2(i))}{\sigma_2(j)-\sigma_2(i)}[/tex] è uguale a [tex]\displaystyle \prod_{i<j}{\frac{\sigma_1(j)-\sigma_1(i)}{j-i}}[/tex] a meno dell'ordine dei fattori.


Una permutazione [tex]\sigma \in \mathfrak{S}_n[/tex] che scambi tra di loro due elementi e mantenga gli altri fissi è chiamata trasposizione.
Ad esempio

[tex]\sigma = \begin{pmatrix} 1 & 2 & 3 & 4 \\ 3 & 2 & 1 & 4 \end{pmatrix}[/tex]

è una trasposizione di [tex]\mathfrak{S}_4[/tex] che indicheremo con [tex]\left ( 1 3 \right )[/tex].


Il segno della permutazione identica è [tex]1[/tex] mentre il segno di una qualsiasi trasposizione è [tex]-1[/tex].

Lemma 2: [tex]\forall \sigma \in \mathfrak{S}_n:\epsilon(\sigma)=\epsilon(\sigma^{-1})[/tex]

DIMOSTRAZIONE

[tex]\displaystyle 1=\epsilon(\sigma^{-1} \circ \sigma)=\epsilon(\sigma^{-1})\epsilon(\sigma) \rightarrow \epsilon(\sigma^{-1})=\frac{1}{\epsilon(\sigma)}=\epsilon(\sigma)[/tex]



Ogni permutazione può essere scritta in modo non unico come composizione di traspozioni, in particolare vale il seguente

Lemma 3: ogni permutazione [tex]\sigma \in \mathfrak{S}_n[/tex] ([tex]n \ge 2[/tex]) può essere scritta come prodotto di al più [tex]n-1[/tex] trasposizioni di [tex]\mathfrak{S}_n[/tex].

DIMOSTRAZIONE (per induzione):

[tex]\boxed{n=2}[/tex]

Gli elementi di [tex]\mathfrak{S}_2[/tex] sono la permutazione identica [tex]\begin{pmatrix} 1 & 2 \\ 1 & 2 \end{pmatrix}[/tex] e la permutazione [tex]\begin{pmatrix} 1 & 2 \\ 2 & 1 \end{pmatrix}[/tex], entrambe sono trasposizioni.

[tex]\boxed{n>2}[/tex]

Identifichiamo [tex]\mathfrak{S_{n-1}}[/tex] al sottogruppo di [tex]\mathfrak{S}_n[/tex] delle permutazioni che mandano [tex]n[/tex] in sé mediante il monomorfismo

[tex]\mathfrak{S}_{n-1} \ni \tau \rightarrow \overline{\tau} \in \mathfrak{S}_{n}[/tex]

definito da

[tex]\overline{\tau}(i)=\tau(i)[/tex] se [tex]1 \le i <n[/tex]
[tex]\overline{\tau}(n)=n[/tex]

Consideriamo [tex]\sigma \in \mathfrak{S}_n[/tex].

Se [tex]\sigma(n)=n[/tex] allora possiamo scrivere [tex]\sigma = \overline{\sigma'}[/tex] per [tex]\sigma' \in \mathfrak{S}_{n-1}[/tex], per ipotesi quest'ultima è esprimibile come prodotto di al più [tex]n-2[/tex] trasposizioni, ossia

[tex]\sigma'=\sigma_1 \circ \sigma _2 \circ ... \circ \sigma_{m}[/tex]

[tex]0 \le m \le n-2<n-1[/tex]
conseguentemente

[tex]\sigma=\overline{\sigma'}=\overline{\sigma_1} \circ \overline{\sigma_2} \circ ... \circ \overline{\sigma_{m}}[/tex]

è prodotto di al più [tex]n-2<n-1[/tex] trasposizioni.

Se [tex]\sigma(n)=i \not = n[/tex], consideriamo [tex]\sigma'=\sigma \circ \left( i \space n \right )[/tex], ques'ultima è una permutazione di [tex]\mathfrak{S_n}[/tex] tale che l'ultimo elemento viene mandato in sé quindi per quanto mostrato poco fa sappiamo che è esprimibile come prodotto di al più [tex]n-2[/tex] trasposizioni, allora

[tex]\sigma'=\sigma \circ \left (i \space n \right )= \sigma_1 \circ \sigma_2 \circ ... \circ \sigma_m \rightarrow \sigma=\sigma_1 \circ \sigma_2 \circ ... \circ \sigma_m \circ \left (i \space n \right )[/tex]

è prodotto di al più [tex]n-1[/tex] trasposizioni (si è usato il fatto che una traspozione è inversa di se stessa).




Sia [tex]E[/tex] un insieme, sia [tex]\mathfrak{F} := \{f| f: E^n \rightarrow \mathbb{F} \}[/tex].
Il gruppo [tex]\mathfrak{S}_n[/tex] agisce su [tex]\mathfrak{F}[/tex] mediante

[tex]\mathfrak{S}_n \times \mathfrak{F} \ni (\sigma, f) \rightarrow \sigma f \in \mathfrak{F}[/tex]

ove

[tex]\sigma f(x_1,...,x_n)=f(x_{\sigma(1)},...,x_{\sigma(n)})[/tex]

Se per ogni [tex]\sigma \in \mathfrak{S}_n[/tex] vale [tex]\sigma f=f[/tex] allora la funzione [tex]f:E^n \rightarrow \mathbb{F}[/tex] è detta simmetrica.

Se valgono

(i) [tex]\sigma f= \epsilon(\sigma) f[/tex] per ogni [tex]\sigma \in \mathfrak{S}_n[/tex]
(ii) [tex]f(x_1,...,x_n)=0[/tex] se [tex]x_i=x_j[/tex] per una coppia di indici [tex]i,j[/tex] con [tex]1 \le i <j \le n[/tex]

la funzione [tex]f: E^n \rightarrow \mathbb{F}[/tex] è detta antisimmetrica.



Sia [tex]A \in \mathfrak{M}_{n}(\mathbb{F})[/tex], utilizzando la notazione per colonne possiamo scriverla come [tex]A=(A^1,A^2,...,A^n)[/tex].

Vogliamo definire una funzione [tex]det:\mathfrak{M}_n(\mathbb{F}) \rightarrow \mathbb{F}[/tex] che goda delle seguenti proprietà:

(1) [tex]det[/tex] è una funzione antisimmetrica delle colonne;
(2) [tex]det(I_n)=1[/tex];
(3) Siano [tex]A_1,...,B,C,...,A_n \in \mathfrak{M}(n,1, \mathbb{F})[/tex] [matrici colonna] e [tex]h,k \in \mathbb{F}[/tex], allora

[tex]det(A_1,...,kB+hC,...,A_n)=k\cdot det(A_1,...,B,...,A_n)+h \cdot det(A_1,...,C,...,A_n)[/tex]

Inoltre

[tex]det(A)=det(^t A)[/tex]

Sia [tex]e_i[/tex] il vettore colonna che ha un [tex]1[/tex] nella i-esima riga e 0 in tutte le altre, allora una qualsiasi colonna di [tex]A \in \mathfrak{M}_n(\mathbb{F})[/tex] può essere decomposta come [tex]\displaystyle A^j=\sum_{i=1}^{n}a_{ij}e_i[/tex], quindi

[tex]det(A)=det(A^1,A^2,...,A^n)=det(\sum_{i_{1}=1}^n a_{{i_1}1} e_{i_1},A^2,...,A^n)=[/tex]
[tex]\displaystyle \sum_{{i_1}=1}^n a_{{i_1}1} det(e_{i_1},A^2,...,A^n)=[/tex]
[tex]\displaystyle \sum_{{i_1}.{i_2}=1}^n a_{{i_1}1}a_{{i_2}2} det(e_{i_1},e_{i_2},A^3,...,A^n)=[/tex]
[tex]\displaystyle \sum_{{i_1},{i_2},...,{i_n}=1}^n a_{{i_1}1}a_{{i_2}2}...a_{{i_n}n} det (e_{i_n},e_{i_2},...,e_{i_n})[/tex]

Dove abbiamo ripetutamente usato la proprietà (3).

Notiamo che [tex](e_{i_n},e_{i_2},...,e_{i_n})[/tex] corrisponde alla matrice identica con le colonne permutate se [tex]i:\{1,2,...,n\} \rightarrow \{1,2,...,n\}[/tex] è una permutazione di [tex]\mathfrak{S}_n[/tex], in tal caso se [tex]\sigma[/tex] è la permutazione che ha permutato le colonne della matrice identica vale [tex]det(e_{i_n},e_{i_2},...,e_{i_n})= \epsilon(\sigma)[/tex]; altrimenti il determinante è nullo [abbiamo usato le proprietà (1) e (2)].

In definitiva

[tex]\displaystyle det(A)=\sum_{\sigma \in \mathfrak{S}_n}{ \epsilon(\sigma)a_{\sigma(1)1}a_{\sigma(2)2}...a_{\sigma(n)n}}[/tex]


In tal modo abbiamo dimostrato che la funzione determinante, se esiste, è unica.
Resta da dimostrarne l'esistenza.

Definiamo la funzione determinante come sopra e mostriamo che effettivamente gode delle proprietà richieste.

[tex]\displaystyle det(A)=\sum_{\sigma \in \mathfrak{S}_n}{ \epsilon(\sigma)a_{\sigma(1)1}a_{\sigma(2)2}...a_{\sigma(n)n}}[/tex]

(1) [tex]Det(A)=Det(^t A)[/tex]

[tex]Det(A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{\sigma(1)1}a_{\sigma(2)2}...a_{\sigma(n)n}= Det(A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma^{-1}(1)}a_{2\sigma^{-1}(2)}...a_{n \sigma^{-1}(n)}[/tex]

[L'uguaglianza è vera perché se [tex]\sigma(k)=a[/tex] allora [tex]\sigma^{-1}(a)=k[/tex], quindi [tex]k \sigma (k)=\sigma^{-1}(a)a[/tex], di modo che il prodotto rimanga uguale a meno dell'ordine].

Infine, ponendo [tex]\tau= \sigma^-1[/tex] si ha

[tex]\displaystyle Det(A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma^{-1}(1)}a_{2\sigma^{-1}(2)}...a_{n \sigma^{-1}(n)}=Det(A)=\sum_{\tau^{-1} \in \mathfrak{S}_n} \epsilon(\tau^{-1}) a_{1\tau (1)}a_{2 \tau (2)}...a_{n \tau (n)}=Det(A)=[/tex]

[tex]=\sum_{\tau^{-1} \in \mathfrak{S}_n} \epsilon(\tau) a_{1\tau (1)}a_{2 \tau (2)}...a_{n \tau (n)}= Det(^t A)[/tex]


(2) [tex]Det[/tex] è una funzione antisimmetrica delle colonne

Notazione: se [tex]A=(A^1,...,A^n) \in \mathfrak{M}_n(\mathbb{F})[/tex], allora [tex]\tau A=(A^{\tau(1)},...,A^{\tau(n)})[/tex]

(2.1) [tex]\forall \tau \in \mathfrak{S}_n, \forall A \in \mathfrak{M}_n(\mathbb{F}): det(\tau A)=\epsilon(\tau) det(A)[/tex]

[tex]\displaystyle det(\tau A)= \sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{\tau(\sigma(1))1}a_{\tau(\sigma(2))2}...a_{\tau(\sigma(n))n}[/tex]

Posto [tex]\tau \circ \sigma=\sigma'[/tex] si ha

[tex]\displaystyle det(\tau A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{\tau(\sigma(1))1}a_{\tau(\sigma(2))2}...a_{\tau(\sigma(n))n}= \sum_{\sigma' \in \mathfrak{S}_n} \epsilon( \tau^{-1} \circ \sigma') a_{\sigma'(1)1}a_{\sigma'(2)2}...a_{\sigma'(n)n}=[/tex]
[tex]\displaystyle = \sum_{\sigma' \in \mathfrak{S}_n} \epsilon( \tau) \epsilon(\sigma') a_{\sigma'(1)1}a_{\sigma'(2)2}...a_{\sigma'(n)n}=\epsilon(\tau) det(A)[/tex]

(2.2) Il determinante di una matrice che ha due colonne uguali è nullo.

[tex]A=(A^1,...,A^n) \in \mathfrak{M}_n(\mathbb{F})[/tex]

Supponiamo [tex]A^i=A^j[/tex].
Sia [tex]\tau[/tex] la trasposizione che scambia la colonna [tex]i[/tex] con la colonna [tex]j[/tex], allora

[tex]det(A^1,...,A^i,...,A^j,...,A^n)=\epsilon(\tau)det(A^1,...,A^j,...,A^i,...,A^n)=[/tex]
[tex]=-det(A^1,...,A^i,...,A^j,...,A^n) \rightarrow 2det(A)=0 \iff det(A)=0[/tex]

3) [tex]Det(I_n)=1[/tex], [tex]I_n \in \mathfrak{M}_n{\mathbb{F}}[/tex]

Definiamo, come usuale, la matrice identità nel seguente modo: [tex][I_n]_{ij}=\delta_{ij}[/tex], dove quest'ultima è la delta di kronecker, la quale vale [tex]1[/tex] se [tex]i=j[/tex] e [tex]0[/tex] in caso contrario; questo vuol dire che di tutti gli [tex]n![/tex] addendi presenti nell'espressione del determinante l'unico non nullo è quello determinato dalla permutazione identica, ossia

[tex]det(I_n)= a_{11}a_{22}...a_{nn}=1^{n}=1[/tex]


4) Siano [tex]A^1,...,B,C,...,A^n \in \mathfrak{M}(n,1, \mathbb{F})[/tex] [matrici colonna] e [tex]h,k \in \mathbb{F}[/tex], allora

[tex]H=det(A^1,...,kB+hC,...,A^n)=k\cdot det(A^1,...,B,...,A^n)+h \cdot det(A^1,...,C,...,A^n)[/tex]

[tex]\displaystyle Det(H)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma(1)}...(kb_{j\sigma(j)}+hc_{j \sigma(j)})...a_n \sigma(n)=k \sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma(1)}...b_{j\sigma(j)}...a_n \sigma(n)+h \sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma(1)}...c_{j\sigma(j)}...a_n \sigma(n)=[/tex]
[tex]= det(A^1,...,B,...,A^n)+det(A^1,...,C,...,A^n)[/tex]


Abbiamo così dimostrato che il determinante esiste ed è unico.


TEOREMA: Il determinante definisce un epimorfismo del gruppo [tex]\boldsymbol{GL}(n,\mathbb{F})[/tex] sul gruppo moltiplicativo [tex]\stackrel{.}{\mathbb{F}}=\mathbb{F}-\{0\}[/tex]

La verifica della suriettività è immediata, infatti per ogni [tex]k \in \stackrel{.}{\mathbb{F}}[/tex] è sufficiente prendere la matrice

[tex]\left(\begin{matrix}k & 0 & 0 & ... & 0 & 0 \\ 0 & 1 & 0 & ... & 0 & 0 \\ 0 & 0 & 1 & ... & 0 & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots & \vdots \\ 0 & 0 & 0 & ... & 1 & 0 \\ 0 & 0 & 0 & ... & 0 & 1\end{matrix}\right)[/tex]

il cui determinante è [tex]k[/tex].

Non resta da dimostrare che [tex]det: \mathfrak{M}_n(\mathbb{F}) \rightarrow \stackrel{.}{\mathbb{F}}[/tex] è un omomorfismo di gruppi, e ciò costituisce l'enunciato di un altro teorema fondamentale per lo scopo che ci siamo posti

TEOREMA (DI BINET): Siano [tex]A,B \in \mathfrak{M}_n(\mathbb{F})[/tex], allora

[tex]det(AB)=det(A) \cdot det(B)[/tex]

Come noto il prodotto di matrici righe per colonne è definito nel seguente modo

[tex]\displaystyle [AB]_{ij}=\sum_{s=1}^{n}a_{is}b_{sj}[/tex]

[tex]\displaystyle det(AB)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) [AB]_{1 \sigma(1)}[AB]_{2\sigma(2)}...[AB]_{n \sigma(n)}=[/tex]
[tex]=\displaystyle det(AB)=\sum_{\sigma \in \mathfrak{S}_n} \sum_{s_1,s_2,...,s_n=1}^n \epsilon(\sigma) a_{1s_1}b_{s_1 \sigma(1)}a_{2s_2}b_{s_2\sigma(2)}...a_{ns_n}b_{s_n\sigma(n)}=[/tex]
[tex]=\displaystyle \sum_{s_1,s_2,...,s_n=1}^n { a_{1 s_1}a_{2 s_2}...a_{n s_n} \sum_{\sigma \in \mathfrak{S}_n}\epsilon(\sigma) b_{s_1\sigma(1)}b_{s_2\sigma(2)}...b_{s_n\sigma(n)}}=[/tex]
[tex]\displaystyle = \sum_{s_1,s_2,...,s_n=1}^n a_{1 s_1}a_{2 s_2}...a_{n s_n} det(B_{s_1},B_{s_2},...,B_{s_n})[/tex]

Come visto precedentemente, se [tex]s[/tex] non è una permutazione di [tex]\{1,2,...,n\}[/tex] il determinante sarà nullo e dunque l'intero addendo, quindi quel che rimane è

[tex]\displaystyle \sum_{s \in \mathfrak{S}_n} \epsilon(s) a_{1s(1)}a_{2s(2)}...a_{n s(n)}det(B)=det(A)det(B)[/tex]

COROLLARIO: Se [tex]A \in \mathfrak{M}_n(\mathbb{F})[/tex] è invertibile, allora [tex]det(A) \not = 0[/tex].

[tex]\displaystyle 1= det(AA^{-1})=det(A)det(A^{-1}) \rightarrow det(A^{-1})=\frac{1}{det(A)}[/tex]




Sia [tex]A \in \mathfrak{M}_n{\mathbb{F}}[/tex], allora denotiamo con [tex]C_{ij}(A) \in \mathfrak{M}_{n-1}(\mathbb{F})[/tex] la matrice ottenuta cancellando la [tex]i-esima[/tex] riga e la [tex]j-esima[/tex] colonna di [tex]A[/tex]; indichiamo con [tex]A_{ij}[/tex] il determinante della suddetta.

Denotiamo con [tex]e_i[/tex] la matrice di [tex]\mathfrak{M}(n,1,\mathbb{F})[/tex] che ha un [tex]1[/tex] nella [tex]i-esima[/tex] riga e [tex]0[/tex] nelle restanti.
Infine, indichiamo con [tex]M_{ij}(A)[/tex] la matrice ottenuta da [tex]A[/tex] sostituendo alla [tex]j-esima[/tex] colonna la matrice colonna [tex]e_i[/tex].


Ci proponiamo di calcolare il determinante di quest'ultima, il motivo per cui ci interessa sarà chiaro nel seguito.
Vale

[tex]Det(A^1,...,A^{j-1},e_i,A^{j+1},...,A^n)=(-1)^{n-j} Det(A^1,...,A^{j-1},A^{j+1},...,A^n,e^i)=(-1)^{n-j}det(N)[/tex].

Come visto in precedenza tutte le proprietà del determinante valide per le colonne sono valide anche per le righe, esprimiamo dunque [tex]N[/tex] con la notazione per righe.

[tex]N=(N_1,...,N_{i-1},N_{i},N_{i+1},...,N_n)[/tex].

Vale

[tex]det(N)=(-1)^{n-i} det(N_1,...,N_{i-1},N_{i+1},...,N_n,N_i)=(-1)^{n-i}A_{ij}[/tex].

In definitiva

[tex]det(M_{ij}(A))=(-1)^{(n-j)+(n-i)}A_{ij}=(-1)^{i+j}A_{ij}[/tex]



Data [tex]A \in \mathfrak{M}_n{\mathbb{F}}[/tex], una sua qualsiasi colonna [tex]A^j[/tex] può essere decomposta come [tex]\displaystyle \sum_{i=1}^{n}a_{ij} e_i[/tex], quindi

[tex]\displaystyle det(A^1,...,A^j,...,A^n)=det(A^1,..., \sum_{i=1}^{n}a_{ij} e_i,...,A^n)=\sum_{i=1}^n {a_{ij} det(M_{ij}(A))}=\sum_{i=1}^n{(-1)^{i+j}a_{ij}A_{ij}}[/tex]


Questo risultato prende il nome di Primo teorema di Laplace e ha grande importanza operativa, infatti permette di ridurre il calcolo del determinante di una matrice quadrata di ordine [tex]n[/tex] al calcolo di più determinanti di ordine via via inferiore.

Esempio:

[tex]A=\left(\begin{matrix}1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{matrix}\right)[/tex]

Sviluppiamo secondo la terza colonna:

[tex]det(A)=(-1)^{(1+3)}3 \left| \begin{matrix}4 & 5 \\ 7 & 8 \end{matrix}\right|+(-1)^{(2+3)}6\left| \begin{matrix}1 & 2 \\ 7 & 8 \end{matrix}\right|+(-1)^{(3+3)}9\left| \begin{matrix}1 & 2 \\ 4 & 5 \end{matrix}\right|=3(4\cdot 8 -5 \cdot 7)-6(1\cdot 8 -2 \cdot 7)+9(1 \cdot 5-2 \cdot 4)=-9+36-27=0[/tex]

Questo ci dice anche che [tex]A[/tex] non è invertibile.





------------------------------------------------------

Da completare.
Gran parte di quanto scritto è basato sul Nacinovich.
Ultima modifica di Gizeta il 31/01/2015, 12:03, modificato 6 volte in totale.
Gizeta
 
Messaggi: 814
Iscritto il: 27/11/2013, 17:16

Re: Algebra Lineare

Messaggioda afullo » 28/01/2015, 18:44

Ottimo! Sono proprietà del determinante che poi nella pratica si danno per scontate, ma è bello vederle almeno una volta! :D
afullo
 
Messaggi: 1373
Iscritto il: 13/03/2013, 22:06


Torna a Matematica Universitaria

Chi c’è in linea

Visitano il forum: Nessuno e 0 ospiti