Queste note sono basate sugli appunti fatti con Gianmarco Manzini negli anni 1995-2005

Determinanti

Prerequisiti di algebra lineare

Autore/Autrice
Affiliazione

Enrico Bertolazzi

University of Trento, Department of Industrial Engineering

Definizione Assiomatica

In questa sezione, introdurremo il concetto di determinante in modo assiomatico. Definiremo il determinante come una funzione

\left|\begin{matrix}\,\cdot\,\end{matrix}\right|: \Bbb{K}^{n \times n} \to \Bbb{K},

che associa a ogni matrice quadrata \boldsymbol{A}\in \Bbb{K}^{n \times n} uno scalare, denotato come \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|. La funzione determinante sarà definita in modo che rispetti una serie di proprietà che enunceremo come assiomi.

Per semplificare l’esposizione, utilizzeremo una notazione matriciale basata sulle colonne. Indicheremo con \boldsymbol{A}_{\bullet,j} la colonna j-esima della matrice \boldsymbol{A}:

\boldsymbol{A}= \begin{pmatrix}A_{1,1} & A_{1,2} & \cdots & A_{1,n} \\ A_{2,1} & A_{2,2} & \ddots & \vdots \\ \vdots & \ddots & \ddots & A_{n-1,n} \\ A_{n,1} & \cdots & A_{n,n-1} & A_{n,n}\end{pmatrix},

\boldsymbol{A}_{\bullet,j} = \begin{pmatrix}A_{1,j} \\ A_{2,j} \\ \vdots \\ A_{n,j}\end{pmatrix},

in modo da pensare alla matrice \boldsymbol{A} come partizionata per colonne:

\boldsymbol{A}= \left(\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\right).

Ogni colonna \boldsymbol{A}_{\bullet,j} della matrice \boldsymbol{A} è un vettore colonna e può essere espressa come combinazione lineare dei vettori della base canonica di \Bbb{K}^n:

\boldsymbol{A}_{\bullet,j} = \sum_{k=1}^n A_{k,j} \boldsymbol{e}_k,

dove i coefficienti sono le componenti della matrice nella colonna considerata. La dipendenza della funzione determinante dalle colonne della matrice può essere scritta come:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| := \left|\begin{matrix}\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|.

Enunceremo ora le tre proprietà fondamentali che definiscono assiomaticamente la funzione determinante.

Definizione 1 (Determinante) Definiamo il determinante con le seguenti proprietà fondamentali:

  1. Linearità nelle colonne: Il determinante è una funzione multi-lineare rispetto alle colonne della matrice. Ciò significa che: \begin{aligned} \left|\begin{matrix}\ldots, \lambda \boldsymbol{a}, \ldots\end{matrix}\right| &= \lambda \left|\begin{matrix}\ldots, \boldsymbol{a}, \ldots\end{matrix}\right|, \\ \left|\begin{matrix}\ldots, \boldsymbol{a}+ \boldsymbol{b}, \ldots\end{matrix}\right| &= \left|\begin{matrix}\ldots, \boldsymbol{a}, \ldots\end{matrix}\right| + \left|\begin{matrix}\ldots, \boldsymbol{b}, \ldots\end{matrix}\right|. \end{aligned}

  2. Proprietà di nullità: Il determinante è nullo se due colonne della matrice sono uguali: \left|\begin{matrix}\ldots, \boldsymbol{a}, \boldsymbol{a}, \ldots\end{matrix}\right| = 0.

  3. Determinante della matrice identità: Il determinante della matrice identità è pari a 1: \left|\begin{matrix}\boldsymbol{I}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{e}_1, \ldots, \boldsymbol{e}_n\end{matrix}\right| = 1, dove \boldsymbol{e}_i sono i vettori della base canonica in \Bbb{K}^n.

Queste tre proprietà sono sufficienti per garantire l’esistenza e l’unicità della funzione determinante e implicano numerose conseguenze importanti, che esploreremo nel seguito. Tuttavia, molte di queste conseguenze dipendono solo dalle prime due proprietà e non dalla terza.

Per chiarire questa distinzione, introdurremo una notazione alternativa per una funzione determinante più generale, denotata come \mathcal{D}(\boldsymbol{A}). Questa funzione soddisfa le proprietà 1 e 2, ma non necessariamente la proprietà 3, e può assumere un qualsiasi valore non nullo. Utilizzeremo il simbolo \mathcal{D}(\boldsymbol{A}) invece di \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| ogni volta che non è necessaria la proprietà 3.

Osservazione

In alcuni casi particolari, è possibile definire facilmente una formula che esprime una funzione con le proprietà di un determinante. Consideriamo i seguenti esempi:

  • Caso n=1: Per una matrice 1 \times 1, il determinante è semplicemente l’elemento della matrice: \left|\begin{matrix} A_{1,1} \end{matrix}\right| = A_{1,1}.

  • Caso n=2: Per una matrice 2 \times 2, il determinante può essere calcolato con la formula: \left|\begin{matrix} \begin{matrix} A_{1,1} & A_{1,2} \\ A_{2,1} & A_{2,2} \end{matrix} \end{matrix}\right| = A_{1,1} A_{2,2} - A_{2,1} A_{1,2}.

  • Caso n=3: Per una matrice 3 \times 3, il determinante è dato da: \begin{vmatrix} A_{1,1} & A_{1,2} & A_{1,3} \\ A_{2,1} & A_{2,2} & A_{2,3} \\ A_{3,1} & A_{3,2} & A_{3,3} \end{vmatrix} = \begin{matrix} A_{1,1} A_{2,2} A_{3,3} + A_{1,2} A_{2,3} A_{3,1} \\ + A_{2,1} A_{3,2} A_{1,3} - A_{1,3} A_{2,2} A_{3,1} \\ - A_{1,2} A_{2,1} A_{3,3} - A_{1,1} A_{2,3} A_{3,2}. \end{matrix}

  • Matrici triangolari superiori: Per una matrice triangolare superiore n \times n, il determinante è il prodotto degli elementi sulla diagonale principale: \left|\begin{matrix} \begin{matrix} A_{1,1} & A_{1,2} & \ldots & A_{1,n} \\ 0 & A_{2,2} & \ldots & A_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & A_{n,n} \end{matrix} \end{matrix}\right| = A_{1,1} A_{2,2} \cdots A_{n,n}. Questa formula è valida anche per le matrici triangolari inferiori e per le matrici diagonali.

Si invita il lettore a verificare che tutte e tre le proprietà assiomatiche dei determinanti sono soddisfatte dalle formule sopra esposte.

Alcune proprietà dei determinanti

Lemma 1 (Prodotto per uno scalare) Dalla proprietà 1 segue immediatamente che per ogni matrice \boldsymbol{A}\in \Bbb{K}^{n \times n} e per ogni scalare \lambda, vale la seguente relazione:

\mathcal{D}(\lambda \boldsymbol{A}) = \lambda^n \mathcal{D}(\boldsymbol{A})

Dimostrazione. Consideriamo una matrice \boldsymbol{A} con colonne \boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}. Applicando la proprietà multi-lineare del determinante, otteniamo:

\begin{aligned} &\mathcal{D}(\lambda \boldsymbol{A}_{\bullet,1}, \lambda \boldsymbol{A}_{\bullet,2}, \lambda \boldsymbol{A}_{\bullet,3}, \ldots, \lambda \boldsymbol{A}_{\bullet,n}) \\ &\qquad= \lambda \mathcal{D}(\boldsymbol{A}_{\bullet,1}, \lambda \boldsymbol{A}_{\bullet,2}, \lambda \boldsymbol{A}_{\bullet,3}, \ldots, \lambda \boldsymbol{A}_{\bullet,n}) \\ &\qquad= \lambda^2 \mathcal{D}(\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \lambda \boldsymbol{A}_{\bullet,3}, \ldots, \lambda \boldsymbol{A}_{\bullet,n}) \\ &\qquad= \ldots \\ &\qquad= \lambda^n \mathcal{D}(\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}) \end{aligned}

Da qui, il lemma segue immediatamente.

Osservazione: Somma di matrici

Dalla multilinearità del determinante, espressa nella proprietà 1 di Definizione 1, segue un risultato importante ma negativo riguardo al determinante della somma di due matrici. In particolare, non è vero che

\mathcal{D}(\boldsymbol{A}+ \boldsymbol{B}) = \mathcal{D}(\boldsymbol{A}) + \mathcal{D}(\boldsymbol{B}).

Infatti, consideriamo la somma di due matrici \boldsymbol{A} e \boldsymbol{B}, che può essere scritta in forma partizionata per colonne come segue:

\boldsymbol{A}+ \boldsymbol{B}= [\boldsymbol{A}_{\bullet,1} + \boldsymbol{B}_{\bullet,1}, \boldsymbol{A}_{\bullet,2} + \boldsymbol{B}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n} + \boldsymbol{B}_{\bullet,n}].

Applicando la proprietà di multilinearità del determinante, otteniamo:

\begin{aligned} \mathcal{D}(\boldsymbol{A}+ \boldsymbol{B}) &= \mathcal{D}(\boldsymbol{A}_{\bullet,1} + \boldsymbol{B}_{\bullet,1}, \boldsymbol{A}_{\bullet,2} + \boldsymbol{B}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n} + \boldsymbol{B}_{\bullet,n}) \\ &= \sum_{j=1}^n \mathcal{D}(\boldsymbol{A}_{\bullet,1}, \ldots, \boldsymbol{A}_{\bullet,j} + \boldsymbol{B}_{\bullet,j}, \ldots, \boldsymbol{A}_{\bullet,n} + \boldsymbol{B}_{\bullet,n}) \\ &= \mathcal{D}(\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}) + \begin{pmatrix} \text{altri termini derivanti} \\ \text{dalla combinazione con $\boldsymbol{B}$} \end{pmatrix} \\ &\neq \mathcal{D}(\boldsymbol{A}) + \mathcal{D}(\boldsymbol{B}). \end{aligned}

In generale, il determinante della somma di due matrici è una combinazione molto più complessa dei determinanti delle singole matrici. Invitiamo il lettore a costruire un controesempio per illustrare questo fatto.

Sempre dalla proprietà 1 di Definizione 1 segue immediatamente il seguente lemma.

Lemma 2 (Determinante colonna nulla) Se una colonna è nulla, il determinante è nullo.

Dimostrazione. Se \boldsymbol{v}_i=\boldsymbol{0}, il vettore nullo, allora avremo

\begin{aligned} \mathcal{D}(\ldots,\boldsymbol{0},\ldots) &= \mathcal{D}(\ldots,0\cdot\boldsymbol{0},\ldots), \\ &=0\cdot\mathcal{D}(\ldots,\boldsymbol{0},\ldots),\\ &=0. \end{aligned}

Dalla proprietà 2 di Definizione 1 e combinando insieme le proprietà 1 e 2, possiamo derivare diverse conseguenze riguardanti il comportamento del determinante sotto lo scambio di colonne.

Lemma 3 (Scambio di colonne Consecutive) Se due colonne consecutive di una matrice vengono scambiate, il determinante cambia segno.

Dimostrazione. Consideriamo una matrice \boldsymbol{A} con colonne \ldots, \boldsymbol{w}, \boldsymbol{z}, \ldots. Per la proprietà 2 di Definizione 1, sappiamo che:

\mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{w}, \ldots) = 0 \quad \text{e} \quad \mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{z}, \ldots) = 0.

Inoltre, per la multilinearità del determinante, abbiamo:

\begin{aligned} &\mathcal{D}(\ldots, \boldsymbol{w}+ \boldsymbol{z}, \boldsymbol{w}+ \boldsymbol{z}, \ldots)\\ &\qquad= \mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{w}+ \boldsymbol{z}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{w}+ \boldsymbol{z}, \ldots) \\ &\qquad= \mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{w}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{z}, \ldots) \\ &\qquad+ \mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{w}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{z}, \ldots). \end{aligned}

Sappiamo che:

\mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{w}, \ldots) = 0 \quad \text{e} \quad \mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{z}, \ldots) = 0,

quindi:

\mathcal{D}(\ldots, \boldsymbol{w}+ \boldsymbol{z}, \boldsymbol{w}+ \boldsymbol{z}, \ldots) = \mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{z}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{w}, \ldots).

Ma poiché:

\mathcal{D}(\ldots, \boldsymbol{w}+ \boldsymbol{z}, \boldsymbol{w}+ \boldsymbol{z}, \ldots) = 0,

ne segue che:

0 = \mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{z}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{w}, \ldots),

ovvero:

\mathcal{D}(\ldots, \boldsymbol{w}, \boldsymbol{z}, \ldots) = -\mathcal{D}(\ldots, \boldsymbol{z}, \boldsymbol{w}, \ldots).

Quindi, scambiando due colonne consecutive, il determinante cambia segno.

Questa proprietà si estende anche allo scambio di due colonne in qualsiasi posizione, non solo quelle adiacenti. Prima di approfondire questo, è utile considerare il seguente risultato fondamentale.

Lemma 4 (Colonne Uguali) Se due colonne di una matrice sono identiche, il determinante è nullo.

Dimostrazione. Supponiamo che le colonne \boldsymbol{v}_i e \boldsymbol{v}_j siano uguali, con i < j. Possiamo scambiare la colonna \boldsymbol{v}_i con le colonne adiacenti fino a portarla accanto a \boldsymbol{v}_j.

\begin{aligned} &\mathcal{D}(\ldots, \boldsymbol{v}_i, \boldsymbol{v}_{i+1}, \boldsymbol{v}_{i+2}, \ldots, \boldsymbol{v}_j, \ldots) \\ &\qquad= (-1) \mathcal{D}(\ldots, \boldsymbol{v}_{i+1}, \boldsymbol{v}_i, \boldsymbol{v}_{i+2}, \ldots, \boldsymbol{v}_j, \ldots), \\ &\qquad= (-1)^2 \mathcal{D}(\ldots, \boldsymbol{v}_{i+1}, \boldsymbol{v}_{i+2}, \boldsymbol{v}_i, \ldots, \boldsymbol{v}_j, \ldots), \\ &\qquad= \ldots \\ &\qquad= \sigma \mathcal{D}(\ldots, \boldsymbol{v}_{i+1}, \boldsymbol{v}_{i+2}, \ldots, \boldsymbol{v}_i, \boldsymbol{v}_j, \ldots) \end{aligned}

dove \sigma = (-1)^{j-i}, quindi può essere solo \pm 1. Sostituendo \boldsymbol{v}_i = \boldsymbol{v}_j = \boldsymbol{a}, secondo la Proprietà 2 di Definizione 1, otteniamo:

\mathcal{D}(\ldots, \boldsymbol{v}_{i+1}, \ldots, \boldsymbol{a}, \boldsymbol{a}, \ldots) = 0.

Lemma 5 (Scambio di Colonne) Se due colonne qualsiasi, ad esempio la colonna i-esima e la colonna j-esima (con i \neq j), vengono scambiate, il determinante cambia segno.

Dimostrazione. Il ragionamento è simile a quello utilizzato per le colonne consecutive. Consideriamo:

\begin{aligned} 0 &= \mathcal{D}(\ldots, \boldsymbol{w}+ \boldsymbol{z}, \ldots, \boldsymbol{w}+ \boldsymbol{z}, \ldots), \\ &= \mathcal{D}(\ldots, \boldsymbol{w}, \ldots, \boldsymbol{w}+ \boldsymbol{z}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{z}, \ldots, \boldsymbol{w}+ \boldsymbol{z}, \ldots), \\ &= \mathcal{D}(\ldots, \boldsymbol{w}, \ldots, \boldsymbol{w}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{w}, \ldots, \boldsymbol{z}, \ldots) \\ &+ \mathcal{D}(\ldots, \boldsymbol{z}, \ldots, \boldsymbol{w}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{z}, \ldots, \boldsymbol{z}, \ldots). \end{aligned}

Il primo e l’ultimo termine sono nulli per il Lemma Lemma 4, quindi otteniamo:

0 = \mathcal{D}(\ldots, \boldsymbol{w}, \ldots, \boldsymbol{z}, \ldots) + \mathcal{D}(\ldots, \boldsymbol{z}, \ldots, \boldsymbol{w}, \ldots),

dove \boldsymbol{w} e \boldsymbol{z} possono essere in qualsiasi posizione, non necessariamente adiacenti.

Combinando il Lemma Lemma 4 con la Proprietà 1 di Definizione 1, otteniamo un risultato molto interessante che sarà utilizzato nel seguito.

Lemma 6 (Combinazione Lineare di Colonne) Se ad una colonna si somma una qualsiasi combinazione lineare delle altre colonne (escludendo quella in esame), il valore del determinante rimane invariato.

Dimostrazione. Sia

\boldsymbol{b}= \sum_{j=1 \atop j \neq i}^{n} \beta_j \boldsymbol{v}_j,

con \beta_1, \ldots, \beta_n scalari qualsiasi. Consideriamo:

\begin{aligned} &\mathcal{D}(\ldots, \boldsymbol{v}_{i-1}, \boldsymbol{v}_{i} + \boldsymbol{b}, \boldsymbol{v}_{i+1}, \ldots)\\ &\qquad= \mathcal{D}\left(\ldots, \boldsymbol{v}_{i-1}, \boldsymbol{v}_{i} + \sum_{j=1 \atop j \neq i}^{n} \beta_j \boldsymbol{v}_j, \boldsymbol{v}_{i+1}, \ldots\right), \\ &\qquad= \mathcal{D}(\ldots, \boldsymbol{v}_{i-1}, \boldsymbol{v}_{i}, \boldsymbol{v}_{i+1}, \ldots) \\ &\qquad+ \sum_{j=1 \atop j \neq i}^{n} \beta_j \mathcal{D}\left(\ldots, \boldsymbol{v}_{i-1}, \boldsymbol{v}_j, \boldsymbol{v}_{i+1}, \ldots\right). \end{aligned}

Poiché, per il Lemma Lemma 5, abbiamo

\mathcal{D}(\ldots, \boldsymbol{v}_{i-1}, \boldsymbol{v}_j, \boldsymbol{v}_{i+1}, \ldots) = 0 \quad \text{per} \quad j \neq i,

segue che

\mathcal{D}(\ldots, \boldsymbol{v}_{i-1}, \boldsymbol{v}_{i} + \boldsymbol{b}, \boldsymbol{v}_{i+1}, \ldots) = \mathcal{D}(\ldots, \boldsymbol{v}_{i-1}, \boldsymbol{v}_{i}, \boldsymbol{v}_{i+1}, \ldots).

Esistenza ed unicità del determinante

Teorema 1 (Esistenza ed Unicità) Esiste una e una sola funzione determinante che soddisfa le proprietà 1, 2 e 3 di Definizione 1, e tale funzione è denotata con il simbolo \left|\begin{matrix}\,\cdot\,\end{matrix}\right|.

Dimostrazione. Dato che ogni colonna della matrice può essere espressa come combinazione lineare dei vettori della base canonica:

\boldsymbol{A}_{\bullet,j} = \sum_{k=1}^n A_{k,j} \boldsymbol{e}_k,

e utilizzando la multilinearità del determinante, otteniamo:

\begin{aligned} \mathcal{D}(\boldsymbol{A}_{\bullet,1}, \ldots, \boldsymbol{A}_{\bullet,n}) &= \mathcal{D}\left(\sum_{i_1=1}^n A_{i_1,1} \boldsymbol{e}_{i_1}, \sum_{i_2=1}^n A_{i_2,2} \boldsymbol{e}_{i_2}, \ldots, \sum_{i_n=1}^n A_{i_n,n} \boldsymbol{e}_{i_n}\right), \\ &= \sum_{i_1=1}^n A_{i_1,1} \mathcal{D}\left(\boldsymbol{e}_{i_1}, \sum_{i_2=1}^n A_{i_2,2} \boldsymbol{e}_{i_2}, \ldots, \sum_{i_n=1}^n A_{i_n,n} \boldsymbol{e}_{i_n}\right), \\ &= \sum_{i_1=1}^n A_{i_1,1} \sum_{i_2=1}^n A_{i_2,2} \cdots \sum_{i_n=1}^n A_{i_n,n} \mathcal{D}(\boldsymbol{e}_{i_1}, \boldsymbol{e}_{i_2}, \ldots, \boldsymbol{e}_{i_n}). \end{aligned} \tag{1}

Notiamo che la sommatoria finale in Equazione 1 coinvolge n^n termini, ma solo n! di questi sono non nulli. Infatti, i termini con colonne uguali sono nulli per il lemma Lemma 4. Gli unici termini non nulli sono quelli in cui gli indici i_1, \ldots, i_n sono distinti e formano una permutazione dei primi n numeri interi.

Ogni permutazione può essere ottenuta tramite una serie di scambi, e il lemma Lemma 5 implica che:

\mathcal{D}(\boldsymbol{e}_{i_1}, \boldsymbol{e}_{i_2}, \ldots, \boldsymbol{e}_{i_n}) = \sigma(i_1, i_2, \ldots, i_n) \mathcal{D}(\boldsymbol{e}_1, \boldsymbol{e}_2, \ldots, \boldsymbol{e}_n),

dove \sigma(i_1, i_2, \ldots, i_n) è il segno della permutazione, che può essere +1 o -1 e indica il numero di scambi necessari per trasformare la sequenza 1, 2, \ldots, n in i_1, i_2, \ldots, i_n.

Quindi, possiamo riscrivere Equazione 1 come:

\begin{aligned} &\mathcal{D}(\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n})\\ &\qquad = \sum_{(i_1, i_2, \ldots, i_n) \in \Pi(n)} \sigma(i_1, i_2, \ldots, i_n) A_{i_1,1} A_{i_2,2} \cdots A_{i_n,n} \mathcal{D}(\boldsymbol{e}_1, \boldsymbol{e}_2, \ldots, \boldsymbol{e}_n). \end{aligned} \tag{2}

Poiché \mathcal{D}(\boldsymbol{I}) \neq 0, possiamo definire:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \frac{\mathcal{D}(\boldsymbol{A})}{\mathcal{D}(\boldsymbol{I})} = \sum_{(i_1, i_2, \ldots, i_n) \in \Pi(n)} \sigma(i_1, i_2, \ldots, i_n) A_{i_1,1} A_{i_2,2} \cdots A_{i_n,n}. \tag{3}

Le tre proprietà assiomatiche dei determinanti sono verificate dalla funzione \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|. Le prime due proprietà derivano dal fatto che \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| coincide con \mathcal{D}(\boldsymbol{A}) fino a una costante moltiplicativa, mentre la terza proprietà è garantita dalla normalizzazione rispetto a \mathcal{D}(\boldsymbol{I}).

Si noti che la dimostrazione è costruttiva, poiché suggerisce una formula per il calcolo del determinante di una matrice, anche se non particolarmente pratica. Questo fatto è enunciato come il seguente corollario.

Corollario 1 (Corollario) Per ogni matrice \boldsymbol{A}\in \Bbb{K}^n, il determinante può essere calcolato come:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \sum_{(i_1,i_2,\ldots,i_n) \in \Pi(n)} \sigma(i_1, i_2, \ldots, i_n) A_{i_1,1} A_{i_2,2} \cdots A_{i_n,n},

dove \sigma(i_1, i_2, \ldots, i_n) è il segno della permutazione (i_1, i_2, \ldots, i_n), definito come nella dimostrazione del teorema Teorema 1.

Inoltre, dalla dimostrazione del teorema si ricava anche un’altra proprietà interessante che sarà utilizzata successivamente.

Corollario 2 (Corollario) Se \mathcal{D}(\boldsymbol{A}) soddisfa le proprietà 1 e 2 di Definizione 1 allora

\mathcal{D}(\boldsymbol{A}) = \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|\mathcal{D}(\boldsymbol{I}).

Determinanti del prodotto o teorema di Binet1

Teorema 2 (Teorema di Binet) Siano \boldsymbol{A} e \boldsymbol{B} due matrici quadrate dello stesso ordine. Allora:

\left|\begin{matrix}\boldsymbol{A}\boldsymbol{B}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|\left|\begin{matrix}\boldsymbol{B}\end{matrix}\right|.

Dimostrazione. Consideriamo la matrice prodotto \boldsymbol{C}= \boldsymbol{A}\boldsymbol{B}. Ogni colonna della matrice \boldsymbol{C} può essere espressa come:

\boldsymbol{C}_{\bullet,j} = \boldsymbol{A}\boldsymbol{B}_{\bullet,j},

dove \boldsymbol{B}_{\bullet,j} è la j-esima colonna della matrice \boldsymbol{B}. Quindi:

\boldsymbol{C}= \boldsymbol{A}\boldsymbol{B}= \boldsymbol{A}[\boldsymbol{B}_{\bullet,1}, \ldots, \boldsymbol{B}_{\bullet,n}] = [\boldsymbol{A}\boldsymbol{B}_{\bullet,1}, \ldots, \boldsymbol{A}\boldsymbol{B}_{\bullet,n}].

Il determinante della matrice prodotto \boldsymbol{C} è:

\left|\begin{matrix}\boldsymbol{C}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}\boldsymbol{B}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}\boldsymbol{B}_{\bullet,1}, \boldsymbol{A}\boldsymbol{B}_{\bullet,2}, \ldots, \boldsymbol{A}\boldsymbol{B}_{\bullet,n}\end{matrix}\right|.

Definiamo una funzione:

\mathcal{D}_{\boldsymbol{A}}(\boldsymbol{v}_1, \ldots, \boldsymbol{v}_n) = \left|\begin{matrix}\boldsymbol{A}\boldsymbol{v}_1, \ldots, \boldsymbol{A}\boldsymbol{v}_n\end{matrix}\right|.

Perciò, possiamo scrivere:

\left|\begin{matrix}\boldsymbol{A}\boldsymbol{B}\end{matrix}\right| = \mathcal{D}_{\boldsymbol{A}}(\boldsymbol{B}).

Ora verifichiamo che \mathcal{D}_{\boldsymbol{A}} soddisfa le proprietà di multilinearità e alternanza:

  1. Multilinearità:

    • Se moltiplichiamo una colonna \boldsymbol{v}_k per uno scalare \lambda, otteniamo:

    \begin{aligned} &\mathcal{D}_{\boldsymbol{A}}(\boldsymbol{v}_1, \ldots, \lambda \boldsymbol{v}_k, \ldots, \boldsymbol{v}_n) \\ &\qquad= \left|\begin{matrix}\boldsymbol{A}\boldsymbol{v}_1, \ldots, \lambda \boldsymbol{A}\boldsymbol{v}_k, \ldots, \boldsymbol{A}\boldsymbol{v}_n\end{matrix}\right|, \\ &\qquad= \lambda \left|\begin{matrix}\boldsymbol{A}\boldsymbol{v}_1, \ldots, \boldsymbol{A}\boldsymbol{v}_k, \ldots, \boldsymbol{A}\boldsymbol{v}_n\end{matrix}\right|, \\ &\qquad= \lambda \mathcal{D}_{\boldsymbol{A}}(\boldsymbol{v}_1, \ldots, \boldsymbol{v}_k, \ldots, \boldsymbol{v}_n). \end{aligned}

    • Se sommiamo una colonna \boldsymbol{v}_k a una combinazione lineare delle altre colonne, otteniamo:

    \begin{aligned} &\mathcal{D}_{\boldsymbol{A}}(\boldsymbol{v}_1, \ldots, \boldsymbol{v}_k + \boldsymbol{w}_k, \ldots, \boldsymbol{v}_n) \\ &\qquad= \left|\begin{matrix}\boldsymbol{A}\boldsymbol{v}_1, \ldots, \boldsymbol{A}(\boldsymbol{v}_k + \boldsymbol{w}_k), \ldots, \boldsymbol{A}\boldsymbol{v}_n\end{matrix}\right|, \\ &\qquad= \left|\begin{matrix}\boldsymbol{A}\boldsymbol{v}_1, \ldots, \boldsymbol{A}\boldsymbol{v}_k + \boldsymbol{A}\boldsymbol{w}_k, \ldots, \boldsymbol{A}\boldsymbol{v}_n\end{matrix}\right|, \\ &\qquad= \mathcal{D}_{\boldsymbol{A}}(\boldsymbol{v}_1, \ldots, \boldsymbol{v}_k, \ldots, \boldsymbol{v}_n) + \mathcal{D}_{\boldsymbol{A}}(\boldsymbol{v}_1, \ldots, \boldsymbol{w}_k, \ldots, \boldsymbol{v}_n). \end{aligned}

  2. Alternanza:

    • Se due colonne \boldsymbol{v}_k e \boldsymbol{v}_l sono uguali, allora:

    \begin{aligned} &\mathcal{D}_{\boldsymbol{A}}(\boldsymbol{v}_1, \ldots, \boldsymbol{v}_k, \ldots, \boldsymbol{v}_k, \ldots, \boldsymbol{v}_n)\\ &\qquad = \left|\begin{matrix}\boldsymbol{A}\boldsymbol{v}_1, \ldots, \boldsymbol{A}\boldsymbol{v}_k, \ldots, \boldsymbol{A}\boldsymbol{v}_k, \ldots, \boldsymbol{A}\boldsymbol{v}_n\end{matrix}\right|\\ &\qquad = 0. \end{aligned}

Quindi, \mathcal{D}_{\boldsymbol{A}} soddisfa le proprietà 1 e 2 del determinante. Dalla formula del determinante e considerando che:

\mathcal{D}_{\boldsymbol{A}}(\boldsymbol{I}) = \left|\begin{matrix}\boldsymbol{A}\boldsymbol{e}_1, \ldots, \boldsymbol{A}\boldsymbol{e}_n\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|,

otteniamo:

\mathcal{D}_{\boldsymbol{A}}(\boldsymbol{B}) = \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right| \cdot \mathcal{D}_{\boldsymbol{A}}(\boldsymbol{I}) = \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| \cdot \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right|.

Pertanto, abbiamo dimostrato che:

\left|\begin{matrix}\boldsymbol{A}\boldsymbol{B}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| \cdot \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right|.

Determinante della matrice inversa

La formula del prodotto di determinanti permette di correlare immediatamente il determinante di una matrice con il determinante della matrice inversa. Infatti si ha che

1=\left|\begin{matrix}\boldsymbol{I}\end{matrix}\right|=\left|\begin{matrix}\boldsymbol{A}\boldsymbol{A}^{-1}\end{matrix}\right|=\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|\left|\begin{matrix}\boldsymbol{A}^{-1}\end{matrix}\right|,

da cui si deduce che

\left|\begin{matrix}\boldsymbol{A}^{-1}\end{matrix}\right| = \dfrac{1}{\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|}.

Dipendenza e indipendenza lineare

I determinanti possono essere usati per vedere se un insieme di vettori è o non è linearmente dipendente. Consideriamo prima il caso di n vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{n} in \Bbb{K}^n.

In tal caso possiamo calcolare il determinante della matrice costituita dalle colonne \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots,\boldsymbol{v}_{n} e vale il teorema

Indipendenza Lineare

Un insieme di n vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{n} in \Bbb{K}^n è linearmente indipendente se e solo se il determinante di questi vettori è diverso da zero:

\mathcal{D}(\boldsymbol{v}_{1}, \ldots, \boldsymbol{v}_{n}) \neq 0.

Dimostrazione. Supponiamo che i vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{n} siano linearmente dipendenti. Questo significa che esistono coefficienti \beta_1, \beta_2, , \beta_n, non tutti nulli, tali che:

\boldsymbol{0}= \beta_1 \boldsymbol{v}_{1} + \beta_2 \boldsymbol{v}_{2} + \cdots + \beta_n \boldsymbol{v}_{n}.

Senza perdita di generalità, possiamo supporre che il coefficiente \beta_i sia diverso da zero. Da questa ipotesi, possiamo esprimere \boldsymbol{v}_i come:

\begin{aligned} \boldsymbol{v}_i &= -\frac{\beta_1}{\beta_i} \boldsymbol{v}_{1} - \cdots - \frac{\beta_{i-1}}{\beta_i} \boldsymbol{v}_{i-1} - \frac{\beta_{i+1}}{\beta_i} \boldsymbol{v}_{i+1} - \frac{\beta_n}{\beta_i} \boldsymbol{v}_{n} \\ &= -\frac{1}{\beta_i} \sum_{j \neq i} \beta_j \boldsymbol{v}_j. \end{aligned}

Poiché possiamo aggiungere una qualsiasi combinazione lineare delle altre colonne della matrice \boldsymbol{A} alla i-esima colonna senza modificare il valore del determinante, come indicato nel lemma~Lemma 6, possiamo scrivere:

\begin{aligned} \mathcal{D}(\boldsymbol{v}_{1}, \ldots, \boldsymbol{v}_{i}, \ldots, \boldsymbol{v}_{n}) &= \mathcal{D}\left(\boldsymbol{v}_{1}, \ldots, \boldsymbol{v}_{i} + \frac{1}{\beta_i} \sum_{j \neq i} \beta_j \boldsymbol{v}_j, \ldots, \boldsymbol{v}_{n}\right) \\ &= \mathcal{D}(\boldsymbol{v}_{1}, \ldots, \boldsymbol{0}, \ldots, \boldsymbol{v}_{n}) \\ &= 0. \end{aligned}

Viceversa, se i vettori \boldsymbol{v}_{1}, , \boldsymbol{v}_{n} sono linearmente indipendenti, allora essi formano una base per \Bbb{K}^n. Di conseguenza, ogni vettore della base canonica può essere espresso come combinazione lineare dei vettori \boldsymbol{v}_{1}, , \boldsymbol{v}_{n}. In particolare, per ogni i = 1, \ldots, n abbiamo:

\boldsymbol{e}_{i} = \sum_{k=1}^n A_{i,k} \boldsymbol{v}_{k}.

Consideriamo il determinante della matrice formata dalle colonne \boldsymbol{e}_i:

\begin{aligned} 1 &\neq \mathcal{D}(\boldsymbol{I}) \\ &= \mathcal{D}(\boldsymbol{e}_{1}, \boldsymbol{e}_{2}, \ldots, \boldsymbol{e}_{n}) \\ &= \mathcal{D}\left(\sum_{k_1=1}^n A_{1,k_1} \boldsymbol{v}_{k_1}, \sum_{k_2=1}^n A_{2,k_2} \boldsymbol{v}_{k_2}, \ldots, \sum_{k_n=1}^n A_{n,k_n} \boldsymbol{v}_{k_n}\right) \\ &= \sum_{k_1, k_2, \ldots, k_n=1}^n A_{1,k_1} A_{2,k_2} \cdots A_{n,k_n} \mathcal{D}(\boldsymbol{v}_{k_1}, \boldsymbol{v}_{k_2}, \ldots, \boldsymbol{v}_{k_n}) \\ &= \sum_{k_1, k_2, \ldots, k_n \in S}^n \sigma(k_1, k_2, \ldots, k_n) A_{1,k_1} A_{2,k_2} \cdots A_{n,k_n} \mathcal{D}(\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{n}) \\ &= C \mathcal{D}(\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{n}), \end{aligned}

dove C è definito come:

C = \sum_{k_1, \ldots, k_n \in S}^n \sigma(k_1, \ldots, k_n) A_{1,k_1} \cdots A_{n,k_n},

e rappresenta una quantità finita, essendo una somma di prodotti finiti. Dato che C \neq 0, segue che \mathcal{D}(\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{n}) \neq 0.

È possibile estendere il risultato precedente anche al caso in cui il numero di vettori sia inferiore a n. Tuttavia, questa generalizzazione richiede l’introduzione di strumenti e concetti aggiuntivi. l’introduzione di qualche strumento ulteriore.

Definizione 2 (Sottomatrice) Data una matrice \boldsymbol{A} (che non deve necessariamente essere quadrata), possiamo ottenere una sottomatrice selezionando solo gli elementi che appartengono all’intersezione di un insieme specifico di righe e colonne di \boldsymbol{A}.

Una sottomatrice può essere indicata con la notazione:

\boldsymbol{A}_{i_1, i_2, \ldots, i_s; j_1, j_2, \ldots, j_r},

dove gli indici i_1, i_2, \ldots, i_s corrispondono alle righe selezionate e j_1, j_2, \ldots, j_r alle colonne selezionate della matrice \boldsymbol{A}.

Ad esempio dalla matrice

\boldsymbol{A}= \begin{pmatrix} 1 & 3 & 3 & 0 \\ 0 & 2 & 2 & -1 \\ 1 & 1 & -5 & 9 \\ 3 & 5 & 7 & 0 \end{pmatrix},

possiamo estrarre la sottomatrice

\boldsymbol{A}_{1,2;1,4} = \begin{pmatrix} 1 & 3 \\ 3 & 5\end{pmatrix}.

Ovviamente una sottomatrice è ancora una matrice e quindi può essere indicata al solito da una qualsiasi lettera maiuscola.

Definizione 3 (Minore) Sia \boldsymbol{A}\in \Bbb{K}^{n \times n} una matrice. Il determinante di una qualsiasi sottomatrice di \boldsymbol{A} di ordine k \times k, ottenuta selezionando k righe e k colonne, è chiamato minore di ordine k di \boldsymbol{A}. La sottomatrice di \boldsymbol{A} utilizzata per calcolare questo determinante è denotata come:

\boldsymbol{A}_{i_1, i_2, \ldots, i_k; j_1, j_2, \ldots, j_k} \in \Bbb{K}^{k \times k}.

Ci proponiamo ora di dimostrare il seguente teorema.

Teorema 3 (Minori e dipendenza lineare) Se i k vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{k} sono linearmente dipendenti, allora tutti i minori di ordine k della matrice \boldsymbol{A}\in \Bbb{K}^{k \times k}, definita come

\boldsymbol{A}= \begin{pmatrix}\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{k}\end{pmatrix},

sono nulli, a condizione che n \geq k2.

Dimostrazione. Consideriamo un generico minore di ordine k, che può essere scritto come:

\boldsymbol{A}_{i_1, i_2, \ldots, i_k; 1, 2, \ldots, k} = \begin{pmatrix}\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{k}\end{pmatrix},

dove \boldsymbol{w}_{i} = (\boldsymbol{v}_{i})_{i_1, i_2, \ldots, i_k} rappresenta il vettore ottenuto dalle componenti con indici di riga i_1, i_2, , i_k del vettore \boldsymbol{v}_{i}.

Poiché i vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{k} sono linearmente dipendenti, esiste una combinazione lineare non banale che annulla il vettore zero:

\boldsymbol{0}= \beta_1 \boldsymbol{v}_{1} + \beta_2 \boldsymbol{v}_{2} + \cdots + \beta_k \boldsymbol{v}_{k}.

Applicando questa combinazione lineare componente per componente alle righe con indici i_1, i_2, , i_k, otteniamo:

\boldsymbol{0}= \beta_1 \boldsymbol{w}_{1} + \beta_2 \boldsymbol{w}_{2} + \cdots + \beta_k \boldsymbol{w}_{k}.

Pertanto, i vettori \boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots,\boldsymbol{w}_{k} sono linearmente dipendenti. Di conseguenza, il minore corrispondente è nullo, come dimostra il lemma Lemma 6.

Possiamo invertire l’enunciato di questo teorema3. Se esiste almeno un minore di ordine k non nullo, allora i k vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{k} sono necessariamente linearmente indipendenti.

Questo fornisce un criterio utile per verificare l’indipendenza lineare di un insieme di k vettori in \Bbb{K}^n.

Vogliamo ora dimostrare che la relazione tra l’esistenza di almeno un minore di ordine k non nullo per k vettori colonna in \Bbb{K}^n e la loro indipendenza lineare è in realtà un’equivalenza. A tal fine, consideriamo il seguente teorema.

Teorema 4 (Minori e Indipendenza Lineare) Se i k vettori \boldsymbol{v}_{1},\,\boldsymbol{v}_{2},\ldots,\boldsymbol{v}_{k}\in\Bbb{K}^n sono linearmente indipendenti e k \leq n, allora esiste almeno un minore di ordine k non nullo della matrice \boldsymbol{A}\in \Bbb{K}^{k \times k} con n \geq k, definita come

\boldsymbol{A}= \begin{pmatrix}\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{k}\end{pmatrix}.

La dimostrazione di questo teorema è leggermente più complessa e richiede l’uso di alcuni risultati intermedi, che enunciamo nel lemma seguente.

Lemma 7 (Lemma Intermedio) Se i k vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2},, \boldsymbol{v}_{k} sono linearmente indipendenti e sostituiamo il i-esimo vettore con

\boldsymbol{z}= \boldsymbol{v}_{i} + \sum_{j=1 \atop j \neq i}^{k} \beta_j \boldsymbol{v}_{j},

per una qualsiasi scelta degli scalari \beta_1,\ldots,\beta_k, allora i k vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2},, \boldsymbol{v}_{i-1}, \boldsymbol{z}, \boldsymbol{v}_{i+1},, \boldsymbol{v}_{k} rimangono ancora linearmente indipendenti.

Dimostrazione. Consideriamo la seguente combinazione lineare dei vettori

\boldsymbol{0}= \gamma_1\boldsymbol{v}_{1} + \gamma_2\boldsymbol{v}_{2} + \cdots + \gamma_{i-1}\boldsymbol{v}_{i-1} + \gamma_i\boldsymbol{z}+ \gamma_{i+1}\boldsymbol{v}_{i+1} + \cdots + \gamma_k\boldsymbol{v}_{k}.

Sostituendo \boldsymbol{z} nella combinazione lineare, otteniamo

\begin{aligned} \boldsymbol{0}&= \gamma_1\boldsymbol{v}_{1} + \gamma_2\boldsymbol{v}_{2} + \cdots + \gamma_{i-1}\boldsymbol{v}_{i-1} + \gamma_i\left(\boldsymbol{v}_{i} + \sum_{j=1 \atop j \neq i}^{k} \beta_j \boldsymbol{v}_{j}\right) + \gamma_{i+1}\boldsymbol{v}_{i+1} + \cdots + \gamma_k\boldsymbol{v}_{k} \\ &= (\gamma_1 + \gamma_i \beta_1)\boldsymbol{v}_{1} + (\gamma_2 + \gamma_i \beta_2)\boldsymbol{v}_{2} + \cdots + (\gamma_{i-1} + \gamma_i \beta_{i-1})\boldsymbol{v}_{i-1} \\ &\qquad + \gamma_i \boldsymbol{v}_{i} + (\gamma_{i+1} + \gamma_i \beta_{i+1}) \boldsymbol{v}_{i+1} + \cdots + (\gamma_k + \gamma_i \beta_k) \boldsymbol{v}_{k}. \end{aligned}

Poiché i vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{k} sono linearmente indipendenti, i coefficienti delle loro combinazioni devono essere zero. Questo implica

\gamma_s + \gamma_i \beta_s = 0 \quad \text{per} \quad s \neq i

e

\gamma_i = 0.

Di conseguenza, si ha che

\gamma_s = 0 \quad \text{per} \quad s = 1, 2, \ldots, k,

ovvero, i vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{i-1}, \boldsymbol{z}, \boldsymbol{v}_{i+1}, , \boldsymbol{v}_{k} sono linearmente indipendenti.

Lemma 8 (Minori e Combinazioni Lineari) Sia \boldsymbol{A} una matrice le cui colonne sono date dai vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{k}. I minori di ordine k rimangono invariati se al i-esimo vettore si aggiunge una combinazione lineare degli altri vettori. In altre parole, se sostituiamo il vettore \boldsymbol{v}_{i} con il vettore

\boldsymbol{z}= \boldsymbol{v}_{i} + \sum_{j=1 \atop j \neq i}^{k} \beta_j \boldsymbol{v}_{j},

i minori di ordine k della matrice risultante rimangono invariati.

Dimostrazione. Consideriamo un generico minore di ordine k della matrice trasformata. Questo minore può essere scritto come

\boldsymbol{B}= \begin{pmatrix}\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, \ldots, \boldsymbol{w}_{i-1}, \boldsymbol{x}, \boldsymbol{w}_{i+1}, \ldots, \boldsymbol{w}_{k}\end{pmatrix},

dove \boldsymbol{w}_{i} è il vettore \boldsymbol{v}_{i} con le righe selezionate e \boldsymbol{x} è il vettore \boldsymbol{z} con le stesse righe selezionate. Osserviamo che

\boldsymbol{x}= \boldsymbol{w}_{i} + \sum_{j=1 \atop j \neq i}^{k} \beta_j \boldsymbol{w}_{j}.

Poiché il determinante di un minore di ordine k è invariato quando si sostituisce un vettore con una sua combinazione lineare degli altri vettori, il determinante della matrice \boldsymbol{B} rimane lo stesso. Questo risultato è confermato dal lemma Lemma 6.

Lemma 9 (Minori e Combinazioni Lineari) Sia \boldsymbol{A} una matrice le cui colonne sono i vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{k}, che sono linearmente indipendenti. Allora, mediante opportune combinazioni lineari dei vettori colonna che non alterano il valore dei minori di ordine k, è possibile ridurre \boldsymbol{A} alla forma:

\boldsymbol{A}= \begin{pmatrix} \boldsymbol{T}\\ \boldsymbol{M}\end{pmatrix},\quad \boldsymbol{T}= \begin{pmatrix} T_{1,1} & 0 & \cdots & 0 \\ T_{2,1} & T_{2,2} & & \vdots \\ \vdots & & \ddots & 0 \\ T_{k,1} & T_{k,2} & \cdots & T_{k,k} \end{pmatrix},

dove T_{i,i} \neq 0 per i=1,2,\ldots,k, a meno di permutazioni delle righe.

Dimostrazione. La dimostrazione si basa su una procedura costruttiva. Supponiamo inizialmente che

(\boldsymbol{v}_{1})_{1} \neq 0.

Se così non fosse, possiamo scambiare la prima riga con una riga i in cui

(\boldsymbol{v}_{i})_{1} \neq 0,

esiste almeno una tale riga i, altrimenti il vettore \boldsymbol{v}_{1} sarebbe nullo e i vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{k} sarebbero linearmente dipendenti.

Sostituiamo quindi \boldsymbol{v}_{i} con

\boldsymbol{z}_{i} = \boldsymbol{v}_{i} - \frac{(\boldsymbol{v}_{i})_{1}}{(\boldsymbol{v}_{1})_{1}} \boldsymbol{v}_{1} = \begin{pmatrix}0, (\boldsymbol{z}_{i})_{2}, (\boldsymbol{z}_{i})_{3}, \ldots, (\boldsymbol{z}_{i})_{k}\end{pmatrix}^T,

e otteniamo una nuova matrice \boldsymbol{B} nella forma:

\boldsymbol{B}= \begin{pmatrix} \begin{matrix} (\boldsymbol{v}_{1})_{1} & 0 & \cdots & 0 \\ \begin{matrix} (\boldsymbol{v}_{1})_{2} \\ \vdots \\ (\boldsymbol{v}_{1})_{n} \end{matrix} & \boldsymbol{C} \end{matrix} \end{pmatrix},

Dove \boldsymbol{C} è una matrice che può essere ulteriormente trattata. Ripetiamo il procedimento per le sottomatrici ottenute, osservando che una combinazione lineare di zeri resta zero, e quindi la struttura della matrice viene semplificata progressivamente.

A questo punto la dimostrazione del teorema Teorema 4 è immediata.

Dimostrazione Teorema 4

Dimostrazione. Si consideri il minore \boldsymbol{T} del lemma Lemma 9

Osservazione

Il lettore attento4 noterà che, senza esplicitarlo, stiamo impiegando un processo di eliminazione di Gauss sulla matrice \boldsymbol{B}^T. La triangolarizzazione mediante scambio di righe può essere effettuata in k passi proprio perché \boldsymbol{B} è di rango massimo, garantendo così la presenza di un elemento pivotale non nullo in ogni passo. Questo procedimento fornisce anche una tecnica pratica per determinare il rango di una matrice, alternativa alla metodologia ingenua di cercare manualmente la sottomatrice quadrata non singolare di dimensioni massime.

Questi risultati si riassumono nel teorema finale.

Teorema 5 (Indipendenza lineare) I vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, , \boldsymbol{v}_{k} sono linearmente indipendenti se e solo se la matrice \boldsymbol{A}, formata dalle loro componenti rispetto alla base canonica, possiede almeno un minore di ordine k non nullo.

Rango di una matrice

Definizione 4 (Rango) Il rango di una matrice rettangolare \boldsymbol{A} è definito come il massimo numero di vettori colonna linearmente indipendenti presenti in \boldsymbol{A}. Si denota con \mathrm{rank}(\boldsymbol{A}).

I teoremi finora dimostrati offrono un metodo per determinare il rango di una matrice.

Teorema 6 (Rango) Per una matrice \boldsymbol{A}, il rango della matrice è uguale all’ordine del minore più grande che sia non nullo.

Dimostrazione. Sia \boldsymbol{A} una matrice con colonne \boldsymbol{a}_{1}, \boldsymbol{a}_{2}, \ldots, \boldsymbol{a}_m. Consideriamo k colonne della matrice, \boldsymbol{a}_{i_1}, \boldsymbol{a}_{i_2}, \ldots, \boldsymbol{a}_{i_k}.

  1. Se i vettori \boldsymbol{a}_{i_1}, \boldsymbol{a}_{i_2}, \ldots, \boldsymbol{a}_{i_k} sono linearmente indipendenti, allora per il teorema Teorema 5, esiste almeno un minore di ordine k formato da queste colonne che ha determinante non nullo. Questo dimostra che il rango della matrice \boldsymbol{A} è almeno k.

  2. Viceversa, se esiste un minore di ordine k con determinante non nullo, formato dalle colonne \boldsymbol{a}_{i_1}, \boldsymbol{a}_{i_2}, \ldots, \boldsymbol{a}_{i_k}, allora i vettori \boldsymbol{a}_{i_1}, \boldsymbol{a}_{i_2}, \ldots, \boldsymbol{a}_{i_k} sono linearmente indipendenti per il teorema Teorema 5. Questo implica che il rango della matrice \boldsymbol{A} è almeno k.

In sintesi, il rango di una matrice è il numero massimo di colonne linearmente indipendenti, e questo corrisponde all’ordine del più grande minore non nullo della matrice.

Cofattori di una matrice quadrata

Sia \boldsymbol{A} una matrice quadrata di ordine n, che possiamo rappresentare come segue:

\boldsymbol{A}= \begin{pmatrix}\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{pmatrix},

dove \boldsymbol{A}_{\bullet,i} denota la i-esima colonna di \boldsymbol{A}.

Il determinante di \boldsymbol{A} può essere espresso come una combinazione lineare dei determinanti di matrici ottenute sostituendo ogni colonna della matrice \boldsymbol{A} con la base canonica \boldsymbol{e}_i. In particolare, possiamo scrivere:

\begin{aligned} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| &= \left|\begin{matrix}\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ &= \left|\begin{matrix}\sum_{i=1}^n A_{i,1} \boldsymbol{e}_i, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ &= \sum_{i=1}^n A_{i,1} \left|\begin{matrix}\boldsymbol{e}_i, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|. \end{aligned}

Dove:

  • A_{i,1} sono gli elementi della prima colonna della matrice \boldsymbol{A}.
  • \boldsymbol{e}_i è il vettore colonna della base canonica con 1 nella i-esima posizione e 0 altrove.
  • \left|\begin{matrix}\boldsymbol{e}_i, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right| è il minore che si ottiene eliminando la prima colonna e sostituendo la i-esima colonna con \boldsymbol{e}_i.

Questa formula esprime il determinante di \boldsymbol{A} come una somma pesata dei determinanti dei minori ottenuti con la sostituzione della colonna \boldsymbol{A}_{\bullet,1} con vettori della base canonica.

Cofattore

Definiamo i cofattori di una matrice quadrata come i determinanti delle matrici ottenute sostituendo una colonna con un vettore della base canonica.

Per una matrice quadrata \boldsymbol{A} di ordine n, il cofattore associato all’elemento \boldsymbol{A}_{i,j} è il determinante della matrice che si ottiene sostituendo la j-esima colonna della matrice \boldsymbol{A} con il vettore colonna della base canonica \boldsymbol{e}_i. Indichiamo questo cofattore con il simbolo \alpha_{i,j}:

\alpha_{i,j} = \left|\begin{matrix}\boldsymbol{A}_{\bullet,1}, \ldots, \boldsymbol{A}_{\bullet,j-1}, \boldsymbol{e}_i, \boldsymbol{A}_{\bullet,j+1}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|,

dove \boldsymbol{A}_{\bullet,k} rappresenta la k-esima colonna della matrice \boldsymbol{A}.

Matrice Cofattore

Data una matrice quadrata \boldsymbol{A}, la matrice cofattore di \boldsymbol{A}, indicata con \textrm{cofatt}\left\{\boldsymbol{A}\right\}, è una matrice composta dai cofattori \alpha_{i,j} di \boldsymbol{A}. Essa si costruisce sostituendo ogni elemento \boldsymbol{A}_{i,j} della matrice originale con il corrispondente cofattore \alpha_{i,j}. La matrice cofattore è quindi definita come segue:

\textrm{cofatt}\left\{\boldsymbol{A}\right\} = \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \cdots & \alpha_{1,n} \\ \alpha_{2,1} & \alpha_{2,2} & \cdots & \alpha_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ \alpha_{n,1} & \alpha_{n,2} & \cdots & \alpha_{n,n} \end{pmatrix},

dove ciascun elemento \alpha_{i,j} è il cofattore relativo all’elemento \boldsymbol{A}_{i,j} della matrice originale \boldsymbol{A}.

Introduciamo una notazione conveniente per i cofattori:

\alpha_{i,j} = \left|\begin{matrix}\boldsymbol{A}_{\bullet,1}, \ldots, \boldsymbol{A}_{\bullet,j-1}, \boldsymbol{e}_{i}, \boldsymbol{A}_{\bullet,j+1}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}\stackrel{j}{\leftarrow} \boldsymbol{e}_{i}\end{matrix}\right|,

dove \boldsymbol{A}\stackrel{j}{\leftarrow} \boldsymbol{v} denota la matrice ottenuta da \boldsymbol{A} sostituendo la j-esima colonna con il vettore colonna \boldsymbol{v}.

Con questa notazione, la formula di Cramer può essere espressa come segue:

\boldsymbol{A}\boldsymbol{x}= \boldsymbol{b}\quad \Rightarrow \quad x_k = \frac{\left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{b}\end{matrix}\right|}{\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|}.

In questa formula, \boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{b} indica la matrice ottenuta da \boldsymbol{A} sostituendo la k-esima colonna con il vettore \boldsymbol{b}.

La multilinearità del determinante può essere espressa come segue:

  1. Se sostituiamo la k-esima colonna di \boldsymbol{A} con \lambda \boldsymbol{v}, otteniamo \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \lambda \boldsymbol{v}\end{matrix}\right| = \lambda \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{v}\end{matrix}\right|.

  2. Se sostituiamo la k-esima colonna di \boldsymbol{A} con la somma \boldsymbol{v}+ \boldsymbol{w}, otteniamo \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} (\boldsymbol{v}+ \boldsymbol{w})\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{v}\end{matrix}\right| + \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{w}\end{matrix}\right|.

Utilizzando queste proprietà di linearità, possiamo calcolare il determinante attraverso lo sviluppo rispetto alla prima colonna:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \sum_{i=1}^n A_{i,1} \left|\begin{matrix}\boldsymbol{A}\stackrel{1}{\leftarrow} \boldsymbol{e}_i\end{matrix}\right| = \sum_{i=1}^n A_{i,1} \alpha_{i,1},

oppure, in modo simile, attraverso lo sviluppo rispetto alla k-esima colonna:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \sum_{i=1}^n A_{i,k} \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{e}_i\end{matrix}\right| = \sum_{i=1}^n A_{i,k} \alpha_{i,k}.

Queste proprietà e formule sono essenziali per il calcolo del determinante e saranno utilizzate nelle prossime sezioni.

Presentiamo ora una proprietà utile per il seguito.

Teorema 7 (Prodotto con la Matrice Cofattore) Sia \boldsymbol{A} una matrice quadrata e \alpha_{i,j} i suoi cofattori. Allora vale:

\delta_{j,k} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \sum_{i=1}^n A_{i,k} \alpha_{i,j},

dove \delta_{j,k} è il simbolo di Kronecker, che è uguale a 1 se j=k e 0 altrimenti.

Dimostrazione. Quando j=k, il teorema fornisce esattamente la formula dello sviluppo del determinante rispetto alla colonna k.

Per il caso j \neq k, consideriamo:

\begin{aligned} \sum_{i=1}^n A_{i,k} \alpha_{i,j} &= \sum_{i=1}^n A_{i,k} \left|\begin{matrix}\boldsymbol{A}\stackrel{j}{\leftarrow} \boldsymbol{e}_i\end{matrix}\right| \\ &= \sum_{i=1}^n \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} A_{i,j} \boldsymbol{e}_i\end{matrix}\right| \\ &= \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \left(\sum_{i=1}^n A_{i,k} \boldsymbol{e}_i \right)\end{matrix}\right| \\ &= \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{A}_{\bullet,k}\end{matrix}\right| = 0. \end{aligned}

Infatti, la matrice \boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{A}_{\bullet,k} si ottiene sostituendo la colonna j-esima della matrice \boldsymbol{A} con la colonna k-esima. Se j = k, otteniamo nuovamente la matrice \boldsymbol{A}, altrimenti otteniamo una matrice con due colonne identiche, il cui determinante è nullo, come stabilito nel lemma Lemma 4.

Enunciamo ora una proprietà che sarà utile nel seguito.

Teorema 8 (Prodotto con la Matrice Cofattore) Sia \boldsymbol{A} una matrice quadrata e \alpha_{i,j} i suoi cofattori. Allora vale:

\delta_{j,k} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \sum_{i=1}^n A_{i,k} \alpha_{i,j},

dove \delta_{j,k} è il simbolo di Kronecker, che è uguale a 1 se j=k e 0 altrimenti.

Dimostrazione. Quando j=k, il teorema fornisce esattamente la formula dello sviluppo del determinante rispetto alla colonna k.

Per il caso j \neq k, consideriamo:

\begin{aligned} \sum_{i=1}^n A_{i,k} \alpha_{i,j} &= \sum_{i=1}^n A_{i,k} \left|\begin{matrix}\boldsymbol{A}\stackrel{j}{\leftarrow} \boldsymbol{e}_i\end{matrix}\right| \\ &= \sum_{i=1}^n \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} A_{i,j} \boldsymbol{e}_i\end{matrix}\right| \\ &= \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \left(\sum_{i=1}^n A_{i,k} \boldsymbol{e}_i \right)\end{matrix}\right| \\ &= \left|\begin{matrix}\boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{A}_{\bullet,k}\end{matrix}\right| = 0. \end{aligned}

Infatti, la matrice \boldsymbol{A}\stackrel{k}{\leftarrow} \boldsymbol{A}_{\bullet,k} si ottiene sostituendo la colonna j-esima della matrice \boldsymbol{A} con la colonna k-esima. Se j = k, otteniamo nuovamente la matrice \boldsymbol{A}, altrimenti otteniamo una matrice con due colonne identiche, il cui determinante è nullo, come stabilito nel lemma Lemma 4.

Rappresentazione della matrice inversa

Il risultato precedente permette di definire una formula per la rappresentazione formale5 dell’inversa di una matrice quadrata.

Consideriamo, per iniziare, il seguente teorema.

Lemma 10 (Matrice Cofattore) Sia \boldsymbol{A} una matrice quadrata di ordine n e \textrm{cofatt}\left\{\boldsymbol{A}\right\} la sua matrice cofattore. Allora si ha:

\textrm{cofatt}\left\{\boldsymbol{A}\right\}^T \boldsymbol{A}= \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| \boldsymbol{I}.

Dimostrazione. Consideriamo il prodotto della trasposta della matrice cofattore di \boldsymbol{A} per la matrice \boldsymbol{A}.

Per calcolare l’elemento (j,k) della matrice prodotto \textrm{cofatt}\left\{\boldsymbol{A}\right\}^T \boldsymbol{A}, dobbiamo considerare la somma:

\left(\textrm{cofatt}\left\{\boldsymbol{A}\right\}^T \boldsymbol{A}\right)_{jk} = \sum_{i=1}^n (\textrm{cofatt}\left\{\boldsymbol{A}\right\})_{i,j} A_{i,k}.

Dove (\textrm{cofatt}\left\{\boldsymbol{A}\right\})_{i,j} = \alpha_{i,j} è il cofattore dell’elemento A_{i,j} della matrice \boldsymbol{A}. Quindi possiamo scrivere:

\sum_{i=1}^n (\textrm{cofatt}\left\{\boldsymbol{A}\right\})_{i,j} A_{i,k} = \sum_{i=1}^n \alpha_{i,j} A_{i,k}.

Applicando il lemma Teorema 8, otteniamo:

\sum_{i=1}^n \alpha_{i,j} A_{i,k} = \delta_{jk} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|.

Pertanto, l’elemento (j,k) della matrice prodotto è:

\left(\textrm{cofatt}\left\{\boldsymbol{A}\right\}^T \boldsymbol{A}\right)_{jk} = \delta_{jk} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|,

che corrisponde all’elemento (j,k) della matrice \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| \boldsymbol{I}. Di conseguenza:

\textrm{cofatt}\left\{\boldsymbol{A}\right\}^T \boldsymbol{A}= \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| \boldsymbol{I}.

Il teorema seguente fornisce l’espressione dell’inversa di una matrice \boldsymbol{A} con determinante non nullo.

Teorema 9 (Matrice Inversa) Sia \boldsymbol{A} una matrice quadrata di ordine n con determinante diverso da zero. Allora \boldsymbol{A} è invertibile e la sua inversa è data da:

\boldsymbol{A}^{-1} = \frac{1}{\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|} \textrm{cofatt}\left\{\boldsymbol{A}\right\}^T.

Dimostrazione. Utilizzando il lemma Lemma 10, abbiamo:

\textrm{cofatt}(\boldsymbol{A})^T \boldsymbol{A}= \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| \boldsymbol{I}.

Dividendo entrambi i membri per \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|, otteniamo:

\frac{1}{\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|} \textrm{cofatt}(\boldsymbol{A})^T \boldsymbol{A}= \boldsymbol{I}.

Questo dimostra che:

\frac{1}{\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|} \textrm{cofatt}(\boldsymbol{A})^T

è una matrice che, moltiplicata per \boldsymbol{A}, dà l’identità \boldsymbol{I}, quindi è l’inversa di \boldsymbol{A}.

Poiché l’inversa di una matrice è unica, abbiamo che:

\boldsymbol{A}^{-1} = \frac{1}{\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|} \textrm{cofatt}\left\{\boldsymbol{A}\right\}^T.

Osservazione

Questa formula fornisce una rappresentazione esplicita della matrice inversa. È importante notare che l’inversa di una matrice può essere calcolata solo se il determinante della matrice è diverso da zero, il che implica che la matrice \boldsymbol{A} deve avere rango massimo.

Questa osservazione è simile a quella fatta per la regola di Cramer. Sebbene la formula dell’inversa sia teoricamente interessante, in pratica risulta poco utile per grandi matrici. Il motivo è che il calcolo di n^2 cofattori, e quindi di minori di ordine n-1, è computazionalmente oneroso.

Come anticipato per la regola di Cramer, esistono tecniche numeriche più efficienti per calcolare l’inversa di una matrice, che richiedono un costo computazionale significativamente inferiore.

Calcolo dei cofattori

Teorema 10 (Matrice cofattore) Sia \boldsymbol{A} una matrice quadrata di ordine n e \alpha_{i,j} il cofattore associato all’elemento A_{i,j} di \boldsymbol{A}. Allora, il cofattore \alpha_{i,j} è dato da

\alpha_{i,j} = (-1)^{i+j} \left|\begin{matrix}\boldsymbol{A}_{-i,-j}\end{matrix}\right| = (-1)^{i-j} \left|\begin{matrix}\boldsymbol{A}_{-i,-j}\end{matrix}\right|,

dove \boldsymbol{A}_{-i,-j} è la sottomatrice di \boldsymbol{A} ottenuta eliminando la riga i e la colonna j.

Dimostrazione. Consideriamo il determinante del seguente blocco di matrice:

\alpha_{i,j} = \left| \begin{array}{ccc|c|ccc} A_{1,1} & \cdots & A_{1,j-1} & 0 & A_{1,j+1} & \cdots & A_{1,n} \\ \vdots & & \vdots & \vdots & \vdots & & \vdots \\ A_{i-1,1} & \cdots & A_{i-1,j-1} & 0 & A_{i-1,j+1} & \cdots & A_{i-1,n} \\ \hline A_{i,1} & \cdots & A_{i,j-1} & 1 & A_{i,j+1} & \cdots & A_{i,n} \\ \hline A_{i+1,1} & \cdots & A_{i+1,j-1} & 0 & A_{i+1,j+1} & \cdots & A_{i+1,n} \\ \vdots & & \vdots & \vdots & \vdots & & \vdots \\ A_{n,1} & \cdots & A_{n,j-1} & 0 & A_{n,j+1} & \cdots & A_{n,n} \end{array} \right|

Possiamo semplificare questa matrice tramite opportune combinazioni lineari delle colonne:

\alpha_{i,j} = \left| \begin{array}{ccc|c|ccc} A_{1,1} & \cdots & A_{1,j-1} & 0 & A_{1,j+1} & \cdots & A_{1,n} \\ \vdots & & \vdots & \vdots & \vdots & & \vdots \\ A_{i-1,1} & \cdots & A_{i-1,j-1} & 0 & A_{i-1,j+1} & \cdots & A_{i-1,n} \\ \hline 0 & \cdots & 0 & 1 & 0 & \cdots & 0 \\ \hline A_{i+1,1} & \cdots & A_{i+1,j-1} & 0 & A_{i+1,j+1} & \cdots & A_{i+1,n} \\ \vdots & & \vdots & \vdots & \vdots & & \vdots \\ A_{n,1} & \cdots & A_{n,j-1} & 0 & A_{n,j+1} & \cdots & A_{n,n} \end{array} \right|

Definiamo i vettori

\begin{aligned} \boldsymbol{v}_{1} &= \begin{pmatrix} A_{1,1} \\ \vdots \\ A_{i-1,1} \\ \hline A_{i+1,1} \\ \vdots \\ A_{n,1} \end{pmatrix}, \quad \boldsymbol{v}_{2} = \begin{pmatrix} A_{1,2} \\ \vdots \\ A_{i-1,2} \\ \hline A_{i+1,2} \\ \vdots \\ A_{n,2} \end{pmatrix}, \cdots, \quad \boldsymbol{v}_{j-1} = \begin{pmatrix} A_{1,j-1} \\ \vdots \\ A_{i-1,j-1} \\ \hline A_{i+1,j-1} \\ \vdots \\ A_{n,j-1} \end{pmatrix}, \\ \boldsymbol{v}_{j+1} &= \begin{pmatrix} A_{1,j+1} \\ \vdots \\ A_{i-1,j+1} \\ \hline A_{i+1,j+1} \\ \vdots \\ A_{n,j+1} \end{pmatrix}, \quad \boldsymbol{v}_{j+2} = \begin{pmatrix} A_{1,j+2} \\ \vdots \\ A_{i-1,j+2} \\ \hline A_{i+1,j+2} \\ \vdots \\ A_{n,j+2} \end{pmatrix}, \cdots, \quad \boldsymbol{v}_{n} = \begin{pmatrix} A_{1,n} \\ \vdots \\ A_{i-1,n} \\ \hline A_{i+1,n} \\ \vdots \\ A_{n,n} \end{pmatrix}. \end{aligned}

Si verifica facilmente che \alpha_{i,j} può essere espressa come funzione dei vettori \boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{j-1}, \boldsymbol{v}_{j+1}, \ldots, \boldsymbol{v}_{n}. Quindi possiamo scrivere:

\alpha_{i,j} = f_{ij}(\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{j-1}, \boldsymbol{v}_{j+1}, \ldots, \boldsymbol{v}_{n}),

dove la funzione f_{ij} soddisfa i primi due assiomi sui determinanti. Definiamo il simbolo \boldsymbol{I}_{n} \in \Bbb{K}^{n \times n} come la matrice identità di dimensioni n \times n. Per il corollario del teorema Teorema 1 abbiamo:

\begin{aligned} \alpha_{i,j} &= f_{ij}(\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{j-1}, \boldsymbol{v}_{j+1}, \ldots, \boldsymbol{v}_{n}), \\ &= \left|\begin{matrix}\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{j-1}, \boldsymbol{v}_{j+1}, \ldots, \boldsymbol{v}_{n}\end{matrix}\right| f_{ij}(\boldsymbol{I}_{n-1}), \end{aligned}

e osserviamo che

\begin{aligned} &\left|\begin{matrix}\boldsymbol{v}_{1}, \boldsymbol{v}_{2}, \ldots, \boldsymbol{v}_{j-1}, \boldsymbol{v}_{j+1}, \ldots, \boldsymbol{v}_{n}\end{matrix}\right| \\ &\qquad= \left| \begin{array}{ccc|ccc} A_{1,1} & \cdots & A_{1,j-1} & A_{1,j+1} & \cdots & A_{1,n} \\ \vdots & & \vdots & \vdots & & \vdots \\ A_{i-1,1} & \cdots & A_{i-1,j-1} & A_{i-1,j+1} & \cdots & A_{i-1,n} \\ \hline A_{i+1,1} & \cdots & A_{i+1,j-1} & A_{i+1,j+1} & \cdots & A_{i+1,n} \\ \vdots & & \vdots & \vdots & & \vdots \\ A_{n,1} & \cdots & A_{n,j-1} & A_{n,j+1} & \cdots & A_{n,n} \end{array} \right|, \\ &\qquad= \left|\begin{matrix}\boldsymbol{A}_{-i,-j}\end{matrix}\right|. \end{aligned}

Supponendo i < j, otteniamo:

\begin{aligned} f_{ij}(\boldsymbol{I}_{n-1}) &= \left|\begin{matrix}\boldsymbol{e}_{1}, \ldots, \boldsymbol{e}_{i-1}, \boldsymbol{e}_{i+1}, \ldots, \boldsymbol{e}_{j-1}, \boldsymbol{e}_{i}, \boldsymbol{e}_{j}, \ldots, \boldsymbol{e}_{n}\end{matrix}\right|, \end{aligned}

dove \boldsymbol{e}_{1}, \boldsymbol{e}_{2}, \ldots, \boldsymbol{e}_{n} è la base canonica di \Bbb{K}^{n \times n}. Dopo \left\lvert i-j\right\rvert scambi, otteniamo:

\begin{aligned} &\boldsymbol{e}_{1}, \ldots, \boldsymbol{e}_{i-1}, \boldsymbol{e}_{i+1}, \ldots, \boldsymbol{e}_{j-1}, \boldsymbol{e}_{i}, \boldsymbol{e}_{j}, \ldots, \boldsymbol{e}_{n}, \\ &\Rightarrow \\ &\boldsymbol{e}_{1}, \boldsymbol{e}_{2}, \ldots, \boldsymbol{e}_{n}. \end{aligned}

Pertanto:

\begin{aligned} f_{ij}(\boldsymbol{e}_{1}, \boldsymbol{e}_{2}, \ldots, \boldsymbol{e}_{n-1}) &= \left|\begin{matrix}\boldsymbol{e}_{1}, \ldots, \boldsymbol{e}_{i-1}, \boldsymbol{e}_{i+1}, \ldots, \boldsymbol{e}_{j-1}, \boldsymbol{e}_{i}, \boldsymbol{e}_{j}, \ldots, \boldsymbol{e}_{n}\end{matrix}\right|, \\ &= (-1)^{\left\lvert i-j\right\rvert} \left|\begin{matrix}\boldsymbol{e}_{1}, \boldsymbol{e}_{2}, \ldots, \boldsymbol{e}_{n}\end{matrix}\right|, \\ &= (-1)^{\left\lvert i-j\right\rvert}. \end{aligned}

Corollario 3 (Corollario) Il determinante ha quindi il seguente sviluppo (detto di Laplace6)

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right|=\sum_{i=1}^n (-1)^{i+j} A_{i,j}\left|\begin{matrix}\boldsymbol{A}_{-i,-j}\end{matrix}\right|, \qquad j=1,2,\ldots,n.

Determinante della Trasposta

Ci chiediamo ora che valore assume il determinante della matrice trasposta. Abbiamo già visto lo sviluppo del determinante lungo le colonne; cerchiamo ora una formula analoga per lo sviluppo per righe.

Teorema 11 (Sviluppo per Riga) Il determinante può essere sviluppato lungo la riga i come segue:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \sum_{j=1}^n (-1)^{i+j} A_{i,j} \left|\begin{matrix}\boldsymbol{A}_{-i,-j}\end{matrix}\right|,\quad i=1,2,\ldots,n. \tag{4}

Dimostrazione. Consideriamo il determinante di \boldsymbol{A}:

\begin{aligned} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| &= \left|\begin{matrix}\boldsymbol{A}_{\bullet,1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ &= \left|\begin{matrix}A_{1,1} \boldsymbol{e}_{1} + \boldsymbol{b}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \end{aligned}

dove

\boldsymbol{b}= \begin{pmatrix}0 \\ A_{2,1} \\ \vdots \\ A_{n,1}\end{pmatrix},

e applicando la multilinearità del determinante otteniamo:

\begin{aligned} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| &= \left|\begin{matrix}A_{1,1} \boldsymbol{e}_{1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right| + \left|\begin{matrix}\boldsymbol{b}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ &= A_{1,1} \left|\begin{matrix}\boldsymbol{e}_{1}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right| + \left|\begin{matrix}\boldsymbol{b}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ &= A_{1,1} \alpha_{1,1} + \left|\begin{matrix}\boldsymbol{b}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \end{aligned}

Proseguendo in modo analogo, otteniamo:

\begin{aligned} \left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| &= A_{1,1} \alpha_{1,1} + \left|\begin{matrix}\boldsymbol{b}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ &= A_{1,1} \alpha_{1,1} + A_{1,2} \alpha_{1,2} + \left|\begin{matrix}\boldsymbol{c}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ & \vdots \\ &= A_{1,1} \alpha_{1,1} + \cdots + A_{1,n} \alpha_{1,n} + \left|\begin{matrix}\boldsymbol{0}, \boldsymbol{A}_{\bullet,2}, \ldots, \boldsymbol{A}_{\bullet,n}\end{matrix}\right|, \\ &= A_{1,1} \alpha_{1,1} + \cdots + A_{1,n} \alpha_{1,n}, \end{aligned}

e utilizzando il teorema Teorema 10, otteniamo l’espressione Equazione 4.

Siamo in grado ora di dimostrare il seguente teorema

Teorema 12 (Determinante della Trasposta) Sia \boldsymbol{A} una matrice quadrata di ordine n. Allora:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{A}^T\end{matrix}\right|.

Dimostrazione. La dimostrazione si può effettuare per induzione sull’ordine della matrice.

  • Caso base: Per n=1, non c’è nulla da dimostrare poiché il determinante di una matrice 1 \times 1 è triviale.

  • Passo induttivo: Supponiamo che il teorema sia vero per una matrice di ordine n-1. Dobbiamo dimostrare che vale anche per una matrice di ordine n.

    Consideriamo il determinante di \boldsymbol{A} sviluppato lungo la prima colonna e il determinante di \boldsymbol{A}^T sviluppato lungo la prima riga. In entrambi i casi, otteniamo una somma di termini in cui ogni termine è il prodotto di un elemento della colonna di \boldsymbol{A} o della riga di \boldsymbol{A}^T (che coincidono) e i corrispondenti cofattori.

    Questi cofattori sono determinanti di sottomatrici di ordine n-1. Le sottomatrici di \boldsymbol{A} e \boldsymbol{A}^T sono trasposte l’una dell’altra, quindi, per l’ipotesi induttiva, i determinanti delle sottomatrici sono uguali.

    Pertanto, il determinante di \boldsymbol{A} e il determinante di \boldsymbol{A}^T sono uguali, e il teorema è dimostrato.

Determinante delle Matrici Diagonali a Blocchi

Teorema 13 Sia \boldsymbol{A} una matrice quadrata partizionata a blocchi come segue:

\boldsymbol{A}= \begin{pmatrix}\boldsymbol{B}& \boldsymbol{0}\\ \boldsymbol{0}& \boldsymbol{C}\end{pmatrix},

dove \boldsymbol{B}\in \Bbb{K}^{p \times p} e \boldsymbol{C}\in \Bbb{K}^{q \times q}. Allora:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right| \left|\begin{matrix}\boldsymbol{C}\end{matrix}\right|.

Dimostrazione. Fissata la matrice \boldsymbol{C}, il determinante di \boldsymbol{A} è una funzione delle colonne della matrice \boldsymbol{B}. Pertanto, possiamo scrivere:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \mathcal{D}_{\boldsymbol{C}}(\boldsymbol{B}_{\bullet,1}, \boldsymbol{B}_{\bullet,2}, \ldots, \boldsymbol{B}_{\bullet,p}).

È immediato verificare che \mathcal{D}_{\boldsymbol{C}}(\boldsymbol{B}_{\bullet,1}, \boldsymbol{B}_{\bullet,2}, \ldots, \boldsymbol{B}_{\bullet,p}) soddisfa i primi due assiomi dei determinanti. Pertanto, per il corollario del teorema Teorema 1, otteniamo:

\begin{aligned} \mathcal{D}_{\boldsymbol{C}}(\boldsymbol{B}_{\bullet,1}, \boldsymbol{B}_{\bullet,2}, \ldots, \boldsymbol{B}_{\bullet,p}) &= \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right| \mathcal{D}_{\boldsymbol{C}}(\boldsymbol{I}_{\bullet,1}, \boldsymbol{I}_{\bullet,2}, \ldots, \boldsymbol{I}_{\bullet,p}), \\ &= \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right| \left|\begin{matrix}\boldsymbol{I}& \boldsymbol{0}\\ \boldsymbol{0}& \boldsymbol{C}\end{matrix}\right|. \end{aligned}

In maniera analoga, otteniamo:

\begin{aligned} \left|\begin{matrix}\boldsymbol{I}& \boldsymbol{0}\\ \boldsymbol{0}& \boldsymbol{C}\end{matrix}\right| &= \mathcal{D}_{\boldsymbol{I}}(\boldsymbol{C}_{\bullet,1}, \boldsymbol{C}_{\bullet,2}, \ldots, \boldsymbol{C}_{\bullet,q}), \\ &= \left|\begin{matrix}\boldsymbol{C}\end{matrix}\right| \left|\begin{matrix}\boldsymbol{I}_{\bullet,1}, \boldsymbol{I}_{\bullet,2}, \ldots, \boldsymbol{I}_{\bullet,q}\end{matrix}\right|, \\ &= \left|\begin{matrix}\boldsymbol{C}\end{matrix}\right| \left|\begin{matrix}\boldsymbol{I}& \boldsymbol{0}\\ \boldsymbol{0}& \boldsymbol{I}\end{matrix}\right|, \\ &= \left|\begin{matrix}\boldsymbol{C}\end{matrix}\right|. \end{aligned}

Da cui segue subito:

\left|\begin{matrix}\boldsymbol{A}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right| \left|\begin{matrix}\boldsymbol{I}& \boldsymbol{0}\\ \boldsymbol{0}& \boldsymbol{C}\end{matrix}\right| = \left|\begin{matrix}\boldsymbol{B}\end{matrix}\right| \left|\begin{matrix}\boldsymbol{C}\end{matrix}\right|.

Note

  1. Jacques Philippe Marie Binet (1786-1856)↩︎

  2. Perché è necessario che n \geq k? Cosa accadrebbe se invece n < k?↩︎

  3. Ricordiamo che dalla logica elementare se la proposizione \mathcal{A} implica \mathcal{B}, allora la negazione di \mathcal{B} implica la negazione di \mathcal{A}.↩︎

  4. Si riferisce al lettore con una certa familiarità con le tecniche di algebra lineare.↩︎

  5. Si noti bene che si sta parlando di rappresentazione formale e non di calcolo della matrice inversa.↩︎

  6. Pierre-Simon Laplace (1749-1827)↩︎