Queste note sono basate sugli appunti fatti con Gianmarco Manzini negli anni 1995-2005

Matrici e vettori

Prerequisiti di algebra lineare

Autore/Autrice
Affiliazione

Enrico Bertolazzi

University of Trento, Department of Industrial Engineering

Introduzione

Notazioni

In questi appunti, i vettori saranno indicati con lettere in grassetto minuscole, ad esempio:

\boldsymbol{a},\qquad \boldsymbol{b},\qquad \boldsymbol{c},

sono vettori. Le componenti dei vettori saranno indicate con la stessa lettera del vettore in corsivo, ad esempio:

a_1,\qquad a_2,\qquad c_i,\qquad b_j,

sono componenti dei vettori \boldsymbol{a}, \boldsymbol{b} e \boldsymbol{c}. Le matrici saranno indicate con lettere in grassetto maiuscole, ad esempio:

\boldsymbol{A},\qquad \boldsymbol{B},\qquad \boldsymbol{C},

sono matrici. Le componenti delle matrici saranno indicate con la stessa lettera in corsivo, ad esempio:

A_{1,3},\qquad B_{i,3},\qquad C_{j,2},

sono componenti delle matrici \boldsymbol{A}, \boldsymbol{B} e \boldsymbol{C}. Gli scalari saranno normalmente indicati con lettere greche, ad esempio:

\alpha,\qquad \beta,\qquad \gamma,\qquad \ldots

Con il simbolo \Bbb{K} indicheremo sia il campo dei numeri reali \Bbb{R} sia il campo dei numeri complessi \Bbb{C}. Questo consente di usare \Bbb{K} al posto di \Bbb{R} o \Bbb{C}, evitando così duplicazioni nelle definizioni.

Matrici

Definizione 1 (Matrice) Una matrice \boldsymbol{A}\in \Bbb{K}^{m \times n} è un insieme di m \times n numeri reali o complessi organizzati in m righe e n colonne. Ad esempio:

\boldsymbol{A}= \begin{pmatrix} 1 & 2 & 3 \\ -2 & 2 & 0 \end{pmatrix},

è una matrice 2 \times 3, ossia una matrice con 2 righe e 3 colonne. Se la matrice \boldsymbol{A} è a valori reali, si indica \boldsymbol{A}\in \Bbb{R}^{m \times n}. Analogamente, se è a valori complessi, si usa \boldsymbol{A}\in \Bbb{C}^{m \times n}. In generale, \boldsymbol{A}\in \Bbb{K}^{m \times n} può rappresentare sia matrici a valori reali che complessi. Se non diversamente specificato, si assume che le matrici e i vettori siano a valori reali.

Definizione 2 (Matrice quadrata) Una matrice si dice matrice quadrata se ha lo stesso numero di righe e di colonne. Le due matrici più semplici sono:

  • La matrice nulla, indicata con \boldsymbol{0}, che ha tutti gli elementi uguali a zero:

\boldsymbol{0}= \begin{pmatrix} 0 & 0 & \cdots & 0 \\ 0 & 0 & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & 0\end{pmatrix},

  • La matrice identità, indicata con \boldsymbol{I}, che è una matrice quadrata con tutti gli elementi nulli tranne quelli sulla diagonale principale, che sono tutti uguali a 1:

\boldsymbol{I}= \begin{pmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & 1\end{pmatrix}.

Definizione 3 (Matrici triangolari) Una matrice quadrata \boldsymbol{A} è detta triangolare superiore se:

A_{i,j} = 0, \qquad \text{per ogni } i > j,

dove i è l’indice di riga e j è l’indice di colonna. Questa matrice può essere visualizzata come:

\boldsymbol{A}= \begin{pmatrix} * & * & \cdots & * \\ 0 & * & \ddots & \vdots \\ \vdots & \ddots & \ddots & * \\ 0 & \cdots & 0 & * \end{pmatrix}

dove gli elementi contrassegnati con 0 sono detti zeri strutturali, mentre * rappresenta gli elementi che possono assumere valori diversi da zero, definiti come non-zero1. Analogamente, una matrice triangolare inferiore ha tutti gli zeri sopra la diagonale principale.

Esempio

Le matrici

\boldsymbol{A}=\begin{pmatrix}1 & 2 & 3 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}, \quad \boldsymbol{B}=\begin{pmatrix}0 & 2 & 3 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}, \quad \boldsymbol{C}=\begin{pmatrix}1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 1 \end{pmatrix},

sono tutte triangolari superiori, la matrice \boldsymbol{C} è anche triangolare inferiore.

Vettori

Definizione 4 (Vettori riga e colonna) Una matrice di dimensioni 1 \times n è chiamata vettore riga e ha dimensione n. Ad esempio, un vettore riga con n elementi può essere rappresentato come:

\boldsymbol{a}= \begin{pmatrix} a_1 & a_2 & \cdots & a_n \end{pmatrix}.

Analogamente, una matrice di dimensioni m \times 1 è chiamata vettore colonna e ha dimensione m. Un vettore colonna con m elementi può essere rappresentato come:

\boldsymbol{b}= \begin{pmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{pmatrix}.

Nel seguito, considereremo principalmente vettori colonna. Pertanto, quando faremo riferimento a un vettore senza specificare se si tratta di un vettore riga o colonna, intendiamo sempre un vettore colonna.

Esempio

Le due seguenti matrici:

\boldsymbol{a}=\begin{pmatrix}1 & 1 & 2 & 3\end{pmatrix}, \qquad \boldsymbol{b}=\begin{pmatrix} 1\\ 3\\ 4\end{pmatrix},

si possono considerare vettori: \boldsymbol{a} vettore riga di dimensione 4 e \boldsymbol{b} vettore colonna di dimensione 3.

Quando si indica una componente di un vettore riga o colonna, l’indice di riga o colonna è spesso omesso. Ad esempio:

  • Per un vettore riga, la componente nella posizione 2 si scrive semplicemente come a_2, senza indicare l’indice di riga. Quindi, per un vettore riga \boldsymbol{a}, la seconda componente è a_2.

  • Analogamente, per un vettore colonna, la componente nella posizione i è scritta come b_i, senza specificare l’indice di colonna.

In generale, per semplicità, si tende a usare solo l’indice della componente senza menzionare esplicitamente la riga o la colonna.

Somma, differenza e prodotto per uno scalare

Definizione 5 (Somma di matrici) Date due matrici \boldsymbol{A} e \boldsymbol{B}, entrambe appartenenti allo spazio \Bbb{K}^{m \times n} (cioè matrici con m righe e n colonne), possiamo definire la loro somma \boldsymbol{C} come segue:

\boldsymbol{C}= \boldsymbol{A}+ \boldsymbol{B}

La matrice \boldsymbol{C} è anch’essa una matrice in \Bbb{K}^{m \times n} e ogni suo elemento è dato dalla somma degli elementi corrispondenti di \boldsymbol{A} e \boldsymbol{B}. Più precisamente, per ogni elemento C_{i,j} della matrice \boldsymbol{C}, abbiamo:

C_{i,j} = A_{i,j} + B_{i,j}, \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

Analogamente, la differenza tra due matrici \boldsymbol{A} e \boldsymbol{B} è definita come:

\boldsymbol{D}= \boldsymbol{A}- \boldsymbol{B}

dove ogni elemento D_{i,j} della matrice \boldsymbol{D} è dato dalla differenza degli elementi corrispondenti di \boldsymbol{A} e \boldsymbol{B}:

D_{i,j} = A_{i,j} - B_{i,j}, \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

Esempio

Date le matrici 2 \times 3

\boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3 \\ -2 & 2 & 0 \end{pmatrix}, \qquad \boldsymbol{B}=\begin{pmatrix} 0 & -1 & 1 \\ 4 & 3 & 2 \end{pmatrix},

otteniamo

\boldsymbol{A}+\boldsymbol{B}= \begin{pmatrix}1 & 1 & 4 \\ 2 & 5 & 2\end{pmatrix}, \qquad \boldsymbol{A}-\boldsymbol{B}= \begin{pmatrix} 1 & 3 & 2 \\ -6 & -1 & -2\end{pmatrix}.

Definizione 6 (Prodotto matrice scalare) Data una matrice \boldsymbol{A}\in \Bbb{K}^{m \times n} e uno scalare \alpha \in \Bbb{K}, possiamo definire il prodotto dello scalare \alpha con la matrice \boldsymbol{A} come segue:

\boldsymbol{B}= \alpha \boldsymbol{A}

La matrice \boldsymbol{B} è anch’essa una matrice in \Bbb{K}^{m \times n} e ogni elemento di \boldsymbol{B} è ottenuto moltiplicando l’elemento corrispondente di \boldsymbol{A} per lo scalare \alpha. In altre parole, per ogni elemento B_{i,j} della matrice \boldsymbol{B}, abbiamo:

B_{i,j} = \alpha A_{i,j}, \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

Esempio

Data la matrice \boldsymbol{A}\in\Bbb{R}^{2\times 3}

\boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3 \\ -2 & 2 & 0 \end{pmatrix},

otteniamo

2\boldsymbol{A}= \begin{pmatrix} 2 & 4 & 6 \\ -4 & 4 & 0 \end{pmatrix}, \qquad -2.5\boldsymbol{A}= \begin{pmatrix} -2.5 & -5 & -7.5 \\ 5 & -5 & 0 \end{pmatrix}.

Definizione 7 (Valore assoluto per componenti) Data una matrice \boldsymbol{A}\in \Bbb{K}^{m \times n}, possiamo definire la matrice \left\lvert\boldsymbol{A}\right\rvert come la matrice i cui elementi sono i valori assoluti (o i moduli, se \boldsymbol{A} è a valori complessi) degli elementi di \boldsymbol{A}. In altre parole, se \boldsymbol{B}= \left\lvert\boldsymbol{A}\right\rvert, allora ogni elemento B_{i,j} della matrice \boldsymbol{B} è dato dal valore assoluto dell’elemento corrispondente A_{i,j} della matrice \boldsymbol{A}. Formalmente:

\boldsymbol{B}= \left\lvert\boldsymbol{A}\right\rvert \quad \text{implica} \quad B_{i,j} = \left\lvert A_{i,j}\right\rvert, \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

Dove \left\lvert x\right\rvert2 denota il valore assoluto di un numero reale x o il modulo di un numero complesso3.

Esempio

Consideriamo le seguenti matrici:

\boldsymbol{A}= \begin{pmatrix}1 & 2 & 3 \\ 1 & -2 & 1 \\ -2 & -3 & 2\end{pmatrix},

\boldsymbol{B}= \begin{pmatrix}1 + {\color{blue}\imath}& 3 + 4{\color{blue}\imath}& 3 \\ 1 & -2 & 1 \\ -2 & -3 - {\color{blue}\imath}& 1\end{pmatrix},

Per ottenere le matrici dei valori assoluti (o moduli, nel caso di numeri complessi), calcoliamo:

\left\lvert\boldsymbol{A}\right\rvert = \begin{pmatrix}1 & 2 & 3 \\ 1 & 2 & 1 \\ 2 & 3 & 2\end{pmatrix},

\left\lvert\boldsymbol{B}\right\rvert = \begin{pmatrix}\sqrt{2} & 5 & 3 \\ 1 & 2 & 1 \\ 2 & 2 & 1\end{pmatrix}.

Dove, per ogni elemento, abbiamo utilizzato il valore assoluto per i numeri reali e il modulo per i numeri complessi. Ad esempio:

  • Per la matrice \boldsymbol{A}, il valore assoluto di ogni elemento è il numero stesso se è positivo o il suo valore assoluto se è negativo.
  • Per la matrice \boldsymbol{B}, abbiamo calcolato il modulo di ogni elemento complesso. Per esempio, il modulo di 1 + {\color{blue}\imath} è \sqrt{2}, e il modulo di 3 + 4{\color{blue}\imath} è 5.

Definizione 8 (Confronto di matrici) Date due matrici \boldsymbol{A} e \boldsymbol{B} appartenenti a \Bbb{R}^{m \times n}, la notazione \boldsymbol{A}\geq \boldsymbol{B} indica che ogni elemento della matrice \boldsymbol{A} è maggiore o uguale al corrispondente elemento della matrice \boldsymbol{B}. Formalmente, abbiamo:

A_{i,j} \geq B_{i,j} \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

Questa definizione si applica anche ai vettori riga e colonna come casi particolari. In particolare:

  • Un vettore riga di dimensione 1 \times n può essere visto come una matrice 1 \times n.
  • Un vettore colonna di dimensione m \times 1 può essere visto come una matrice m \times 1.

Quindi, per i vettori, la notazione \boldsymbol{a}\geq \boldsymbol{b} implica che ogni elemento del vettore \boldsymbol{a} è maggiore o uguale al corrispondente elemento del vettore \boldsymbol{b}.

In modo analogo con la scrittura \boldsymbol{A}>\boldsymbol{B} si intende

A_{i,j} > B_{i,j}\qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

Esempio

Date le matrici

\boldsymbol{A}=\begin{pmatrix} 1 & 1 & -1 \\ 0 & 2 & 2 \end{pmatrix}, \quad \boldsymbol{B}=\begin{pmatrix} 0 & 1 & -1 \\ 0 & 0 & 1 \end{pmatrix}, \quad \boldsymbol{C}=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 2 & 1 \end{pmatrix},

abbiamo \boldsymbol{A}\geq\boldsymbol{B} e \boldsymbol{C}\geq\boldsymbol{B} mentre \boldsymbol{A} e \boldsymbol{C} non sono confrontabili.

Esempio

Date le matrici

\boldsymbol{A}=\begin{pmatrix} 1 & 1 \\ 2 & 2\end{pmatrix}, \qquad \boldsymbol{B}=\begin{pmatrix} 0 & 0 \\ 0 & 1\end{pmatrix},

abbiamo \boldsymbol{A}>\boldsymbol{B}.

Operazioni con le matrici

Definizione 9 (Prodotto di matrici) Dato che abbiamo due matrici \boldsymbol{A}\in \Bbb{K}^{m \times n} e \boldsymbol{B}\in \Bbb{K}^{n \times p}, possiamo definire il loro prodotto \boldsymbol{C}= \boldsymbol{A}\boldsymbol{B} come una matrice \Bbb{K}^{m \times p}, dove ogni elemento C_{i,j} è calcolato come segue:

C_{i,j} = \sum_{k=1}^{n} A_{i,k} B_{k,j}, \qquad i = 1, 2, \ldots, m \quad \text{e} \quad j = 1, 2, \ldots, p.

In altre parole, C_{i,j} è ottenuto sommando i prodotti degli elementi della i-esima riga della matrice \boldsymbol{A} con gli elementi corrispondenti della j-esima colonna della matrice \boldsymbol{B}. Questo processo è noto come prodotto scalare (verrà discusso in seguito in dettaglio) tra la i-esima riga di \boldsymbol{A} e la j-esima colonna di \boldsymbol{B}.

Esempio

Date le matrici 2 \times 3 e 3\times 1

\boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3 \\ -2 & 2 & 0 \end{pmatrix}, \qquad \boldsymbol{B}=\begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix},

otteniamo

\boldsymbol{A}\boldsymbol{B}= \begin{pmatrix} 1 & 2 & 3 \\ -2 & 2 & 0 \end{pmatrix} \begin{pmatrix} 0 \\ -1 \\ 1 \end{pmatrix} = \begin{pmatrix} 1 \\ -2\end{pmatrix}.

Osservazione

Non tutte le coppie di matrici possono essere moltiplicate tra loro. Perché il prodotto tra due matrici \boldsymbol{A} e \boldsymbol{B} sia definito, le matrici devono essere compatibili. In particolare, il prodotto \boldsymbol{A}\boldsymbol{B} è possibile solo se il numero di colonne di \boldsymbol{A} è uguale al numero di righe di \boldsymbol{B}.

Lo stesso criterio vale per il prodotto inverso, \boldsymbol{B}\boldsymbol{A}.

È importante notare che può accadere che il prodotto \boldsymbol{A}\boldsymbol{B} sia definito, ma non il prodotto \boldsymbol{B}\boldsymbol{A}, o viceversa. Inoltre, anche quando entrambi i prodotti sono definiti, le matrici risultanti \boldsymbol{A}\boldsymbol{B} e \boldsymbol{B}\boldsymbol{A} possono avere dimensioni diverse, con un diverso numero di righe e colonne.

Nel prosieguo, ogni volta che si fa riferimento al prodotto tra matrici, sarà sempre sottointeso che esse sono compatibili, anche se non esplicitamente dichiarato.

Esempio

Un esempio utile per mostrare che la moltiplicazione tra matrici non è commutativa può essere fatto considerando le seguenti matrici 2 \times 2:

\boldsymbol{A}= \begin{pmatrix}1 & 2 \\ 1 & -1\end{pmatrix}, \qquad \boldsymbol{B}= \begin{pmatrix}0 & 1 \\ 1 & 1\end{pmatrix}.

In questo caso, possiamo calcolare sia il prodotto \boldsymbol{A}\boldsymbol{B} che il prodotto \boldsymbol{B}\boldsymbol{A}. Tuttavia, notiamo che \boldsymbol{A}\boldsymbol{B}\neq \boldsymbol{B}\boldsymbol{A}. Infatti, eseguendo i calcoli otteniamo:

\boldsymbol{A}\boldsymbol{B}= \begin{pmatrix}2 & 3 \\ -1 & 0\end{pmatrix}, \qquad \boldsymbol{B}\boldsymbol{A}= \begin{pmatrix}1 & -1 \\ 2 & 1\end{pmatrix}.

Questo esempio dimostra chiaramente che l’ordine con cui moltiplichiamo le matrici influisce sul risultato, mostrando che la moltiplicazione di matrici non è commutativa.

Esempio

Consideriamo un vettore riga \boldsymbol{a} e un vettore colonna \boldsymbol{b} definiti come:

\boldsymbol{a}= \begin{pmatrix}1 & 2 & 3\end{pmatrix}, \qquad \boldsymbol{b}= \begin{pmatrix}1 \\ 0 \\ 1\end{pmatrix}.

Il prodotto \boldsymbol{a}\boldsymbol{b} è una matrice 1 \times 1, che possiamo interpretare come uno scalare:

\boldsymbol{a}\boldsymbol{b}= \begin{matrix} \begin{pmatrix}1 & 2 & 3\end{pmatrix} \\ \mathstrut \end{matrix} \begin{pmatrix}1 \\ 0 \\ 1\end{pmatrix} = 1 \cdot 1 + 2 \cdot 0 + 3 \cdot 1 = 4.

D’altra parte, il prodotto \boldsymbol{b}\boldsymbol{a} produce una matrice 3 \times 3:

\boldsymbol{b}\boldsymbol{a}= \begin{pmatrix}1 \\ 0 \\ 1\end{pmatrix} \begin{matrix} \begin{pmatrix}1 & 2 & 3\end{pmatrix} \\ \mathstrut \end{matrix} = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 0 & 0 \\ 1 & 2 & 3 \end{pmatrix}.

Questo esempio mostra come il prodotto di un vettore riga per un vettore colonna risulti in uno scalare, mentre il prodotto di un vettore colonna per un vettore riga dia luogo a una matrice di dimensioni maggiori.

Osservazione

Per le matrici non vale la regola di annullamento. Questo significa che, se due matrici \boldsymbol{A} e \boldsymbol{B} soddisfano \boldsymbol{A}\boldsymbol{B}= \boldsymbol{0}, non è necessariamente vero che \boldsymbol{A}= \boldsymbol{0} o \boldsymbol{B}= \boldsymbol{0}. Un esempio concreto può chiarire questo concetto:

\boldsymbol{A}= \begin{pmatrix}1 & 0 \\ 1 & 0\end{pmatrix}, \qquad \boldsymbol{B}= \begin{pmatrix}0 & 0 \\ 1 & 1\end{pmatrix}.

Calcolando il prodotto otteniamo:

\boldsymbol{A}\boldsymbol{B}= \begin{pmatrix}0 & 0 \\ 0 & 0\end{pmatrix}, \qquad \boldsymbol{B}\boldsymbol{A}= \begin{pmatrix}0 & 0 \\ 2 & 0\end{pmatrix}.

In questo esempio, il prodotto \boldsymbol{A}\boldsymbol{B} è la matrice nulla, ma né \boldsymbol{A}\boldsymbol{B} sono matrici nulle. Inoltre, osserviamo che \boldsymbol{A}\boldsymbol{B}\neq \boldsymbol{B}\boldsymbol{A}, il che conferma ancora una volta che la moltiplicazione di matrici non è commutativa.

Esempio

Nell’insieme delle matrici, la matrice identità \boldsymbol{I} rappresenta l’elemento neutro rispetto alla moltiplicazione. In altre parole, per ogni matrice \boldsymbol{A}\in \Bbb{K}^{m \times n} e la matrice identità \boldsymbol{I}\in \Bbb{K}^{n \times n}, si ha:

\boldsymbol{A}\boldsymbol{I}= \begin{pmatrix}A_{1,1} & A_{1,2} & \cdots & A_{1,n} \\ A_{2,1} & \ddots & \ddots & \vdots \\ \vdots & \ddots & A_{m-1,n-1} & A_{m-1,n} \\ A_{m,1} & \cdots & A_{m,n-1} & A_{m,n}\end{pmatrix} \quad \begin{pmatrix}1 & 0 & \cdots & 0 \\ 0 & \ddots & \ddots & \vdots \\ \vdots & \ddots & 1 & 0 \\ 0 & \cdots & 0 & 1 \end{pmatrix}.

Qui, gli elementi della matrice identità \boldsymbol{I} sono definiti dal simbolo di Kronecker4 \delta_{i,j}, dove:

\delta_{i,j} = \begin{cases} 1 & \text{se } i=j \\ 0 & \text{se } i \neq j \end{cases}.

Quindi, possiamo esprimere la moltiplicazione come:

(\boldsymbol{A}\boldsymbol{I})_{i,j} = \sum_{k=1}^{n} A_{i,k} I_{k,j} = \sum_{k=1}^{n} A_{i,k} \delta_{k,j} = A_{i,j} \delta_{j,j} = A_{i,j}.

In modo del tutto analogo, si può dimostrare che \boldsymbol{I}\boldsymbol{A}= \boldsymbol{A}, dove in questo caso \boldsymbol{I}\in \Bbb{K}^{m \times m}.

Definizione 10 (Inversa di una matrice) La matrice inversa di una matrice quadrata \boldsymbol{A} è definita come la matrice quadrata \boldsymbol{B} (se esiste) tale che soddisfi la relazione:

\boldsymbol{A}\boldsymbol{B}= \boldsymbol{B}\boldsymbol{A}= \boldsymbol{I},

dove \boldsymbol{I} è la matrice identità. Se una matrice \boldsymbol{A} possiede un’inversa, questa viene indicata con \boldsymbol{A}^{-1}, e la matrice \boldsymbol{A} si dice invertibile.

Esempio

Consideriamo la matrice \boldsymbol{A}\in \Bbb{K}^{2 \times 2}:

\boldsymbol{A}= \begin{pmatrix} \alpha & \beta \\ \gamma & \delta \end{pmatrix},

dove \alpha\delta \neq \beta\gamma. In questo caso, si può verificare che la matrice inversa, sia a destra che a sinistra, è data da:

\boldsymbol{A}^{-1} = \dfrac{1}{\alpha\delta - \beta\gamma} \begin{pmatrix} \delta & -\beta \\ -\gamma & \alpha \end{pmatrix}.

Ma cosa accade se \alpha\delta = \beta\gamma? In questo caso, il termine \alpha\delta - \beta\gamma si annulla, impedendo di calcolare l’inversa della matrice. Questo fenomeno è legato al determinante della matrice, un concetto che verrà introdotto in dettaglio più avanti.

La situazione dell’esempio precedente, in cui l’inversa destra e quella sinistra coincidono, è del tutto generale. Infatti, vale il seguente teorema.

Teorema 1 (Unicità dell’inversa) L’inversa di una matrice invertibile è unica.

Dimostrazione. Dimostriamo innanzitutto che l’inversa destra e l’inversa sinistra di una matrice invertibile coincidono.

Sia \boldsymbol{A} una matrice quadrata e siano \boldsymbol{B} e \boldsymbol{C} le sue inverse destra e sinistra, rispettivamente. Questo implica che:

\boldsymbol{A}\boldsymbol{B}= \boldsymbol{I}.

Moltiplicando entrambi i membri dell’equazione a sinistra per \boldsymbol{C}, otteniamo:

\boldsymbol{C}\boldsymbol{A}\boldsymbol{B}= \boldsymbol{C}\boldsymbol{I},

ma poiché \boldsymbol{C}\boldsymbol{A}= \boldsymbol{I}, segue che:

\boldsymbol{I}\boldsymbol{B}= \boldsymbol{C}\boldsymbol{I}\quad\Rightarrow\quad \boldsymbol{B}= \boldsymbol{C}.

Ora dimostriamo l’unicità dell’inversa. Siano \boldsymbol{B}_1 e \boldsymbol{B}_2 due inverse destre di \boldsymbol{A}, ovvero supponiamo che:

\boldsymbol{A}\boldsymbol{B}_1 = \boldsymbol{A}\boldsymbol{B}_2 = \boldsymbol{I}.

Poiché l’inversa destra coincide con l’inversa sinistra, possiamo affermare che \boldsymbol{B}_1 è anche l’inversa sinistra di \boldsymbol{A}, quindi:

\boldsymbol{B}_1\boldsymbol{A}= \boldsymbol{I}\quad\text{e}\quad \boldsymbol{A}\boldsymbol{B}_2 = \boldsymbol{I}.

Da ciò segue che, essendo l’inversa destra e sinistra uguali, si ha:

\boldsymbol{B}_1 = \boldsymbol{B}_2.

Questo dimostra che l’inversa di una matrice invertibile è unica.

Teorema 2 (Inversa del prodotto) Siano \boldsymbol{A},\,\boldsymbol{B}\in\Bbb{K}^{n\times n} due matrici invertibili. Allora, anche il prodotto \boldsymbol{A}\boldsymbol{B} è invertibile e vale la relazione:

(\boldsymbol{A}\boldsymbol{B})^{-1} = \boldsymbol{B}^{-1}\boldsymbol{A}^{-1}.

Dimostrazione. La formula si dimostra tramite un calcolo diretto, verificando che essa rappresenta correttamente sia l’inversa destra che l’inversa sinistra. Infatti:

\Big(\boldsymbol{A}\boldsymbol{B}\Big)\Big(\boldsymbol{A}\boldsymbol{B}\Big)^{-1} = \boldsymbol{A}\boldsymbol{B}\boldsymbol{B}^{-1}\boldsymbol{A}^{-1} = \boldsymbol{I},

e allo stesso modo:

\Big(\boldsymbol{A}\boldsymbol{B}\Big)^{-1}\Big(\boldsymbol{A}\boldsymbol{B}\Big) = \boldsymbol{B}^{-1}\boldsymbol{A}^{-1}\boldsymbol{A}\boldsymbol{B}= \boldsymbol{I}.

L’unicità dell’inversa è garantita dal teorema precedente, che assicura che esiste una sola matrice che soddisfa queste proprietà.

Definizione 11 (Matrice trasposta) Data una matrice \boldsymbol{A}\in \Bbb{K}^{m \times n}, la matrice trasposta di \boldsymbol{A}, denotata con \boldsymbol{A}^T, è la matrice \Bbb{K}^{n \times m} definita come segue:

(\boldsymbol{A}^T)_{i,j} = A_{j,i}, \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

In altre parole, la trasposta di \boldsymbol{A} si ottiene scambiando le righe e le colonne della matrice originale.

Esempio

Data la matrice 2\times 3

\boldsymbol{A}=\begin{pmatrix} 1 & 2 & 3 \\ 2 & 0 & 4 \end{pmatrix},

la sua trasposta è la seguente matrice 3\times 2

\boldsymbol{A}^{T}=\begin{pmatrix} 1 & 2 \\ 2 & 0 \\ 3 & 4 \end{pmatrix}.

Definizione 12 (Matrice coniugata) Data una matrice \boldsymbol{A}\in \Bbb{C}^{m \times n}, la matrice coniugata di \boldsymbol{A}, denotata con \overline{\boldsymbol{A}}, è la matrice \Bbb{C}^{m \times n} definita come segue:

(\overline{\boldsymbol{A}})_{i,j} = \overline{A_{i,j}}, \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

In altre parole, la matrice coniugata si ottiene prendendo il coniugato complesso di ogni elemento della matrice \boldsymbol{A}. Se tutte le componenti di \boldsymbol{A} sono reali, allora \boldsymbol{A}= \overline{\boldsymbol{A}}.

Esempio

Data la matrice 2\times 2 a valori complessi

\boldsymbol{A}=\begin{pmatrix} 1+2 {\color{blue}\imath}& 2+4 {\color{blue}\imath}\\ 2-{\color{blue}\imath}& 0 \end{pmatrix},

la sua coniugata è la seguente matrice 2\times 2

\overline{\boldsymbol{A}}^{T}=\begin{pmatrix} 1-2 {\color{blue}\imath}& 2-4 {\color{blue}\imath}\\ 2+{\color{blue}\imath}& 0 \end{pmatrix}.

Definizione 13 (Matrice trasposta coniugata) Data una matrice \boldsymbol{A}\in \Bbb{K}^{m \times n}, la matrice trasposta coniugata di \boldsymbol{A}, denotata con \boldsymbol{A}^H, è la matrice \Bbb{K}^{n \times m} definita come segue:

(\boldsymbol{A}^H)_{i,j} = \overline{A_{j,i}}, \qquad \text{per ogni }\quad {{ i = 1, 2, \ldots, m} \atop {j = 1, 2, \ldots, n.}}

In altre parole, \boldsymbol{A}^H si ottiene applicando il coniugato complesso a ciascun elemento della matrice trasposta di \boldsymbol{A}. Si ha quindi che:

\boldsymbol{A}^H = (\overline{\boldsymbol{A}})^T.

Esempio

Consideriamo la matrice 2 \times 2 a valori complessi

\boldsymbol{A}= \begin{pmatrix} 1 + 2 {\color{blue}\imath}& 2 + 4 {\color{blue}\imath}\\ 2 - {\color{blue}\imath}& 0 \end{pmatrix},

la sua trasposta coniugata è data da

\boldsymbol{A}^H = \overline{\boldsymbol{A}}^T = \begin{pmatrix} 1 - 2 {\color{blue}\imath}& 2 + {\color{blue}\imath}\\ 2 - 4 {\color{blue}\imath}& 0 \end{pmatrix}.

In altre parole, per ottenere la matrice trasposta coniugata \boldsymbol{A}^H, si applica il coniugato complesso a ciascun elemento della matrice trasposta di \boldsymbol{A}.

Definizione 14 (Matrice simmetrica) Una matrice quadrata \boldsymbol{A}\in \Bbb{K}^{m \times m} è definita simmetrica se è uguale alla sua trasposta. In altre parole,

\boldsymbol{A}= \boldsymbol{A}^T.

Questo significa che ogni elemento della matrice soddisfa la condizione A_{i,j} = A_{j,i} per tutti i e j.

Definizione 15 (Matrice hermitiana) Una matrice quadrata \boldsymbol{A}\in \Bbb{K}^{m \times m} è definita hermitiana se è uguale alla sua trasposta coniugata. In altre parole,

\boldsymbol{A}= \boldsymbol{A}^H = \overline{\boldsymbol{A}}^T.

Questo implica che ogni elemento della matrice soddisfa la condizione A_{i,j} = \overline{A_{j,i}} per tutti i e j.

Note

  1. Si noti che un elemento non-zero non implica necessariamente che l’elemento sia diverso da zero.↩︎

  2. Per definire il determinante si usa a volte la stessa notazione. In ogni caso dovrebbe essere chiaro dal contesto se \left\lvert\boldsymbol{A}\right\rvert indica la matrice dei valori assoluti o il suo determinante.↩︎

  3. Si noti che un elemento non-zero non implica necessariamente che l’elemento sia diverso da zero.↩︎

  4. Leopold Kronecker (1823-1891)↩︎