Le equazioni lineari sono equazioni della forma a1x1 + a2x2 + ... + anxn = b, dove a1...an sono costanti chiamate coefficenti, x1...xn sono variabili, e b è il termine costante. Questa equazione è una equazione lineare in n variabili. Le variabili sono spesso viste come x, y, z, ecc. Le equazioni lineari coinvolgono solo variabili di grado 1 (nessun esponente o radici di variabili), e coinvolgono solo le somme e multipli di variabili, senza prodotti di variabili.
Le seguenti equazioni sono lineari:
Le seguenti equazioni NON sono lineari:
Una soluzione di una equazione lineare è un vettore [s1,...,sn], sostituendo x1 = s1, ..., xn = sn si ottiene un'equazione corretta. Un'equazione in una variabile (per esempio, 2x = 6) ha solo una soluzione (un punto sulla retta dei numeri reali, in questo caso x = 6). Un'equazione lineare in due variabili ha soluzioni che ha soluzioni che geometricamente formano una retta nel piano. Un'equazione lineare in tre variabili ha soluzioni che formano un piano. Per le equazioni lineari con più variabili, le interpretazioni geometriche non sono chiare, ma hanno un insieme infinito di soluzioni.
I sistemi di equazioni lineari sono gruppi di più di un'equazione lineare. Risolvere il sistema significa trovare una soluzione comune a tutte le equazioni lineari del sistema. Ci sono solo tre possibilità:
1) Il sistema ha un' unica soluzione
2) Il sistema ha infinite soluzioni
3) Il sistema non ha soluzioni
Geometricamente, una soluzione può essere interpretata geometricamente come punto dove le varie linee, piani, ecc. definito dall'intersezione di equazioni lineari. Si verificano infinite soluzioni quando le equazioni definiscono linee e/o piani che si intersecano in una linea o piano, come ad esempio l'intersezione di due piani o due linee uguali. Un sistema inconsistente può essere interpretato geometricamente come linee e/o piani che non si intersecano mai, come le linee parallele del piano, o i piani in 3 dimensioni. In 3 dimensioni, possiamo anche avere linee inclinate, che non sono parallele, ma non si intersecano.
Quando viene presentato un sistema di equazioni lineari, siamo sempre interessati a risolvere tale sistema. Qui, sono riportati vari metodi di risoluzione dei sistemi, con le definizione e la presentazione di teoremi. Ciò che è importante ricordare è che la risoluzione dei sistemi richiede pratica, e saranno riportati diversi esempi.
Il back substitution è il più semplice metodo per trovare la soluzione di un sistema, ed è anche l'ultimo step di alcuni dei metodi più potenti di risoluzione che vedremo più avanti. Il back substitution comporta l'isolamento di una singola variabile e poi la sostituzione di questa variabile in un altra equazione per isolarne un' altra, si continua così finchè non sono state risolte tutte le variabili.
Per utilizzare il back substitution, è necessario un sistema dove una variabile è già isolata, o dove è possibile esprimere una variabile in termini di un' altra, come nell'esempio seguente.
Non è usuale che il nostro sistema di equazioni sia già in uno stato dove è possibile procedere subito con il back substitution. Abbiamo bisogno di portare il nostro sistema ad un punto in cui le variabili sono isolate. Possiamo usare le operazioni elementari di riga. Le operazioni di riga elementati possono essere usate per modificare il sistema in modo da poter usare il back substitution, senza che cambi la soluzione. Se denotiamo la riga 1 con R1, la riga 2 con R2, ecc., e k è uno scalare, le tre operazioni elementari di riga sono le seguenti:
1)Scambiare di due righe (equazioni), denotatiamo R1↔R2 (sarebbe scambiare la riga 1 con la 2)
2)Moltiplicare una riga per uno scalare non nullo, denotiamo kR1 (sarebbe moltiplicare la riga 1 per k)
3)Aggiungere un multiplo di riga ad un altra riga, denotiamo R1 + kR2 (sarebbe aggiungere k volte la riga 2 alla riga 1, e sostituire la vecchia riga 1)
Le operazioni di riga elementari dovrebbero essere familiari dalla scuola superiore. Introducendo il concetto di matrice aumentata, è possibile semplificare il nostro lavoro sul sistema, e combinarlo con le operazioni elementari di riga e con il back substitution per definire un altro metodo di risoluzione del sistema.
(Se non si ha familiarità cin le matrici, o si desidera approfondire l'argomento, guardare il tutorial sulle matrici) Una matrice aumentata è una matrice che contiene i coefficenti e le costanti di un sistema lineare di equazioni. Inserendo il sistema in questa matrice, ci si concentra solo su quello che è importante, queste costanti, poichè non si opera mai sulle variabili. Un esempio di matrice aumentata è la seguente,
L'eliminazione di Gauss è un metodo in tre fasi per la risoluzione di sistemi di equazioni lineari:
1) Scrivere il sistema in una matrice aumentata (usare gli zero per le variabili
del sistema che non appaiono in una delle equazioni)
2) Usare le operazioni elementari per ridurre la matrice in forma ridotta per righe (vedi più avanti)
3) Usare il back substitution per risolvere definitivamente il sistema
La forma ridotta per righe si verifica quando la matrice è della forma seguente:
1) Il primo elemento di ogni riga (chiamato elemento principale) ha solo zero nella colonna sottostante.
2) Quando una riga ha un elemento principale, al di sopra di questo gli elementi principali di tutte le righe sono in colonne a sinistra
dell'elemento principale.
Le seguenti matrici sono ridotte per righe:
Prendiamo il sistema qui di seguito ed eseguiamo l'eliminazione di Gauss.
Dopo aver inserito il sistema in una matrice aumentata, si eseguono le operazioni di riga elementari su questo sistema finchè non si ottiene una forma ridotta per righe come descritto qui di seguito. Questo ci consente di usare il back substitution, cominciando con la riga inferiore nel sistema, al fine di trovare la soluzione. In questo modo, l'eliminazione di Gauss ci fornisce un algoritmo di ordinamento per risolvere il sistema di equazioni lineari. Qui di seguito, si risolve il sistema di cui sopra con eliminazione gaussiana.
Possiamo migliorare il metodo qui sopra aggiungendo un'altra condizione all'eliminazione di Gauss. Gauss-Jordan prevede la stessa procedura di eliminazione gaussiana, ma si continua con le operazioni elementari di riga finchè non si trasforma la matrice aumentata in forma ridotta per righe (rref), come definito qui di seguito.
Una matrice è in forma ridotta per righe se:
1) L'elemento principale in ogni riga (se preente) è uno.
2) Non ci sono elementi nella colonna al di sopra o al di sotto di ogni elemento principale.
3) Ogni elemento principale di una riga si trova a destra dell'elemento principale della riga soprastante.
Con l'eliminazione di Gauss-Jordan, si evita la necessità del back substitution. Quando la nostra matrice è in rref, il nostro 1 principale specifica la variabile in questione, con la nostra ultima colonna otteniamo il valore per questa variabile. Specifichiamo un teorema riguardo rref prima di eseguire l'eliminazione di Gauss-Jordan sul sistema qui di seguito.
Teorema: La forma ridotta per righe di una matrice A, denotata con rref(A), è unica.
Il rango di una matrice A, rank(A), è uguale al numero di righe non nulle in rref(A). Usando questa informazione, siamo in grado di affermare il seguente teorema: Il numero di variabili libere in un sistema lineare di n variabili con la matrice aumentata A si trova con la formula
numbero di variabili libere = n - rank(A)
Le variabili libere non sono associate all'elemento principlale nella forma ridotta per righe di A, mentre quelle con un elemento principale sono variabili principali. Quando abbiamo un sistema consistente con variabili libere, geometricamente significa che le nostre linee o piani si intersecano in luoghi infiniti (una linea o un piano), piuttosto che in un singolo punto. Le variabili libere possono essere impostate ovunque, e le variabili principali dipendono da queste variabili libere.
Vediamo un esempio di variabili libere.
I sistemi omogenei di equazioni lineari sono sistemi dove il termine costante di ogni equazione è zero. Pertanto, hanno la forma [A|0], dove A è la matrice dei coefficenti delle variabili del sistema. I sistemi di questo tipo hanno sempre soluzione. C'è sempre una soluzione banale dove [x1, x2, ..., xn] = [0,0,...0]. Questo può essere interpretato come un punto all'origine dello spazio Rn. Inoltre, il sistema può avere infinite soluzioni. Diamo un'occhiata a sistemi omogenei.
In un sistema omogeneo, se il numero di equazioni è minore rispetto al numero delle variabili del sistema, il sistema avrà sempre infinite soluzioni. Questo perché un sistema omogeneo deve essere consistente, e la nostra formula per variabili libere ne garantisce almeno una. Insieme, questo significa che il nostro sistema omogeneo avrà infinite soluzioni, come mostrato di seguito.
Un insieme di vettori è detto linearmente dipendente se ogni vettore può essere espresso come combinazione lineare di altri due vettori. Ciò equivale a dire che esiste una combinazione lineare non banale (non tutti gli scalari sono zero) di questo insieme di vettori che è uguale a 0. Se i vettori non sono linearmente dipendenti, sono chiamati linearmente indipendenti. Risolvere problemi riguardanti la dipendenza lineare consiste nel mettere i nostri vettori in un sistema aumentato, e poi risolverlo. Alcuni esempi.
Possiamo vedere da sopra che se un sistema di equazioni lineari è messo nella forma aumentata [A|b], allora ha una soluzione se b è una combinazione lineare delle colonne di A. Inoltre, se si crea una matrice B, dove le righe di B sono vettori riga, questi vettori sono linearmente dipendenti sse (se e solo se) Rank(B)<m, dove m è il numero di vettori. Prendiamo gli esempi di cui sopra e mostriamo come funziona.
Infine, ogni insieme di vettori in Rn è linearmente dipendente se il numero di vettori (m) è maggiore della dimensione dello spazio (n), che è, m>n.
Strettamente legato al concetto di dipendenza lineare è l'idea di spanning sets. Supponiamo di avere un insieme di vettori in Rn, dove S = {v1, v2, ..., vk}. L'insieme di tutte le possibili combinazioni lineari dei vettori in questo insieme S è chiamato span di S. Si indica con span(v1, v2, ..., vk) o span(S). Se span(S) = Rn, allora S è chiamato spanning set per Rn. S può anche estendersi su sottoinsiemi di tutto lo spazio, come linee, piano, ecc. Vediamo un esempio di come eseguire il test per verificare se S è uno spanning set.
La risoluzione di sistemi di equazioni lineari può richiedere un pò di pratica. Imparare quali sono i metodi migliori e imparare a risolvere correttamente i sistemi richiede tempo, e altre domande sono disponibili nella sezione di esempio dei problemi di questo sito. Si può anche andare alla sezione di prova per vedere se e dove si hai bisogno di pratica.