Movatterモバイル変換


[0]ホーム

URL:


Vai al contenuto
WikipediaL'enciclopedia libera
Ricerca

Algebra lineare

Da Wikipedia, l'enciclopedia libera.
Alcuni oggetti studiati in algebra lineare

Vettori

Spazi vettoriali


Trasformazioni lineari

Sistemi di equazioni lineari

Matrici
Aξ=λξ{\displaystyle \mathbf {A} {\color {Red}\xi }={\color {Blue}\lambda }{\color {Red}\xi }}
Autovettori e autovalori

Quadriche

Tensori

L'algebra lineare è la branca dellamatematica che si occupa dello studio deivettori,spazi vettoriali (o spazi lineari),trasformazioni lineari esistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nellamatematica moderna; l'algebra lineare è usata ampiamente nell'algebra astratta, nellageometria e nell'analisi funzionale. L'algebra lineare ha inoltre una rappresentazione concreta nellageometria analitica.

Con l'algebra lineare si studiano completamente tutti i fenomenifisici "lineari", cioè quelli in cui intuitivamente non entrano in giocodistorsioni, turbolenze e fenomenicaotici in generale. Anche fenomeni più complessi, non solo della fisica ma anche dellescienze naturali esociali, possono essere studiati e ricondotti con le dovute approssimazioni a un modello lineare.

Storia

[modifica |modifica wikitesto]

La storia dell'algebra lineare moderna inizia fra il1843 e il1844. Nel 1843William Rowan Hamilton (che ha introdotto il terminevettore) inventò iquaternioni. Nel 1844Hermann Grassmann pubblicò il suo libroDie lineale Ausdehnungslehre.Arthur Cayley introdusse lematrici (2×2), una delle idee fondamentali dell'algebra lineare, nel1857.

Introduzione elementare

[modifica |modifica wikitesto]
Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati.

L'algebra lineare ha le sue origini nello studio dei vettori negli spazicartesiani a due e a tre dimensioni. Un vettore, in questo caso, è unsegmento orientato, caratterizzato da lunghezza (o magnitudine), direzione e verso. I vettori possono essere usati per rappresentare determinate entità fisiche come leforze, e possono essere sommati fra loro e moltiplicati per unoscalare, formando quindi il primo esempio dispazio vettoriale suireali.

L'algebra lineare moderna è stata estesa per comprendere spazi di dimensione arbitraria o infinita. Uno spazio vettoriale di dimensionen è chiamaton-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio possono essere estesi agli spazi di dimensione maggiore. Anche se molte persone non sanno visualizzare facilmente i vettori neglin-spazi, questi vettori on-uple sono utili per rappresentare dati. Poiché i vettori, comen-uple, sono listeordinate din componenti, molte persone comprendono e manipolano i dati efficientemente in questa struttura.Ad esempio, ineconomia, si può creare e usare vettori 8-dimensionali (ottuple) per rappresentare ilProdotto Interno Lordo di 8 stati.Si può decidere di visualizzare il PIL di 8 stati per un particolare anno, ad esempio (Italia,Stati Uniti,Gran Bretagna,Francia,Germania,Spagna,Giappone,Australia), usando un vettore (v1, v2, v3, v4, v5, v6, v7, v8) dove il PIL di ogni stato è nella sua rispettiva posizione.

Uno spazio vettoriale è definito sopra uncampo, come il campo deinumeri reali o il campo deinumeri complessi. Glioperatori lineari mappano elementi da uno spazio vettoriale su un altro (o su sé stesso), in modo che sia mantenuta la compatibilità con l'addizione e la moltiplicazione scalare definiti negli spazi vettoriali.L'insieme di tutte queste trasformazioni è anch'esso uno spazio vettoriale.Se è fissata unabase per uno spazio vettoriale, ogni trasformazione lineare può essere rappresentata da una tabella chiamatamatrice.Nell'algebra lineare si studiano quindi le proprietà delle matrici, e glialgoritmi per calcolare delle quantità importanti che le caratterizzano, quali ilrango, ildeterminante e l'insieme dei suoiautovalori.

Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale si provanoteoremi, è parte dell'algebra astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'anello dellemappe lineari da uno spazio vettoriale in sé, o ilgruppo dellemappe lineari (omatrici) invertibili.L'algebra lineare gioca anche un ruolo importante inanalisi, specialmente nella descrizione dellederivate di ordine superiore nell'analisi vettoriale e nella risoluzione delleequazioni differenziali.

Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità" nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati approssimandoli con situazioni lineari. Ad esempio nell'analisi, laderivata è un primo tentativo diapprossimazione lineare di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario con calcoli matriciali, è uno dei metodi più generali applicabili in matematica.

Nozioni di base

[modifica |modifica wikitesto]

Spazio vettoriale

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Spazio vettoriale.
Un vettorea{\displaystyle a} può essere riscalato, cioè moltiplicato per un numero. Qui sono mostrati i vettori2a{\displaystyle 2a} ea{\displaystyle -a}, ottenuti moltiplicandoa{\displaystyle a} rispettivamente per 2 e -1.

La nozione più importante in algebra lineare è quella dispazio vettoriale. Uno spazio vettoriale è un insiemeV{\displaystyle V} di elementi, dettivettori, aventi delle proprietà che li rendono simili ai vettori applicati in un punto fissato (l'origine) del piano o dello spazio.

Più precisamente, sono definite suV{\displaystyle V} un paio dioperazioni binarie:[1]

Due vettoriv{\displaystyle v} ew{\displaystyle w} possono essere sommati usando laregola del parallelogramma.

Il numerok{\displaystyle k} (dettoscalare) appartiene ad uncampo che viene fissato fin dall'inizio: questo può essere ad esempio il campoR{\displaystyle \mathbb {R} } deinumeri reali o il campoC{\displaystyle \mathbb {C} } deinumeri complessi.

Ilpiano cartesiano è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato univocamente come una coppia(x,y){\displaystyle (x,y)} di numeri reali. L'origine è il punto(0,0){\displaystyle (0,0)}. Il punto(x,y){\displaystyle (x,y)} può essere interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da(0,0){\displaystyle (0,0)} e arriva in(x,y){\displaystyle (x,y)}.

Analogamente lo spazio cartesiano è formato da triple di punti(x,y,z){\displaystyle (x,y,z)}. Più in generale, leennuple din{\displaystyle n} numeri reali

(x1,,xn){\displaystyle (x_{1},\ldots ,x_{n})}

formano uno spazio vettoriale che viene indicato conRn{\displaystyle \mathbb {R} ^{n}}. Ancora più in generale, si può sostituireR{\displaystyle \mathbb {R} } con un altro campoK{\displaystyle K} e ottenere quindi lo spazio vettorialeKn{\displaystyle K^{n}}.

Applicazioni lineari

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Trasformazione lineare.
Unarotazione delpiano cartesiano centrata nell'origine (0,0) è una trasformazione lineare.

Un'applicazione lineare è unafunzione fra due spazi vettoriali

f:VW{\displaystyle f:V\to W}

che sia compatibile con le operazioni definite su entrambi. Devono cioè valere le proprietà seguenti:

f(v+w)=f(v)+f(w){\displaystyle f(v+w)=f(v)+f(w)}
f(kv)=kf(v).{\displaystyle f(kv)=kf(v).}

per ogni coppia di vettoriv,w{\displaystyle v,w} inV{\displaystyle V} e ogni scalarek{\displaystyle k}. I termini "applicazione", "funzione", "trasformazione", "mappa" e "omomorfismo" sono in questo contesto tutti sinonimi. Il termine "lineare" sta a indicare la compatibilità con le operazioni. Un'applicazione lineare manda necessariamente l'origine (diV{\displaystyle V}) nell'origine (diW{\displaystyle W}):

f(0)=0.{\displaystyle f(0)=0.}
Una trasformazione lineare può distorcere gli oggetti.

Gli spaziV{\displaystyle V} eW{\displaystyle W} possono coincidere. In questo caso l'applicazione è più propriamente unatrasformazione diV{\displaystyle V}, ovvero una funzione che sposta i punti diV{\displaystyle V}, chiamata ancheendomorfismo. Una trasformazione diV{\displaystyle V} deve necessariamente tenere fissa l'origine O.

Molte trasformazioni delpiano cartesiano o dello spazio che tengono fissa l'origine O sono lineari: tra queste, lerotazioni (intorno a O), leriflessioni rispetto ad una retta o un piano (passante per O), leomotetie (centrate in O) e leproiezioni (su una retta o piano passante per O).

Una trasformazione lineare può allargare un oggetto orizzontalmente e comprimerlo verticalmente.

Le applicazioni lineari compaiono in contesti molto differenti. Ad esempio, il funzionale

Ψ(f)=01f(x){\displaystyle \Psi (f)=\int _{0}^{1}f(x)}

che associa ad una funzionef{\displaystyle f} il suointegrale è un'applicazione lineare

Ψ:C([0,1])R{\displaystyle \Psi :C([0,1])\to \mathbb {R} }

dallo spazioC([0,1]){\displaystyle C([0,1])} dellefunzioni continue a valori reali inR{\displaystyle \mathbb {R} }.

Basi e dimensione

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Base (algebra lineare) e Dimensione (spazio vettoriale).
I vettori(1,0){\displaystyle (1,0)} e(0,1){\displaystyle (0,1)} formano labase canonica del piano cartesianoR2{\displaystyle \mathbb {R} ^{2}}. Ogni altro vettore si scrive (in modo univoco) comecombinazione lineare di questi due vettori. Ad esempio, il vettore(2,1){\displaystyle (-2,1)} si scrive come2(1,0)+1(0,1){\displaystyle -2(1,0)+1(0,1)}.

Un punto ha dimensione zero, una retta ha dimensione uno, un piano ha dimensione due e uno spazio ha dimensione tre. L'algebra lineare permette di definire e trattare in modo rigoroso spazi di dimensione superiore alla terza. Lo spazio fondamentale di dimensionen{\displaystyle n} è lo spazio vettoriale delle ennuple, indicato conRn{\displaystyle \mathbb {R} ^{n}}. Pern=2{\displaystyle n=2}, questo è l'usualepiano cartesiano.

Ogni spazio vettorialeV{\displaystyle V} ha una dimensione. Questa è definita in modo algebrico, come il numero di elementi in unabase perV{\displaystyle V}: una base è un insieme di vettori che funge dasistema di riferimento perV{\displaystyle V}. Rigorosamente, una base è una successione

B={v1,,vn}{\displaystyle {\mathcal {B}}=\{v_{1},\ldots ,v_{n}\}}

divettori indipendenti chegenerano lo spazioV{\displaystyle V}. Uno spazio vettoriale può avere anche dimensione infinita: gli spazi vettoriali di dimensione infinita sono spesso più complicati, e molti teoremi di algebra lineare richiedono come ipotesi cheV{\displaystyle V} abbia dimensione finita.

Le nozioni di base e dimensione si applicano aRn{\displaystyle \mathbb {R} ^{n}} (che ha dimensionen{\displaystyle n}) e aisottospazi ivi contenuti. Essendo però definite in modo puramente algebrico, si applicano anche in contesti molto differenti: ad esempio, lematricim×n{\displaystyle m\times n} formano uno spazio vettoriale di dimensionemn{\displaystyle mn}. Ipolinomi in una variabile formano uno spazio vettoriale di dimensione infinita: restringendo però il grado dei polinomi ad un certo valore massimon{\displaystyle n} si ottiene uno spazio vettoriale di dimensionen+1{\displaystyle n+1}.

Prodotto scalare

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Prodotto scalare.
Il prodotto scalare euclideo nel piano fra due vettoriA{\displaystyle A} eB{\displaystyle B} è definito come il prodotto delle lunghezze diB{\displaystyle B} e della proiezione diA{\displaystyle A} suB{\displaystyle B}. Esistono però molti altri modi utili di definire un prodotto scalare, in spazi di dimensione arbitraria.

Due vettoriv{\displaystyle v} ew{\displaystyle w} di uno spazio vettoriale possono esseresommati: il risultato è un vettorev+w{\displaystyle v+w}. Inoltre un vettorev{\displaystyle v} e uno scalarek{\displaystyle k} possono esseremoltiplicati: il risultato è un vettorekv{\displaystyle kv}. Nella definizione di spazio vettoriale non è però prevista un'operazione di prodotto fra due vettori.

In alcuni contesti è però utile aggiungere un'ulterioreoperazione binaria fra vettori, che si comporti come un prodotto. Il risultato di questo prodotto può essere a sua volta un vettore o uno scalare. Nel primo caso, questa operazione si chiamaprodotto vettoriale, e nel secondoprodotto scalare. L'operazione di prodotto vettoriale risulta però interessante solo in dimensione tre, mentre i prodotti scalari esistono (e sono utili) in tutte le dimensioni: per questo motivo questi ultimi sono molto più studiati.

Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione dilunghezza (equivalentemente,norma) per i vettori, né diangolo fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definite se è fissato un opportuno prodotto scalare.[2]

Applicazioni

[modifica |modifica wikitesto]

Sistemi lineari

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Sistema di equazioni lineari.

Un sistema di equazioni lineari è il dato di un certo numerok{\displaystyle k} di equazioni lineari in alcune variabilix1,,xn{\displaystyle x_{1},\ldots ,x_{n}}. Usando lematrici e lamoltiplicazione riga per colonne, un sistema può essere scritto in modo stringato nel modo seguente:

Ax=b.{\displaystyle Ax=b.}

In questa espressioneA{\displaystyle A} è una matricek×n{\displaystyle k\times n},x{\displaystyle x} è il vettore delle variabilix1{\displaystyle x_{1}}, ...,xn{\displaystyle x_{n}} eb{\displaystyle b} è un altro vettore formato da costanti.

L'algebra lineare fornisce moltialgoritmi per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di equazioni e l'algebra lineare sta nel fatto che la matriceA{\displaystyle A} può essere interpretata come applicazione lineare daRn{\displaystyle \mathbb {R} ^{n}} inRk{\displaystyle \mathbb {R} ^{k}}: secondo questa interpretazione, le soluzionix{\displaystyle x} sono esattamente lecontroimmagini dib{\displaystyle b}.

Ilteorema di Rouché-Capelli fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.[3] Nel caso in cui il sistema sia quadrato e abbia una sola soluzione, questa può essere scritta esplicitamente usando laregola di Cramer. Però tale soluzione teorica è praticamente utilizzabile solo per risolvere sistemi molto piccoli.[4] Mentre i metodi di eliminazione (es.Gauss) e quelli iterativi (es.Gauss-Seidel) consentono di calcolare effettivamente le soluzioni di un sistema lineare, anche di grandi dimensioni.

Geometria analitica

[modifica |modifica wikitesto]
Una retta nelpiano cartesiano è descritta da un'equazione lineare del tipoax+by+c=0{\displaystyle ax+by+c=0}. Due rette distinte sono parallele se il sistema formato dalle loro due equazioni non ha soluzione.
Tre piani nello spazio possono avere varie configurazioni differenti: in questo caso si intersecano in un punto. Ciascun piano è descritto da un'equazione. Il punto di intersezione è ottenuto come soluzione di un sistema con 3 equazioni e 3 variabili.

Ingeometria analitica una retta o un piano sono descritti da sistemi di equazioni lineari: come si è appena visto, questi possono essere agevolmente studiati con gli strumenti dell'algebra lineare. Si possono quindi affrontare problemi quali le posizioni reciproche di due rette (o piani) nello spazio (che possono essere incidenti, paralleli o sghembi), e come queste variano per trasformazioni lineari.

Leconiche nel piano comeellisse,parabola eiperbole sono determinate daequazioni di secondo grado. Queste equazioni sono più complicate di quelle lineari, che sono di primo grado. Nonostante ciò, laclassificazione delle coniche è realizzata in modo efficace con gli strumenti dell'algebra lineare, grazie a teoremi non banali quali ilteorema spettrale e ilteorema di Sylvester. Con gli stessi strumenti si classificano lequadriche nello spazio.

Calcolo differenziale

[modifica |modifica wikitesto]

L'analisi matematica delle funzioni in una variabile non fa uso dell'algebra lineare. L'analisi delle funzioni in più variabili invece dipende fortemente da questo settore. La nozione diderivata è infatti estesa in più variabili a quella didifferenziale: mentre la derivata è un semplice numero reale che indica la pendenza di una funzione in un punto, il differenziale è un'applicazione lineare, che indica sempre la "pendenza" di una funzione (a più variabili) in un punto.

Anche la nozione diderivata seconda si estende a più variabili: il risultato è unamatrice dettamatrice hessiana. Se questa matrice èsimmetrica, ad esempio quando valgono le ipotesi delteorema di Schwarz, può essere agevolmente rappresentata comediagonale grazie alteorema spettrale.

Analisi funzionale

[modifica |modifica wikitesto]

Molti problemi dell'analisi funzionale, quali la ricerca di una soluzione per un'equazione differenziale, vengono affrontati analizzando un particolarespazio di funzioni. Uno spazio di funzioni è unospazio vettoriale i cui elementi sono funzioni di un certo tipo (ad esempio continue, integrabili, derivabili... definite su un dominio fissato). Spazi di questo tipo sono generalmente di dimensione infinita, e sono dotati di alcune strutture aggiuntive, quali ad esempio unprodotto scalare (neglispazi di Hilbert), unanorma (neglispazi di Banach) o una più generaletopologia (neglispazi vettoriali topologici).

Esempi di spazi di funzioni includono glispazi Lp e glispazi di Sobolev.

Meccanica quantistica

[modifica |modifica wikitesto]
Lefunzioni d'onda associate agli stati di unelettrone in unatomo di idrogeno sono gliautovettori di alcuni particolarioperatori autoaggiunti usati in meccanica quantistica.

Lameccanica quantistica fa ampio uso dei teoremi più avanzati dell'algebra lineare. Ilmodello matematico usato in questo settore della fisica (formalizzato principalmente daPaul Dirac eJohn Von Neumann) descrive i possibili stati di un sistema quantistico come elementi di un particolarespazio di Hilbert e le grandezze osservabili (quali posizione, velocità, etc.) comeoperatori autoaggiunti. I valori che possono assumere queste grandezze quando vengono effettivamente misurate sono gliautovalori dell'operatore.

L'introduzione e l'uso di questi concetti matematici non banali nella fisica quantistica è stato uno dei maggiori stimoli allo sviluppo dell'algebra lineare nelXX secolo.

Strumenti

[modifica |modifica wikitesto]

Matrici

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Matrice.

Unamatrice è una tabella di numeri, come ad esempio:

A=(0110).{\displaystyle A={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}.}

Le matrici sono utili in algebra lineare per rappresentare le applicazioni lineari. Questo viene fatto tramite lamoltiplicazione riga per colonna. Ad esempio, la matrice descrittaA{\displaystyle A} rappresenta una trasformazione del piano cartesianoR2{\displaystyle \mathbb {R} ^{2}} in sé. Questa trasformazione manda il punto(x,y){\displaystyle (x,y)} nel punto

A(xy)=(0110)(xy)=(yx).{\displaystyle A{\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}{\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}-y\\x\end{pmatrix}}.}

Questa trasformazione non è nient'altro che una rotazione antioraria di 90º con centro l'origine.

La relazione fra matrici e applicazioni lineari è molto forte. Ogni applicazione lineare fra spazi vettoriali di dimensionem{\displaystyle m} en{\displaystyle n} è descrivibile tramite unamatrice associata di tipon×m{\displaystyle n\times m}, purché in entrambi gli spazi vettoriali siano fissate dellebasi. L'effetto di un cambiamento di base è codificato dallamatrice di cambiamento di base e lacomposizione di funzioni si traduce in unamoltiplicazione fra matrici.

Eliminazione di Gauss

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Eliminazione di Gauss.

L'eliminazione di Gauss è un algoritmo che consente di ridurre una matrice in una forma più semplice tramite opportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema di equazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si può determinare ilrango, ildeterminante o l'inversa di una matrice, si può estrarre una base da uninsieme di generatori.

Determinante

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Determinante (algebra).
Unatrasformazione lineare delpiano cartesiano descritta da unamatrice quadrata2×2{\displaystyle 2\times 2}. Il determinante della matrice fornisce delle informazioni sulla trasformazione: ilvalore assoluto descrive il cambiamento di area, mentre il segno descrive il cambiamento diorientazione. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (unquadrato di area 1 si trasforma in unparallelogramma di area 1) ma inverte l'orientazione del piano (cambia il verso della freccia circolare).

Ildeterminante è un numero associato ad unamatrice quadrataA{\displaystyle A}, generalmente indicato comedetA{\displaystyle \det A}. Da un punto di vista algebrico, il determinante è importante perché vale zero precisamente quando la matrice non èinvertibile; quando non è zero, fornisce inoltre un metodo per descrivere lamatrice inversa tramite laregola di Cramer.

Da un punto di vista geometrico, il determinante fornisce molte informazioni sulla trasformazione associata adA{\displaystyle A}: il suo segno (sui numeri reali) indica se la trasformazione mantiene l'orientazione dello spazio, ed il suovalore assoluto indica come cambiano le aree degli oggetti dopo la trasformazione.

Autovalori e autovettori

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Autovettore e autovalore.
In questa trasformazione lineare dellaGioconda, l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no.

Per caratterizzare un endomorfismo è utile studiare alcuni vettori, chiamatiautovettori. Geometricamente, un autovettore è un vettore che non cambia direzione. Da un punto di vista algebrico, si tratta di un vettorev{\displaystyle v} tale che

Av=λv{\displaystyle Av=\lambda v}

per qualche scalareλ{\displaystyle \lambda }, dettoautovalore. L'endomorfismo è particolarmente semplice da descrivere se èdiagonalizzabile: geometricamente, questo vuol dire che esiste una base di autovettori; algebricamente, vuol dire che l'endomorfismo può essere rappresentato tramite unamatrice diagonale, come ad esempio

(2001).{\displaystyle {\begin{pmatrix}2&0\\0&-1\end{pmatrix}}.}

Gli autovalori possono essere trovati agevolmente calcolando ilpolinomio caratteristico della matrice associata, definito come

p(λ)=det(AλI).{\displaystyle p(\lambda )=\det(A-\lambda I).}

Gli autovalori diA{\displaystyle A} sono precisamente le radici di questo polinomio. Gli autovettori si organizzano in sottospazi vettoriali chiamatiautospazi. Quando lo spazio vettoriale è uno spazio di funzioni, l'autovalore è una particolare funzione, chiamataautofunzione.

Forma canonica di Jordan

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Forma canonica di Jordan.

Un endomorfismo diagonalizzabile è rappresentabile in modo agevole tramite una matrice diagonale. Non tutti gli endomorfismi sono però diagonalizzabili: ad esempio, unarotazione antioraria del piano cartesianoR2{\displaystyle \mathbb {R} ^{2}} di angoloθ{\displaystyle \theta } è rappresentata dalla matrice

(cosθsinθsinθcosθ){\displaystyle {\begin{pmatrix}\cos \theta &-\sin \theta \\\sin \theta &\cos \theta \end{pmatrix}}}

che (perθ{\displaystyle \theta } diverso da 0 eπ{\displaystyle \pi }) non ha autovalori né autovettori, e quindi a maggior ragione non può essere diagonalizzabile. Un altro esempio di matrice non diagonalizzabile è la seguente

(1101).{\displaystyle {\begin{pmatrix}1&1\\0&1\end{pmatrix}}.}

Se il campo considerato è però il campoC{\displaystyle \mathbb {C} } deinumeri complessi, è comunque possibile rappresentare l'endomorfismo tramite una matrice che assomiglia il più possibile ad una matrice diagonale, come nel secondo esempio mostrato. Questa rappresentazione, dettaforma canonica di Jordan, caratterizza completamente gli endomorfismi. Esiste un'analoga rappresentazione nel campo reale, leggermente più complicata.

Ortogonalizzazione

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Ortogonalizzazione di Gram-Schmidt e Algoritmo di Lagrange.

Similmente ad un endomorfismo, anche un prodotto scalare può essere rappresentato da unamatrice quadrata. Anche in questo contesto, la forma più semplice da trattare è quella in cui la matrice risulta essere diagonale, e questo accade precisamente quando si fissa unabase ortogonale.

A differenza degli endomorfismi, in questo contesto è sempre possibile trovare una matrice diagonale. In altre parole, per qualsiasi prodotto scalare è possibile trovare basi ortogonali. Se il prodotto scalare èdefinito positivo, un algoritmo efficiente a questo scopo è l'ortogonalizzazione di Gram-Schmidt. Per prodotti scalari più generali si può usare l'algoritmo di Lagrange.

Teoremi

[modifica |modifica wikitesto]

Teorema della dimensione

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Teorema della dimensione.

Ilteorema della dimensione (odel rango, o anchedi nullità più rango) è un teorema che mette in relazione le dimensioni delnucleo e dell'immagine di un'applicazione linearef{\displaystyle f}, secondo la formula:

dimIm(f)+dimKer(f)=n.{\displaystyle \dim \operatorname {Im} (f)+\dim \operatorname {Ker} (f)=n.}

Qui Im e Ker denotano immagine e nucleo, mentren{\displaystyle n} è la dimensione deldominio dif{\displaystyle f}. Questo risultato è anche chiamatoteorema del rango, perché tradotto nel linguaggio delle matrici assume la forma seguente:

rk(A)+null(A)=n.{\displaystyle \operatorname {rk} (A)+\operatorname {null} (A)=n.}

Qui rk e null indicano rispettivamente ilrango e l'indice di nullità di una matriceA{\displaystyle A} del tipom×n{\displaystyle m\times n}.

Teorema di Rouché-Capelli

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Teorema di Rouché-Capelli.

Ilteorema di Rouché-Capelli dà alcune informazioni sull'insieme delle soluzioni di un generico sistema lineare:

Ax=b.{\displaystyle Ax=b.}

Il teorema afferma due cose:

In particolare, il numero di soluzioni può essere solo zero, uno o infinito (se le equazioni sono a coefficienti reali o complessi).

Il teorema è generalmente usato per determinare rapidamente se un sistema ammette una o più soluzioni: non può però essere usato per determinarle esplicitamente. Uno strumento per questo scopo è ilmetodo di eliminazione di Gauss.

Relazione di Grassmann

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Formula di Grassmann.

La formula di Grassmann mette in relazione le dimensioni di vari sottospazi, definiti a partire da due sottospaziV{\displaystyle V} eW{\displaystyle W} entrambi contenuti uno spazio fissatoU{\displaystyle U}. La formula è la seguente:

dimV+dimW=dim(V+W)+dim(VW).{\displaystyle \dim V+\dim W=\dim(V+W)+\dim(V\cap W).}

Nell'espressione compaiono i sottospazi ottenuti come somma e intersezione diV{\displaystyle V} eW{\displaystyle W}.

Teorema spettrale

[modifica |modifica wikitesto]
Lo stesso argomento in dettaglio:Teorema spettrale.

Ilteorema spettrale fornisce una condizione forte didiagonalizzabilità per alcuni endomorfismi, dettisimmetrici o autoaggiunti (a volte il termineoperatore è usato come sinonimo di endomorfismo). La nozione di endomorfismo simmetrico (o operatore autoaggiunto) dipende dalla presenza di un fissatoprodotto scalare definito positivo (ohermitiano se si usano spazi vettorialicomplessi). Il teorema spettrale asserisce che un tale endomorfismo ha unabase ortonormale formata daautovettori.

Generalizzazione e argomenti correlati

[modifica |modifica wikitesto]

I metodi dell'algebra lineare sono stati estesi ad altre branche della matematica, grazie al loro successo. Nella teoria deimoduli si sostituisce ilcampo degli scalari con unanello. L'algebra multilineare si occupa dei problemi che mappano linearmente 'molte variabili' in un numero differente di variabili, portando inevitabilmente al concetto ditensore. Nellateoria spettrale degli operatori si riescono a gestire matrici di dimensione infinita applicando l'analisi matematica in una teoria non puramente algebrica. In tutti questi casi le difficoltà tecniche sono maggiori.Inoltre, l'algebra lineare viene a essere fondamentale per ambiti riguardanti l'ottimizzazione, in particolare laricerca operativa. Infine l'algebra risulta centrale in tutte le operazioni di machine learning e deep learning[5]. E più in generale è fondativa dello studio deibig data[6].

Note

[modifica |modifica wikitesto]
  1. ^ Gatto, Letterio.,Lezioni di algebra lineare e geometria per l'ingegneria : i veri appunti del corso, CLUT, 2013,ISBN 9788879923439,OCLC 956082822.URL consultato il 19 marzo 2019.
  2. ^Più precisamente, questo accade per uno spazio vettoriale reale dotato di unprodotto scalare definito positivo.
  3. ^Lo spazio delle soluzioni di un sistema è unospazio affine, ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito.
  4. ^Problemi computazionali che limitano l'uso della Regola di Cramer
  5. ^(EN) Wenbo Sun, Asterios Katsifodimos e Rihan Hai,Accelerating machine learning queries with linear algebra query processing, inDistributed and Parallel Databases, vol. 43, n. 1, 2025-12,DOI:10.1007/s10619-024-07451-7.URL consultato il 19 novembre 2025.
  6. ^ Erica Magnani,Algebra lineare e sue applicazioni al Machine Learning, Deep Learning e Big Data Analysis, suMimìr AI Agent, 17 luglio 2023.URL consultato il 19 novembre 2025.

Bibliografia

[modifica |modifica wikitesto]

Voci correlate

[modifica |modifica wikitesto]

Altri progetti

[modifica |modifica wikitesto]

Altri progetti

Collegamenti esterni

[modifica |modifica wikitesto]
V · D · M
Algebra lineare
Spazio vettorialeVettore ·Sottospazio vettoriale(Sottospazio generato) ·Applicazione lineare(Nucleo ·Immagine) ·Base ·Dimensione ·Teorema della dimensione ·Formula di Grassmann ·Sistema lineare ·Algoritmo di Gauss ·Teorema di Rouché-Capelli ·Regola di Cramer ·Spazio duale ·Spazio proiettivo ·Spazio affine ·Teorema della dimensione per spazi vettoriali
MatriciIdentità ·Nulla ·Quadrata ·Invertibile ·Simmetrica ·Antisimmetrica ·Trasposta ·Diagonale ·Triangolare ·Di cambiamento di base ·Ortogonale ·Normale ·Rotazione ·Simplettica ·Moltiplicazione di matrici ·Rango ·Teorema di Kronecker ·Minore ·Matrice dei cofattori ·Determinante ·Teorema di Binet ·Teorema di Laplace ·Radice quadrata di una matrice
DiagonalizzabilitàAutovettore e autovalore ·Spettro ·Polinomio caratteristico ·Polinomio minimo ·Teorema di Hamilton-Cayley ·Matrice a blocchi ·Forma canonica di Jordan ·Teorema di diagonalizzabilità
Prodotto scalareForma bilineare ·Sottospazio ortogonale ·Spazio euclideo ·Base ortonormale ·Algoritmo di Lagrange ·Segnatura ·Teorema di Sylvester ·Gram-Schmidt ·Forma sesquilineare ·Forma hermitiana ·Teorema spettrale
V · D · M
Aree della matematica
Logica matematicaTeoria degli insiemi ·Teoria dei modelli ·Teoria della dimostrazione
AlgebraTeoria dei gruppi ·Teoria degli anelli ·Teoria dei campi ·Algebra computazionale
Teoria dei numeriAritmetica ·Teoria algebrica dei numeri ·Teoria analitica dei numeri
Matematica discretaCombinatoria ·Teoria degli ordini ·Teoria dei giochi
GeometriaGeometria differenziale ·Geometria discreta ·Topologia ·Geometria combinatoria ·Geometria algebrica ·Teorema di Pitot
Analisi matematicaCalcolo infinitesimale ·Analisi complessa ·Analisi non standard ·Analisi armonica ·Analisi funzionale ·Teoria della misura ·Equazioni differenziali ·Teoria degli operatori
Teoria della probabilità eStatisticaProcessi stocastici
Fisica matematicaMeccanica classica ·Sistemi dinamici ·Meccanica statistica ·Meccanica quantistica ·Meccanica dei fluidi
Analisi numerica eRicerca operativaTeoria dell'approssimazione ·Integrazione numerica ·Ottimizzazione
Matematiche complementariStoria della matematica ·Didattica della matematica ·Matematica ricreativa
AltroBiologia matematica ·Matematica finanziaria ·Crittografia
V · D · M
Geometria
Principali settoriGeometria euclidea (Piana ·Solida) ·Geometria analitica (Algebra lineare ·Geometria affine) ·Geometria algebrica (Geometria proiettiva ·Varietà algebrica) ·Geometria differenziale (Geometria non euclidea) ·Topologia
Controllo di autoritàThesaurus BNCF17729 ·LCCN(ENsh85003441 ·GND(DE4035811-2 ·BNE(ESXX527736(data) ·BNF(FRcb11937509n(data) ·J9U(EN, HE987007293931805171 ·NDL(EN, JA00570681
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Estratto da "https://it.wikipedia.org/w/index.php?title=Algebra_lineare&oldid=148063929"
Categoria:
Categorie nascoste:

[8]ページ先頭

©2009-2025 Movatter.jp