L'indipendenza statistica è un concetto fondamentale in probabilità e statistica che descrive una situazione in cui il verificarsi di un evento non influisce sul verificarsi di un altro. In altre parole, due eventi sono indipendenti se la conoscenza di uno non fornisce alcuna informazione sull'altro.
Due eventi \( A \) e \( B \) sono detti indipendenti se e solo se:
\( P(A \cap B) = P(A) \times P(B) \)
Dove:
Questa equazione indica che la probabilità che entrambi gli eventi si verifichino insieme è uguale al prodotto delle loro probabilità individuali.
Per eventi indipendenti, la probabilità congiunta è il prodotto delle probabilità marginali.
Il verificarsi dell'evento \( A \) non modifica la probabilità dell'evento \( B \), e viceversa.
Quando si trattano variabili casuali, l'indipendenza implica che il valore di una variabile non influisce sulla distribuzione di probabilità di un'altra.
Per due variabili casuali \( X \) e \( Y \), esse sono indipendenti se per tutti i valori
\( x \) e \( y \):
\( P(X = x \text{ e } Y = y) = P(X = x) \times P(Y = y) \)
La probabilità condizionata di \( A \) dato \( B \) è:
\( P(A \mid B) = \dfrac{P(A \cap B)}{P(B)} \)
Se \( A \) e \( B \) sono indipendenti:
\( P(A \mid B) = P(A) \)
Ciò significa che sapere che \( B \) è accaduto non cambia la probabilità di \( A \).
Per variabili casuali indipendenti \( X \) e \( Y \):
\( E[XY] = E[X] \times E[Y] \)
Dove \( E[X] \) denota il valore atteso (media) di \( X \).
Lanciando una moneta equa due volte, il risultato del primo lancio non influisce sul risultato del secondo.
Poiché i lanci sono indipendenti:
\( P(A \cap B) = P(A) \times P(B) = \left( \dfrac{1}{2} \right) \times \left( \dfrac{1}{2} \right) = \dfrac{1}{4} \)
Lanciando due dadi, l'esito di un dado non influenza l'esito dell'altro.
Probabilità:
\( P(A \cap B) = P(A) \times P(B) = \left( \dfrac{1}{6} \right) \times \left( \dfrac{1}{6} \right) = \dfrac{1}{36} \)
Utilizzato per variabili categoriche per verificare se due variabili sono indipendenti.
Per variabili continue, il coefficiente di correlazione di Pearson misura la dipendenza lineare.
Un coefficiente pari a zero suggerisce assenza di relazione lineare, ma non necessariamente implica indipendenza.
Due variabili possono essere non correlate ma non indipendenti, specialmente in presenza di relazioni non lineari.
L'indipendenza implica correlazione zero, ma il contrario non è sempre vero.
Eventi mutuamente esclusivi non possono verificarsi simultaneamente (\( P(A \cap B) = 0 \)).
Eventi mutuamente esclusivi non sono indipendenti a meno che almeno uno degli eventi abbia probabilità zero.
Un insieme di eventi \( \{A_1, A_2, \dots, A_n\} \) è mutuamente indipendente se e solo se, per ogni sottoinsieme \( S \):
\( P\left( \bigcap_{i \in S} A_i \right) = \prod_{i \in S} P(A_i) \)
La funzione di densità di probabilità congiunta si fattorizza nel prodotto delle marginali:
\( f_{X,Y}(x,y) = f_X(x) \times f_Y(y) \)
La randomizzazione assicura l'indipendenza tra le unità sperimentali, riducendo i bias.
Sistemi con guasti di componenti indipendenti possono essere analizzati utilizzando le regole di probabilità per l'indipendenza.
L'indipendenza è cruciale per creare sistemi crittografici sicuri in cui le componenti chiave non rivelano informazioni l'una sull'altra.
L'indipendenza statistica è un concetto fondamentale in probabilità e statistica, sostenendo molti risultati teorici e applicazioni pratiche. Comprendendo l'indipendenza, possiamo modellare meglio i fenomeni casuali, progettare esperimenti robusti e fare inferenze accurate dai dati.