Introduzione e interpretazioni della probabilità
Esistono due scuole di pensiero fondamentali quando si tratta di probabilità, essendo questo un campo meno determinato di quello che si potrebbe pensare.
L’interpretazione soggettivistica fa corrispondere la misura della probabilità di un evento E al valore che un individuo è disposto a scommettere per ricavare una vincita unitaria al verificarsi di tale evento. Approccio affascinante, ma per nulla utilizzabile a livello di calcolo.La più avvalorata e intuitiva, l’interpretazione frequentista, immagina di realizzare un esperimento n volte, facendo tendere n a infinito e misurando il numero di volte che l’evento E si verifica rispetto al numero totale di esperimenti realizzati.
Interpretazione frequentista
Supponendo che un esperimento possa ripetersi un numero indeterminato di volte n e considerando f la frequenza con cui avviene un determinato evento E, la probabilità p dell’evento E si fa corrispondere a:
p(E)=\lim_{n\to \infty}\frac{f}{n}
In questo contesto si inserisce l’altrettanto intuitivo caso equiprobabile, detto anche approccio classico o di LaPlace. Per un numero finito di possibilità, ognuna di queste ha uguale probabilità di realizzarsi: con n possibili esiti, ogni esito ha probabilità 1/n.
Probabilità classica – LaPlace
Dato un esperimento con n possibili esiti equiprobabili, un evento E con k casi favorevoli ha probabilità:
P(E)=\frac{k}{n}=\frac{casi \space favorevoli}{casi \space totali}
Il cui classico esempio è il lancio di un dado regolare: con p(2)=1/6 e p(pari)=3/6=1/2
Approccio insiemistico alla probabilità
L’utilizzo di nozioni insiemistiche nell’ambito della probabilità permette una modellizzazione vincente in molte situazioni: a un esperimento casuale è associato un insieme contenente tutti i possibili esiti. Ogni evento corrisponde quindi a sua volta a un insieme di esiti, o all’insieme vuoto.
Spazio campionario
Uno spazio campionario S è l’insieme che contiene tutti i possibili esiti di un esperimento casuale. Un evento generico E è quindi contenuto in S.
E \subseteq S
Dove S è detto evento certo e è l’evento impossibile.
Seguono le seguenti proprietà (esempio con il lancio di un dado regolare):
- due eventi si dicono incompatibili se il verificarsi di uno esclude l’altro – {il numero è pari}, {il numero è dispari} sono due eventi incompatibili
- un evento si dice elementare se contiene un solo esito: E ={e} – E={2}
- si dice complementare dell’evento E l’evento che si verifica quando E non si verifica: E=S\E – con E={1, 2, 3}, E={4, 5, 6}
Assiomi di Kolmogorov
Per studiare anche i casi non equiprobabili, Kolmogorv sviluppò tre assiomi fondamentali a base insiemistica. Dato lo spazio campionario S, e p la misura di probabilità che a ogni evento E incluso in S fa corrispondere un valore compreso in [0, 1], secondo la relazione
p: E \subseteq S \mapsto p(E)
si enunciano i tre assiomi fondamentali:
1. \quad p(E) \geq 0
2. \quad P(S)=1
3. \quad E_1, E_2 \space incompatibili \Rightarrow p(E_1 \cup E_2) = p(E_1)+p(E_2)
Dato uno spazio campionario finito S={s1, s2, …, sn}, p è una misura di probabilità:
Se e solo se i singoli eventi hanno probabilità maggiore di 0 e la somma delle probabilità totali è uguale a 1
\Leftrightarrow p(s_i) \geq 0 \space \forall i=1, ..., n \quad e \quad \sum_{i=1}^np(s_i)=1
In questo spazio assiomatico sono dimostrabili i seguenti teoremi:
1.
p(\emptyset)=0
Evidentemente la probabilità che non si verifichi nessun possibile esito o combinazione di esiti (detto evento nullo) non può che essere uguale a 0.
2.
p(\overline{E})=p(S \setminus E) = p(S)-p(E)=1-p(E)

La probabilità che si verifichi il complementare di E (anche detto non-E) è pari alla probabilità totale (=1) meno quella dell’evento considerato.
3.
p(A\setminus B)= p(A) - p(A \cap B)




Graficamente si intuisce facilmente che, sottraendo la probabilità dell’intersezione di A e B alla probabilità di A, si ottiene la probabilità che A si verifichi ma non B.
4.
p(A\cup B) = P(A) + p(B) - p(A\cap B)




Sommando le probabilità di 2 eventi che non si escludono si considera 2 volte l’intersezione dei 2 eventi: per questa ragione la si sottrae 1 volta. Se invece i 2 eventi si escludessero, sottrarre la loro intersezione corrisponderebbe a sottrarre 0, non cambiando quindi il risultato, che nello specifico risulta essere unicamente la somma delle 2 probabilità.
Probabilità condizionata e teorema di Bayes
Sin qui abbiamo considerato casi dove la probabilità di un esito non era influenzata dai risultati ottenuti precedentemente. Risulta però utile poter calcolare la probabilità di un evento A, sapendo che si è già verificato un evento B connesso ad A.




Questo è possibile farlo considerando B come un nuovo spazio campionario dell’evento A|B(blu): il verificarsi di A corrisponderebbe quindi a AB(rosso).
A|B si legge A dato B
Probabilità condizionata
Sia S uno spazio campionario e A,B inclusi in S, allora:
p(A|B)=\frac{p(A\cap B)}{p(B)}
Se il verificarsi di A non fosse in relazione con B, A e B si direbbero stocasticamente indipendenti p(A|B)=p(A).
Da queste considerazioni possiamo valutare i due casi:
p(A|B)=\frac{p(A \cap B)}{p(B)} \quad e \quad p(B|A)=\frac{p(A \cap B)}{p(A)}
da cui ricaviamo il
Teorema di Bayes
dati A, B inclusi in S due eventi su uno spazio campionario S, se conosciamo p(A), p(B)e la probabilità condizionata p(B|A), possiamo ricavare:
p(A|B)=\frac{p(B|A)\cdot p(A)}{p(B)}
Riprendendo la nozione di probabilità totale e mettendola in relazione al teorema di Bayes otteniamo il:
Teorema della probabilità totale
Data
P={A1, A2, …, An}una partizione di uno spazio campionario S e B inclusi in S un evento, allora:
p(B)=p(B \cap A_1) + ... + p(B \cap A_n)=\newline=p(B)\cdot p(B|A_1)+...+p(B)\cdot p(B|A_n)




Variabili aleatorie discrete
Una variabile aleatoria è una funzione che, dato uno spazio campionario finito (o numerabile), fa corrispondere a ogni suo esito un valore reale:
X: S \mapsto \R
per esempio nel lancio di due dadi gli esiti sono copie di valori e compongono lo spazio campionario, il risultato della loro somma è una variabile aleatoria discreta legata all’esperimento.
La probabilità legata a una variabile aleatoria discreta è definita su S:
p(s) per ogni s in S si dice distribuzione di probabilità rispetto a X e permette di assegnare una misura di probabilità ai valori della variabile aleatoria.