IL CALCOLO DELLE
PROBABILITA’
0. Origini
Il concetto di probabilità sembra che fosse del tutto ignoto agli antichi
malgrado si sia voluto trovare qualche cenno di ragionamento in cui esso
è implicitamente presente. Il primo documento in cui si fa cenno alla
probabilità si può far risalire al 1324 (1325) ed è un commento alla
seguente terzina dantesca del IV Canto del Purgatorio della Divina
Commedia:
Quando si parte il giuoco della zara
Colui che perde si rimane dolente
Ripetendo le volte e tristo impara
fatto da Giovanni della Lana che, oltre che commentare l’aspetto umano
del giocatore, descrive anche il perché “il tristo impara”. Il gioco della
zara consiste nel lanciare tre volte un dado e quindi conteggiare la somma
ottenuta. L’autore commenta che i giocatori imparano a loro spese che la
combinazione più facile da ottenere è la (4-3-1) indipendentemente
dall’ordine (ossia somma 7).
I primi studi conosciuti riguardanti questioni di probabilità si riferiscono
sempre al gioco dei dadi e si trovano nel libro « De aleae ludo » (il gioco
dei dadi) di Girolamo Cardano.
Un altro documento risale al 1640 ed è la risposta di Galilei ad un quesito
postogli da un gruppo di giocatori fiorentini e sempre sul gioco della
zara: essi non riuscivano a comprendere perché fosse più facile ottenere
10 o 11 piuttosto che 9 o 12 e ciò spinse Galileo Galilei a scrivere il libro
« Sopra le scoperte dei dadi ».
L’effettivo inizio della teoria della probabilità , però, si fa risalire ad una
corrispondenza epistolare fra i matematici francesi Pascal e Fermat,
originata intorno al 1650 da alcuni problemi posti a Pascal da un accanito
giocatore d’azzardo: il Cavaliere De Méré. I problemi erano:
11
ï· Ã più probabile ottenere almeno un 6 lanciando 4 volte un dado o
avere un doppio 6 lanciando 24 volte lo stesso dado?
ï· Se due giocatori (ugualmente bravi) interrompono un gioco in cui
vince per primo chi totalizza un certo punteggio, senza averlo
raggiunto, come si divide il premio?
Pascal chiese aiuto a Fermat e dalla loro corrisopondenza nascono le
prime leggi del calcolo combinatorio e delle probabilità tanto che nel
1654 pubblica il Traité du Triangle Arithmétique (in cui parla del
triangolo di Tartaglia). Nel 1657 l’olandese Huygens pubblica il De
ratiocinis in ludo aleae (cioè Sul ragionamento nel gioco dei dadi) e nel
1666 il tedesco Leibniz pubblica la sua Dissertatio de arte combinatoria.
Ma il primo volume veramente importante sulla teoria della probabilità è
Ars conjectandi (Arte di congetturare) di Jacques Bernouilli apparso nel
1713 (otto anni dopo la morte dell’autore). E fu in questi anni che la
teoria della probabilità ebbe il maggior sviluppo perché in molti furono
interessati all’argomento. Nel 1812 Pierre de Laplace introdusse una
grande quantità di nuove idee e tecniche matematiche nel suo libro
Théorie Analytique des Probabilités, ed in quegli stessi anni Gauss, con il
contributo dello stesso Laplace, dava una formulazione della
distribuzione normale conosciuta con il nome di distribuzione di Gauss-
Laplace che costituisce uno dei cardini su cui si fonda la statistica
moderna.
1. Eventi aleatori
Sappiamo che esistono avvenimenti che si verificano con certezza mentre
altri, con altrettanta certezza, non possono verificarsi. Così, ad esempio,
si verifica con certezza che estraendo da un’urna contenente solo palline
rosse, sia rossa: chiameremo questo evento evento certo. Per contro non
si verifica sicuramente che, estraendo dall’urna descritta in precedenza
una pallina, sia bianca: diremo allora che questo è un evento impossibile.
Esistono altri avvenimenti che possono o no verificarsi, cioè esistono
eventi possibili la cui realizzazione è incerta, cioè dipende dal caso:
questi ultimi vengono detti eventi aleatori ( o casuali).
Così, se si getta in alto una moneta, il fatto che cadendo può presentare
una faccia piuttosto che l’altra, è un evento aleatorio. Estraendo da
un’urna contenente palline bianche e nere, il fatto che si presenti la
bianca piuttosto che la nera è ugualmente un evento aleatorio.
Il verificarsi di un evento aleatorio rappresenta quindi una alternativa fra i
diversi casi che si possono verificare in una prova. Ad esempio
supponiamo di voler estrarre da un’urna contenente 15 palline bianche e
12
12 nere, una pallina bianca: se la pallina estratta risulta bianca, parliamo
di evento favorevole; se la pallina estratta non è bianca parleremo di
evento contrario. Appare però evidente che la somma dei casi favorevoli
e di quelli contrari è uguale al numero dei casi possibili
Nell’ambito degli eventi aleatori sono da distinguere eventi che hanno
maggiori probabilità di verificarsi rispetto ad altri: ed è appunto il calcolo
delle probabilità che cerca di formulare delle valutazioni numeriche della
probabilità del verificarsi di tali eventi aleatori. à anche da osservare che
non esiste un’unica definizione di probabilità e non esiste un unico modo
di valutare la probabilità del verificarsi di un evento aleatorio.
2. Probabilità classica
Consideriamo i seguenti problemi:
ï· Se lanciamo una moneta regolare (non truccata) e chiediamo ad
una qualsiasi persona qual è la probabilità di ottenere testa, si
ottiene la risposta che nel 50% dei casi si presenta testa e
nell’altro 50% si presenta croce. Nel calcolo delle probabilità si
preferisce affermare che la probabilità di ottenere testa è
1
2
.
ï· Estraiamo una carta da un mazzo di 40 (dopo averle mescolate) e
chiediamo ad una persona di indicare qual è la probabilità che la
carta estratta sia di fiori. Sapendo che delle 40 carte 10 sono di
fiori, si potrà concludere che la probabilità di estrarre una carta di
fiori da un mazzo di 40 è del 25%, o meglio è 10 1
40 4
ï½ .
A questo punto possiamo dare la definizione di probabilità , data da
Laplace, secondo la concezione classica:
Diremo probabilità di un evento E, e la indicheremo con P( E ), il
rapporto fra il numero di casi favorevoli m (al verificarsi di E) ed il
numero n dei casi possibili (a patto che siano tutti ugualmente
possibili).
In formula matematica si ha:
P( E ) =
m
n
.
13
In base alla definizione possiamo osservare che la probabilità p è
sempre un numero compreso tra 0 e 1, cioè è:
0 ï£ p ï£ 1.
Se m = 0 vuol dire che non esistono casi favorevoli al verificarsi
dell’evento e l’evento stesso è quindi detto impossibile e la sua
probabilità è nulla, cioè è P( E ) = 0.
Se m = n vuol dire che tutti casi sono favorevoli al verificarsi dell’evento
e l’evento è quindi certo e la sua probabilità è P( E ) = 1.
Questa probabilità si dice anche probabilità calcolata a priori, perché
essa è determinata indipendentemente da ogni prova sperimentale. Un
tipico esempio di applicazione della concezione classica di probabilità si
ha in genetica con le leggi ottenute da Mendel sullo studio dei problemi
legati all’ereditarietà .
3. Probabilità statistica (o frequentista)
Secondo la concezione frequentista, per conoscere la probabilità di un
evento si ricorre all’esperimento e quindi non ha senso calcolare la
probabilità di una singola prova perché non si può prevedere il risultato
di un singolo esperimento mentre in una successione di prove si riscontra
una certa regolarità .
Ad esempio, se si lancia più volte una moneta, non si calcola la
probabilità che a un determinato lancio si presenti testa, ma si calcola la
probabilità che si presenti testa dopo aver effettuato un congruo numero
di lanci.
Si dà la seguente definizione:
si definisce frequenza relativa di un evento in n prove (effettuate tutte
nelle stesse condizioni) il rapporto tra il numero k delle prove nelle
quali l’evento si è verificato ed il numero n delle prove effettuate, cioè:
k f
n
ï½ .
La frequenza dipende non solo dal numero n delle prove effettuate ma,
per uno stesso numero n di prove, può variare al variare del gruppo delle
prove che si prende in considerazione. Ad esempio, se si lancia 100 volte
una moneta e si presenta 46 volte il lato testa, effettuando altri 100 lanci è
possibile che il lato testa si presenti un numero diverso di volte, per
14
esempio 52. Ne segue che la frequenza relativa per il primo gruppo di
lanci è
46
100
mentre quella relativa al secondo gruppo è
52
100
.
Anche la frequenza (come la probabilità ) è un numero compreso fra 0 e
1, ma questa volta se f = 0 non possiamo affermare che l’evento è
impossibile: possiamo dire soltanto che in quella serie di prove l’evento
non si è verificato. Così, se f = 1 non possiamo affermare che l’evento è
certo ma possiamo solo dire che in quelle n prove esso si è sempre
verificato.
Abbiamo detto che la frequenza varia al variare del gruppo delle prove
eseguite: si è constatato che, se il numero delle prove è sufficientemente
alto, il rapporto
k
n
tende a stabilizzarsi. A questo riguardo sono noti due
esperimenti. Il primo è quello del francese Buffon che lanciò 4040 volte
una moneta ottenendo testa per 2048 volte, quindi con frequenza:
2048
4040
f ï½ = 0,50693.
Il secondo è dovuto all’inglese Pearson che in un primo esperimento con
12.000 lanci ottenne testa 6019 volte con frequenza:
6019
12.000
f ï½ = 0,50158
ed in un secondo esperimento ottenne, su 24.000 lanci, 12012 volte testa
con frequenza:
12012
24.000
f ï½ = 0,5005.
Da ciò si nota che la frequenza, al crescere del numero delle prove, si
avvicina al valore 0,5 della probabilità dell’evento ''viene testa ''
calcolato con l’impostazione classica.
Per gli eventi per i quali è possibile calcolare la probabilità , si può
enunciare la cosiddetta legge empirica del caso:
In una serie di prove, ripetute un gran numero di volte ed eseguite tutte
nelle stesse condi