Академический Документы
Профессиональный Документы
Культура Документы
McGraw-Hill 2011
Prima parte: soluzioni pag. 3
Seconda parte: risultati degli esercizi proposti pag. 105
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011
1
Soluzioni
1.1 Due modi possibili: possiamo innanzitutto considerare tutti i numeri di telefono come
equiprobabili. Essi sono dunque 9 107 (9 possibilit per la prima cifra, 10 per le altre 7). Tra
di essi quelli che non contengono lo 0 sono 9 97 (9 possibilit per ognuna delle 8 cifre). La
probabilit che un numero scelto a caso non contenga lo 0 dunque
9 7
9 97
=
= 0.48 .
9 107
10
Alternativamente, indichiamo con Ai , i = 2, . . . , 8 levento la i-esima cifra del numero
da chiamare diversa da 0. La probabilit richiesta quella dellintersezione degli eventi
9
Ai , i = 2, . . . , 8. Ora P(Ai ) = 10
, i = 2, . . . , 8, poich ragionevole supporre che tutte le
cifre abbiano la stessa probabilit di apparire allo i-esimo posto. E se supponiamo che i valori
delle diverse cifre che appaiono in un numero siano indipendenti ritroviamo ancora
9 7
.
P(A2 . . . A8 ) = P(A2 ) . . . P(A8 ) =
10
1.2 a) Linsieme dei possibili risultati costituito da tutti i numeri da 000000 a 999999 (che
sono 1 milione). Possiamo scegliere questo insieme come . Naturalmente su considereremo
la distribuzione uniforme di probabilit, poich non c motivo di supporre che alcuni numeri
siano pi probabili di altri. Poich ha cardinalit 1 milione, la probabilit che il biglietto di
Ole Kamp vinca 106 .
b) Levento A costituito da tutti i numeri le cui prime 4 cifre sono 0096, che sono 100.
#A
Dunque P(A) = #
= 104 . Se A allora P({} A) = P({}) = 106 e quindi
P({})
1
P({}|A) = P(A) = 102 = #A
. Se invece 6 A allora levento {} A vuoto e
P({}|A) = 0. In conclusione la probabilit che un numero sia estratto ora
1
P({} A)
= #A se A
P({}|A) =
0
se 6 A .
P(A)
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011
Parte 1: soluzioni
In altre parole la probabilit condizionale dato A vale 0 se il numero non si trova in A, mentre
tutti i numeri che si trovano in A sono equiprobabili. La probabilit del biglietto di Ole Kamp
1
1
, cio 100
. Se invece A fosse levento costituito dai numeri che iniziano con 00967, la
ora #A
1
1
probabilit P( |A) varrebbe 10
(cio sempre #A
) per tutti i biglietti le cui cifre iniziano con
00967 e 0 per gli altri.
1
1
1
= 2 =
#
7
49
25
49
b) Ora si tratta di calcolare la probabilit dellevento D delle coppie (1 , 2 ) dove uno almeno
tra 1 e 2 diverso da B1 , B2 , B3 , B4 . Dunque il complementare di D levento
P(A) =
D c = {B1 , B2 , B3 , B4 }2
e poich #D c = 16 allora P(D) = 1 P(D c ) = 1
2) Secondo modello. Consideriamo gli eventi
Z1
Z2
W1
W2
16
49
33
49 .
Senza preoccuparci per ora di definirlo esplicitamente, chiaro che, in uno spazio (, !, P)
adeguato a descrivere questa situazione, gli eventi Z1 e Z2 devono risultare indipendenti e cos
Esercizio 1.4
7
7
49
b) Levento una almeno delle palline estratte nera con la formulazione appena introdotta
non altro che W1 W2 . Usando la formula della probabilit della unione di eventi (osservare
che W1 e W2 non sono disgiunti) abbiamo
P(W1 W2 ) = P(W1 ) + P(W2 ) P(W1 W2 ) =
33
3 3 3 2
+
=
7 7
7
49
1.4 Anche questo esercizio pu essere risolto in (almeno) due modi, uno usando la formula
delle probabilit totali (1.12), laltro costruendo esplicitamente lo spazio di probabilit e usando
i metodi del calcolo combinatorio (cio contando la cardinalit degli eventi).
Come abbiamo gi visto negli esempi il metodo della partizione dellevento certo consiste nel
cercare degli eventi A1 , . . . , Am disgiunti, tali che la loro unione abbia probabilit 1 e tali che
il calcolo delle probabilit condizionali P(C |Ai ) sia facile. In questo caso una buona scelta
costituita dagli eventi Ai =la prima pallina estratta la numero i, i = 1, . . . , 6. chiaro
che gli eventi A1 , . . . , A6 costituiscono una partizione dellevento certo (sono disgiunti e la loro
unione esaurisce tutte le possibilit). Inoltre P(Ai ) = 61 per ogni i = 1, . . . , 6. Se indichiamo
con C levento le due estrazioni danno luogo a due numeri consecutivi, allora si ha
P(C |A2 ) =
Parte 1: soluzioni
Infatti dopo la prima estrazione (della pallina con il numero 2) nellurna sono rimaste 5 palline
e levento C si verifica se vengono estratte le palline numero 1 oppure 3, con probabilit 25 ,
appunto. Per lo stesso motivo si ha anche
P(C |A3 ) = P(C |A4 ) = P(C |A5 ) =
Se invece la prima pallina estratta la numero 1, nellurna restano sempre 5 palline, ma ora
levento C si verifica solo se la seconda estratta la numero 2, con probabilit 51 . Lo stesso vale
se la prima pallina estratta la numero 6, perch anche in questo caso si ha lo stesso effetto
di bordo. Dunque
1
P(C |A1 ) = P(C |A6 ) =
5
Possiamo ora applicare la formula (1.12):
P(C) = P(C |A1 )P(A1 ) + . . . + P(C |A6 )P(A6 ) =
2 1
1 1
2 +4
=
6
5
5
3
Secondo modo: se poniamo E = {1, 2, 3, 4, 5, 6}, lestrazione delle due palline dallurna
equivale alla scelta a caso di un sottoinsieme di due elementi dellinsieme E. Linsieme dei
possibili risultati dellesperimento casuale dunque =insieme di tutti i sottoinsiemi di due
elementi di E.
Sappiamo dalle formule del calcolo combinatorio (Proposizione 1.24) che # = 26 = 15.
Levento C corrisponde in questo modello al sottoinsieme di dei sottoinsiemi di E formati da
due elementi consecutivi. Poich la cardinalit di piccola possiamo semplicemente passare
in rivista tutti i possibili sottoinsiemi di due elementi e trovare che C formato dai sottoinsiemi
5
{1, 2}, {2, 3}, {3, 4}, {4, 5}, {5, 6}. Dunque la cardinalit di C uguale a 5 e P(C) = 15
= 13 .
Osserviamo che gli elementi di sono sottoinsiemi di cardinalit 2 e non coppie ordinate.
Sarebbe stato comunque possibile anche scegliere come spazio linsieme delle coppie ordinate
di elementi di E (cio le disposizioni di elementi di E a due a due). La cardinalit di sarebbe
6!
per ora pari a 4!
= 30 ed il calcolo della cardinalit dellevento corrispondente a C diventa
solo un po pi complicato.
1.5 a) Indichiamo con 1 , 2 le posizioni dei due amici nella coda. Linsieme {1 , 2 }
un sottoinsieme di {1, . . . , n} di cardinalit 2. Possiamo dunque considerare come modello di
questo problema linsieme dei sottoinsiemi
di cardinalit 2 di {1, . . . , n} con la probabilit
(Proposizione 1.24) e levento di cui vogliamo
uniforme. La cardinalit di n2 = n(n1)
2
calcolare la probabilit corrisponde al sottoinsieme A formato dagli {1 , 2 } tali che
|1 2 | = k + 1.
Osserviamo che gli elementi di sono sottoinsiemi e non coppie ordinate, cio {1, 2} e
{2, 1} rappresentano lo stesso elemento di . Per rappresentare un elemento di in maniera
univoca indicheremo un sottoinsieme con la coppia (1 , 2 ) dove 1 il numero pi piccolo,
(cio 1 < 2 ). Per calcolare la probabilit di A abbastanza naturale usare la formula
delle probabilit totali (1.12) usando la partizione A1 , . . . , An , dove Ai = {1 = i} (cio Ai
Esercizio 1.6
corrisponde allevento quello dei due amici che nella coda ha il numero pi basso si trova allo
i-esimo posto). facile vedere che
n
(i, i + k + 1) se i + k + 1 n
A Ai =
altrimenti
ovvero A Ai contiene un solo elemento se i + k + 1 n ed vuoto altrimenti. Quindi
(
1
P(A Ai ) = # se i n k 1
0
altrimenti
e dunque
P(A) = P(A A1 ) + . . . + P(A An ) =
2(n k 1)
nk1
=
#
n(n 1)
#
n(n 1)
In particolare scegliendo k = 1 otteniamo che la probabilit di estrarre dallurna due
numeri consecutivi
2(n 1)
2
=
n(n 1)
n
Ci fornisce una nuova soluzione allesercizio precedente (dove si aveva n = 6).
1.6
Se indichiamo con A e B gli eventi corrispondenti rispettivamente alla presenza del
primo e del secondo difetto, allora P(A) = 0.03, P(B) = 0.07 ed inoltre gli eventi A e B
devono risultare indipendenti.
a) La probabilit che entrambi i difetti siano presenti
P(A B) = P(A)P(B) = 0.03 0.07 = 0.0021 .
b) La probabilit che uno almeno dei difetti sia presente
P(A B) = P(A) + P(B) P(A B) = 0.03 + 0.07 0.0021 = 0.0979 .
c) La probabilit che un pezzo abbia il primo difetto sapendo che difettoso
P(A|A B) =
P(A (A B))
P(A)
0.03
=
=
= 0.306 = 30.6%
P(A B)
P(A B)
0.0979
Parte 1: soluzioni
P(A B)
0.0021
=1
= 0.978 = 97.8 .%
P(A B)
0.0979
1.7 Indichiamo con A1 levento viene scelta la carta 1 (quella con i due lati neri) e con
A2 levento viene scelta la carta 2. Con B invece indichiamo levento viene scelto un lato
nero. chiaro che P(A1 ) = P(A2 ) = 21 , poich non vi motivo di supporre che le due carte
non siano equiprobabili. Inoltre P(B |A1 ) = 1, P(B |A2 ) = 21 , poich se viene scelta la carta 2,
allora vi sono due lati possibili, uno bianco e laltro nero, entrambi con probabilit 21 . Anche
il secondo lato nero se si scelta la carta 1. Dunque la probabilit richiesta non altro che
P(A1 |B) e basta dunque applicare la formula di Bayes:
P(A1 |B) =
P(B)
Resta ora solo da calcolare P(B). Ma con il metodo della partizione dellevento certo, dato che
A1 , A2 una partizione,
P(B) = P(B A1 ) + P(B A2 ) = P(B |A1 )P(A1 ) + P(B |A2 )P(A2 ) =
3
1 1
+ =
2 4
4
5 n
6
> 0.9
Esercizio 1.10
Cio, svolgendo la disuguaglianza, 0.1 > ( 65 )n , ovvero, prendendo i logaritmi e dividendo per
log 65 ,
n > log(0.1)
log 65
e cio
n > 12.62 .
Attenzione: quando si divide per log 56 occorre invertire il verso della disuguaglianza, perch si
tratta di una quantit negativa. Dunque deve essere n 13.
Da segnalare luso della formula P(A) = 1 P(Ac ). Talvolta il calcolo della probabilit
di Ac pi facile del calcolo diretto della probabilit di A.
1.9
Con la distribuzione ipergeometrica si trova che, se i voti si ripartissero a caso tra i
commissari, essi si distribuirebbero come avvenuto con probabilit
5 3
5 0
8
5
1
= 1.78 .%
56
Il giudice pu probabilmente decidere che levento verificatosi effettivamente troppo improbabile per essere il frutto del caso. Se invece i 5 voti fossero stati dati da 4 donne e un uomo,
la probabilit sarebbe stata
5 3
15
4 1
= 26.78%
=
8
56
5
che un valore abbastanza alto perch levento possa non essere giudicato improbabile.
1.10 a) Possiamo considerare le 52 carte del mazzo divise in due gruppi, uno composto dai 4
assi e laltro dalle altre 48 carte. La probabilit di ottenere esattamente k assi, per k = 1, 2, 3, 4,
non altro che la probabilit di ottenere k elementi dal primo gruppo in una estrazione di 5
elementi senza rimpiazzo. La distribuzione ipergeometrica d
pk :=
4 48
k 5k
52
5
4! 48! 5! 47!
10
Parte 1: soluzioni
1.11 facile calcolare la probabilit che le due palline numero 1 vengano estratte insieme:
basta considerare le 93 palline presenti nellurna come suddivise in due gruppi, il primo formato
dalle due palline n 1 ed il secondo dalle 91 rimanenti. Si tratta di calcolare la probabilit di
estrarre 2 palline dal primo gruppo e 3 dal secondo in cinque estrazioni senza rimpiazzo. La
probabilit richiesta si pu calcolare con le formule della distribuzione ipergeometrica e vale
2 91
p=
3
93
5
= 2.34 103 .
Esercizio 1.11
11
Se ora indichiamo con Ai , i = 1, 2, 3, levento le due palline numero i vengono estratte entrambe chiaro che i tre eventi hanno la stessa probabilit e dunque P(A1 ) = P(A2 ) =
P(A3 ) = p. Inoltre la probabilit richiesta non altro che la probabilit della riunione
degli eventi A1 , A2 , A3 . Questi non sono per disgiunti, poich, ad esempio, la cinquina
(1, 1, 2, 2, 37) si trova sia in A1 che in A2 (ovvero possibile che simultaneamente vengano
estratte le due palline n 1 e le due n 2). Possiamo per ricorrere alla formula della probabilit
della unione di tre eventi non disgiunti (formula (1.9) a pag. 8 del libro).
Chiaramente levento A1 A2 A3 ha probabilit 0 (non possibile estrarre insieme le due
palline 1, le due 2 e le due 3, visto che ne vengono estratte 5 in totale). Il problema quindi
risolto se sappiamo calcolare P(A1 A2 ) (le probabilit delle altre intersezioni la stessa per
simmetria). Ancora usando la distribuzione ipergeometrica (probabilit di estrarre 4 elementi
dal gruppo {1, 1, 2, 2} ed 1 dal gruppo formato dalle altre 89 palline) si ha
P(A1 A2 ) = q =
per cui in definitiva la probabilit richiesta
4 89
4 1
93
5
= 1.71 106
3p 3q = 0.007 = 0.7% .
b) Cominciamo col calcolare la probabilit di fare terno in unestrazione normale: ci possiamo
ancora ricondurre alla distribuzione ipergeometrica (probabilit di estrarre 3 palline dal gruppo
composto dalle palline numero 1, 2, 3 e 2 da quello composto da tutte le altre):
3 87
3 2
90
5
= 8.51 105 .
Il calcolo della probabilit di fare terno con lurna manomessa un po pi complicato. Basta
per dare unocchiata alla parte finale dellEsempio 1.28: il numero totale di cinquine 93
5 ,
mentre il numero di cinquine che contengono esattamente una pallina col numero 1, una col
numero 2 e una col numero 3
2 2 2 87
.
2
1 1 1
La probabilit di fare terno con lurna manomessa dunque
2 2 2 87
1 1 1 2
93
5
= 5.76 104 .
Nella soluzione di questo esercizio abbiamo usato due idee utili anche in altre situazioni: la
prima consiste nel calcolare la probabilit di un evento scrivendolo come riunione di altri eventi
e poi usando la formula sulla probabilit della unione di eventi non (necessariamente) disgiunti.
La seconda consiste nel ricondursi, se possibile, ad un modello gi studiato e universale (cio
che pu applicarsi a molte situazioni diverse) come quello delle prove ripetute senza rimpiazzo,
che d luogo alla distribuzione ipergeometrica.
12
Parte 1: soluzioni
1.12
a) Indichiamo con Ei , i = 1, . . . , n, levento la i-esima pallina non viene messa
nellurna 1. Per come il problema stato posto gli eventi Ei si possono supporre indipendenti;
inoltre, poich ogni volta ognuna delle tre urne ha la stessa probabilit di essere scelta, la
probabilit dellevento Ei 23 . Levento lurna 1 rimane vuota non altro che lintersezione
E1 . . . En . Quindi
P(E1 . . . En ) = P(E1 ) . . . P(En ) =
2 n
3
Alternativamente avremmo potuto osservare che siamo in presenza di uno schema di Bernoulli
(Esempio 1.20), cio di una sequenza di prove ripetute e indipendenti ciascuna delle quali
ha due possibili risultati: successo (corrispondente in questo caso allevento lurna 1 viene
prescelta) con probabilit p (= 31 nel nostro caso) e insuccesso con probabilit 1p. Abbiamo
visto nellEsempio 1.20 che in questa situazione la probabilit che non si verifichi nessun
successo appunto (1 p)n . Il nostro calcolo non altro che una ridimostrazione di questo
fatto.
b) La probabilit che una singola pallina non finisca n nellurna 1 n nella 2 (ovvero che
finisca nellurna 3) vale 13 . Siamo quindi nella situazione di uno schema successo-insuccesso
come lo abbiamo appena descritto con p = 23 . La probabilit richiesta dunque ( 31 )n .
c) Consideriamo gli eventi
A1 = lurna 1 rimasta vuota
A2 = lurna 2 rimasta vuota
A3 = lurna 3 rimasta vuota .
Levento di cui dobbiamo calcolare la probabilit lunione A1 A2 A3 e possiamo usare la
formula (1.9) sulla probabilit della unione di tre eventi non disgiunti: levento A1 A2 A3
ha chiaramente probabilit 0 (non possibile che tutte e tre le urne restino vuote). Inoltre
abbiamo gi calcolato le altre probabilit che figurano nella formula: gli eventi A1 , A2 , A3
hanno chiaramente la stessa probabilit, per motivi di simmetria, che vale ( 23 )n per il punto a);
cos pure le probabilit delle intersezioni a due a due valgono ( 31 )n per il punto b). In conclusione
la probabilit richiesta vale
1 n
2 n
3
.
3
3
3
In questo esercizio ritroviamo alcune idee gi viste:
a) luso di modelli standard (in questo caso lo schema successo-insuccesso, o di Bernoulli) a
cui ci si riconduce per sfruttare formule stabilite una volta per tutte;
b) il calcolo della probabilit di un evento ottenuta scrivendolo come riunione di altri, la cui
probabilit facile da calcolare, per poi usare la formula della unione di eventi non disgiunti.
Osserviamo infine che in questa risoluzione non abbiamo precisato quale sia lo spazio di
probabilit. Abbiamo semplicemente supposto che ne esistesse uno contenente degli eventi
E1 , . . . , En , A1 , A2 , A3 aventi certe propriet. In realt sarebbe stato possibile costruire uno
spazio (, !, P) adatto, ma ci avrebbe appesantito lo svolgimento senza renderlo n pi chiaro
Esercizio 1.13
13
n pi rigoroso. La costruzione completa dello spazio di probabilit verr spesso sottintesa negli
altri esercizi.
1.13 a) Indichiamo con Ai levento viene scelta lurna i-esima e con B levento vengono
estratte due palline di colori diversi; poich si tratta di estrazioni senza rimpiazzo la probabilit
di estrarre una pallina bianca e una rossa data dalla distribuzione ipergeometrica. Poich
nellurna i-esima vi sono 4 palline R e i palline B, deve essere
i 4
8i
1 1
(1.1)
P(B |Ai ) = 4+i =
:= qi .
(4 + i)(3 + i)
2
Inoltre P(Ai ) =
1
10 ;
P(B) =
10
X
i=1
10
1 X
8i
= 0.506 .
10
(4 + i)(3 + i)
i=1
qi
P(B |Ai ) P(Ai )
=
.
P(B)
10 P(B)
qi
(5 + i)(4 + i)
8i
i 2 + 5i
La disuguaglianza
x 2 + 4x + 3
>1
x 2 + 5x
soddisfatta per 0 < x < 3; inoltre la frazione = 1 per x = 3 ed < 1 per x > 3. Dunque
i = 1, 2
i=3
i = 4, . . . , 10 .
qi+1 > qi
qi+1 = qi
qi+1 < qi
10
qi
10 P(B)
per i = 1, . . . , 10.
14
Parte 1: soluzioni
c) Basta ripetere gli argomenti dei punti precedenti, solo che ora P(Ai ) =
2
e P(A10 ) = 11
. Dunque
1
11
per i = 1, . . . , 9
P(B) =
2
1 X
qi +
q = 0.500 .
11
11 10
i=1
10
Figura 1.2 Andamento del valore di P(Ai |B) quando le urne sono 11.
P(Ai )
P(B)
1
qi per i = 1, . . . , 9 (valore massimo raggiunto ancora per i = 3, 4),
Ora per P(Ai |B) = 11 P(B)
2
mentre P(A10 |B) = 11 P(B) q10 . Un confronto numerico mostra che ora il valore i = 10 il
pi probabile, poich P(A3 |B) = P(A4 |B) = 0.103 mentre P(A10 |B) = 0.158.
Gli aspetti importanti di questo esercizio sono luso della nozione di probabilit condizionale e della formula di Bayes.
ni+1
n1
n!
nk+1 nk+2
...
= k
=
n
n
n
n (n k)!
Esercizio 1.15
15
n!
.
e quindi la probabilit che vi sia almeno un conflitto 1 P(Ak ) = 1 nk (nk)!
Secondo modo: Scegliere a caso unassegnazione di variabili alle celle di memoria significa
scegliere a caso unapplicazione da {1, . . . , k} (linsieme delle variabili) a valori in {1, . . . , n}
(linsieme delle celle di memoria). Indichiamo con linsieme di queste applicazioni. Si pu
vedere come linsieme delle k-uple (i1 , . . . , ik ) dove i1 , . . . , ik sono numeri interi compresi
da 1 a n (non necessariamente distinti); dunque # = nk .
Linsieme B delle assegnazioni che non danno luogo a conflitto non altro che linsieme delle
applicazioni iniettive da {1, . . . , k} in {1, . . . , n}, ovvero linsieme delle k-uple (i1 , . . . , ik ) dove
numeri i1 , . . . , ik sono distinti. In altre parole B linsieme delle disposizioni di n elementi a k
n!
a k ed ha dunque cardinalit (nk)!
(Proposizione 1.23). Inoltre, poich si pu supporre che tutte
le possibili assegnazioni siano equiprobabili, considereremo su la distribuzione uniforme di
probabilit e dunque la probabilit che non vi siano conflitti
P(B) =
#B
n!
= k
#
n (n k)!
999 998
976
...
= 0.261 = 26.1%
1000 1000
1000
che una probabilit inaspettatamente elevata per cos tante celle di memoria rispetto alle
variabili.
Un esempio classico quando si parla di calcolo combinatorio quello dei compleanni
dellEsempio 1.26: qual la probabilit che in un gruppo di k persone ve ne siano almeno due
che sono nate nello stesso giorno dellanno? abbastanza utile rendersi conto che lesempio dei
compleanni lo stesso di questo appena svolto, nel senso che entrambi si riconducono allo
stesso modello. In entrambi, infatti, si considera come spazio di probabilit lo stesso insieme
delle k-uple di numeri {i1 , . . . , ik } scelti in {1, . . . , n} (n = 365 nel caso dei compleanni)
e si deve poi calcolare la cardinalit dello stesso insieme A delle k-uple formate da numeri
diversi tra loro. La morale che problemi che nascono in situazioni applicative diverse possono
ricondursi allo stesso modello (e quindi risolversi con gli stessi calcoli).
1.15 a) A vince se lultima pallina rimasta nellurna rossa, ovvero se tra le prime 5 palline estratte ve ne sono una rossa e quattro nere. Usando la distribuzione ipergeometrica la probabilit
che ci accada
2 4
1
2 5!
1 4
=
=
6
6!
3
5
Pi semplicemente si sarebbe anche potuto osservare che in uno schema di estrazioni senza
rimpiazzo la probabilit di avere un determinato risultato alla prima, alla seconda, . . . , alla
k-esima estrazione sempre la stessa (vedi lEsempio 1.30). La probabilit di avere una pallina
rossa alla sesta (e ultima) estrazione dunque la stessa che alla prima e cio 31 .
16
Parte 1: soluzioni
1.16 Il risultato dellesperimento casuale una 5-upla {k1 , . . . , k5 } di numeri compresi tra
1 e 100. Poich le palline sono estratte a caso e con rimpiazzo possiamo considerare tutte le
5-uple equiprobabili. Uno spazio di probabilit ragionevole per descrivere questo problema
dunque lo spazio formato da queste 5-uple (ovvero il prodotto cartesiano di {1, . . . , 100}
moltiplicato per se stesso 5 volte) e munito della distribuzione uniforme di probabilit. La
cardinalit di naturalmente 1005 ; levento di cui vogliamo calcolare la probabilit invece
rappresentato dallinsieme A delle 5-uple (k1 , . . . , k5 ) tali che tra i numeri k1 , . . . , k5 ve
ne siano almeno due uguali. Il problema quindi ridotto al calcolo della cardinalit di A. Il
calcolo diretto non semplice; ma un attimo di riflessione mostra che il suo complementare
Ac non altro che linsieme delle 5-uple (k1 , . . . , k5 ) tali che i numeri k1 , . . . , k5 siano tutti
diversi tra loro, ovvero linsieme delle disposizioni di 100 elementi a 5 a 5; dunque #Ac = 100!
95! .
Quindi
#Ac
=
#
99 98 97 96
100!
=1
=1
= 0.096 = 9.6% .
100 100 100 100
1005 95!
P(A) = 1 P(Ac ) = 1
Qui vale la stessa osservazione che abbiamo fatto alla fine dellEsercizio 1.14: il problema
dei compleanni, quello dellassegnazione delle variabili e questo sono lo stesso problema,
nel senso che si riconducono al calcolo della probabilit dello stesso evento nello stesso modello.
1.17 a) Indichiamo con FA levento il primo genitore fornisce un allele di tipo A e con
A1 , A2 , A3 rispettivamente gli eventi il primo genitore di tipo AA, Aa, aa rispettivamente.
Per come il problema stato posto sar
P(FA |A1 ) = 1,
P(FA |A2 ) =
1
,
2
P(FA |A3 ) = 0
e dunque
P(FA ) = P(FA |A1 )P(A1 ) + P(FA |A2 )P(A2 ) + P(FA |A3 )P(A3 ) = p +
1
q.
2
Esercizio 1.18
17
La probabilit che anche il secondo genitore trasmetta un allele di tipo A sar la stessa e, supponendo che i geni trasmessi dai due genitori siano indipendenti, otteniamo che un discendente
sar di tipo AA con probabilit p1 = (p + 21 q)2 . Analogamente esso sar di tipo aa con
probabilit r1 = (r + 21 q)2 e di tipo Aa con probabilit
q 1 = 1 p 1 r1 = 1 p +
1
2
2
r+
1
2
2
=2 p+
1
2
q r+
1
2
q .
b) Alla generazione successiva, la probabilit di osservare dei discendenti di dato tipo genetico
si otterr dalle formule precedenti, sostituendo a p, q, r i valori p1 , q1 , r1 appena calcolati.
Otteniamo
2
p2 = (p1 + 21 q1 )2 = (p + 21 q)2 + (p + 21 q)(r + 21 q) =
2
= (p + 21 q)2 = p1 .
= (p + 21 q) p + 21 q + r + 21 q
{z
}
|
=1
Con calcoli simili si vede che anche q2 = q1 , r2 = r1 . Quindi le proporzioni dei tre genotipi
restano costanti in tutte le generazioni successive. In altre parole, nel modello di HardyWeinberg la popolazione raggiunge lequilibrio genetico dopo la prima generazione.
1.18
Tra Est e Ovest vanno ripartite 26 carte di cui 5 atout. Se indichiamo con Ai , i =
0, . . . , 5 levento Ovest ha i atout, allora usando la distribuzione ipergeometrica
P(Ai ) =
e per i = 2
P(A2 ) =
5 21
2 11
26
13
5 21
i 13i
26
13
13 3
= 0.339
23 5
5
X
i=0
P(C Ai ) =
5
X
i=0
(dove gli eventi Ai sono quelli definiti in a)). In questultima somma vi sono molti termini di
cui gi conosciamo il valore: sono note infatti le probabilit P(Ai ), le probabilit condizionali
P(C |Ai ) per i = 2 (calcolata in b)) e per i = 0, 5 (uguali a 0 perch se Ovest possiede 5 atout
oppure nessuno, la Q quinta e non pu cadere con solo due giri). Inoltre per i = 1, ripetendo
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011
18
Parte 1: soluzioni
il ragionamento del punto b), P(C |A1 ) = 15 , poich, se in O vi un solo atout, la Q cadr solo
se questo proprio la Q e ci si verifica appunto con probabilit 15 . In modo simile si possono
calcolare le probabilit condizionali per i = 3, 4, ma pi semplice osservare che
P(C A2 ) = P(C A3 ),
P(C A1 ) = P(C A4 )
per motivi di simmetria: se Ovest ha 2 atout allora Est ne ha 3 e viceversa e la situazione tra
Est e Ovest chiaramente simmetrica. Lo stesso vale per i = 1, 4. Basta ora sostituire i valori
numerici:
P(A2 ) = P(A3 ) =
13 3
= 0.339
23 5
13
= 0.141
4 23
P(C) = 2 (0.2 0.141 + 0.4 0.339) = 0.328 .
P(A1 ) =
d) Si tratta di ripetere gli stessi ragionamenti dei punti precedenti, solo che ora Est e Ovest
hanno insieme 3 atout. Se indichiamo ancora con Ai , i = 0, 1, 2, 3 gli eventi Ovest ha i
atout, allora P(C A0 ) = 0 perch se Ovest ha 0 atout, ci vuole dire che la Q si trova in
Est insieme ad altri due atout e non cadr al giro successivo. Per lo stesso motivo, scambiando
i ruoli di Est e Ovest, P(C A3 ) = 0. Dunque
P(C) = P(C A1 ) + P(C A2 ) = 2P(C A1 ) = 2P(C |A1 )P(A1 ) .
Ora P(C |A1 ) =
1
3
Quindi P(C) =
6
23
3 21
1 11
24
12
9
= 0.391 .
23
2.1
Supponiamo che il comportamento di ogni singolo passeggero sia indipendente da
quello degli altri e poniamo Zi = 1 se lo i-esimo passeggero si presenta alla partenza e Zi = 0
altrimenti. Il numero di passeggeri che si presenta alla partenza dunque lo stesso che il numero
di successi in uno schema di Bernoulli e dunque (Esempio 2.4) segue una legge binomiale.
Il numero di passeggeri che si presenta su un volo in cui si accettato il massimo di prenotazioni
quindi una v.a. X1 di legge B(22, 0.9) per il primo tipo di aereo ed una v.a. X2 di legge
B(11, 0.9) per il secondo. La probabilit di lasciare a terra almeno un passeggero nel volo da
20 posti vale
22
22
0.922 = 0.339
0.921 0.1 +
P(X1 21) =
22
21
mentre vale
11
0.911 = 0.314
P(X2 = 11) =
11
Esercizio 2.4
19
2.3 Supponiamo che i 24 operatori siano indipendenti. Ognuno di essi ad un dato istante
si trover in uno stato di collegamento (che indicheremo convenzionalmente con 1) oppure no
(0). Quindi se Xi indica lo stato dello i-esimo operatore, si modellizza il problema con delle
v.a. X1 , . . . , X24 indipendenti e di Bernoulli B(1, p) con p = 0.6. Sappiamo che la somma di
n v.a. di Bernoulli indipendenti B(1, p) segue una legge binomiale B(n, p). Quindi il numero
totale di utenti collegati X = X1 + . . . + X24 ha legge B(24, 0.6) ed il problema proposto non
altro che il calcolo della probabilit
P(X 20) =
24
X
24
0.6k 0.424k = 0.0135 = 1.35% .
k
k=20
Poich ragionevole supporre che le estrazioni di settimane diverse siano indipendenti tra loro,
sappiamo che il numero T di settimane che trascorrono fino alla prima estrazione del 67 segue
1
. Dunque, ricordando il valore
una distribuzione geometrica modificata di parametro p = 18
della speranza matematica di una v.a. geometrica modificata (Esempi 2.38 e)), il numero medio
di settimane prima della prima estrazione
E(T ) =
1
= 18 .
p
20
Parte 1: soluzioni
b) In due modi: poich le estrazioni di settimane diverse sono indipendenti, il numero di volte
in cui il 67 viene estratto in 30 settimane si modellizza come il numero di successi in 30 prove
1
di successo in ogni singola prova. Il numero di estrazioni
indipendenti con probabilit p = 18
che contengono il 67 tra i numeri estratti dunque una v.a. di legge binomiale B(30, p). La
probabilit di avere 0 successi dunque
30
(1 p)30 = 0.18 = 18% .
0
Alternativamente si pu osservare che, poich il primo istante T di successo in uno schema
successo-insuccesso ha una distribuzione geometrica modificata, ricordando le regole di somma
delle serie geometriche (vedi il riquadro pag. 39),
P(T > 30) =
k=31
p(1 p)k1 =
p(1 p)30
= (1 p)30 .
1 (1 p)
c) Ancora in due modi: indichiamo con A levento il 67 non uscito nelle prime 100
estrazioni e con B e C rispettivamente gli eventi il 67 esce entro la 101-esima estrazione
e il 67 esce solo dopo la 130-esima estrazione. Per ottenere P(B |A) calcoleremo prima
P(B c |A) (qualche volta pi facile calcolare la probabilit del complementare di un evento. . . ).
In effetti
P(B c A)
P(B |A) = 1 P(B c |A) = 1
P(A)
Levento B c A levento il 67 non esce nelle prime 101 estrazioni ed ha probabilit
(1 p)101 (probabilit di ottenere 0 successi in 101 prove), mentre, per lo stesso motivo
P(A) = (1 p)100 . Quindi
P(B |A) = 1 P(B c |A) = 1
(1 p)101
= 1 (1 p) = p
(1 p)100
cio la probabilit la stessa che se le prime 100 estrazioni non avessero avuto luogo, un
fatto abbastanza intuitivo dato che le estrazioni sono indipendenti. Allo stesso modo si risolve
lultima parte del punto c):
P(C |A) =
P(C A)
(1 p)130
=
= (1 p)30 .
P(A)
(1 p)100
Alternativamente se T , come prima, indica il numero di settimane fino alla prima estrazione del
67, allora gli eventi A, B, C appena definiti si possono scrivere
A = {T > 100},
B = {T 10},
C = {T > 130} .
P(C |A) = P(T > 130|T > 100) = P(T > 30) = (1 p)30 .
Esercizio 2.5
21
d) Il numero di volte in cui il 67 viene estratto in 50 settimane segue una legge binomiale
1
B(50, p) con p = 18
. Dunque la probabilit che il 67 sia presente almeno 6 volte in 50
settimane vale
50
X
50 k
p (1 p)50k .
k
k=6
Si tratta di una somma di 45 termini che occorre calcolare numericamente. utile osservare
che la relazione
50
5
X
X
50 k
50 k
50k
p (1 p)
=1
p (1 p)50k = 1 0.94 = 0.06
k
k
k=6
k=0
2.5 Indichiamo con A levento viene scelto uno dei dadi truccati e con B viene scelto
uno dei dadi che non sono truccati. Naturalmente P(A) = P(B) = 21 .
a) Con la formula delle probabilit totali (1.12) (A e B formano una partizione dellevento
certo)
P(X = 3) = P(X = 3|A)P(A) + P(X = 3|B)P(B) =
1 1 1 1
2
+
=
10 2 6 2
15
6
X
k=1
kP(X = k) .
2
1
=
15
3
Dunque
2
1
+ (2 + . . . + 6) = 3 .
3 15
b) Se X e Y indicano i risultati del primo e del secondo lancio rispettivamente allora
E(X) =
=
2 100 36
900
Viceversa se poniamo C = {X = 2, Y = 3}, la probabilit che si tratti di uno dei dadi truccati
sapendo che i due lanci hanno dato 2 e 3 non altro che P(A|C). Per la formula di Bayes
P(A|C) =
P(C |A)P(A)
P(C)
22
Parte 1: soluzioni
1
17
e sappiamo che P(A) = 21 . Inoltre P(C |A) = 100
,
Abbiamo appena calcolato P(C) = 900
1
perch ognuno dei due risultati 2 e 3 ha probabilit 10 di essere ottenuto da un dado truccato.
In conclusione
9
900 1
=
= 0.26 .
P(A|C) =
17 200
34
c) No. Per mostrarlo basta trovare dei valori i, j tali che P(X = i, Y = j ) 6= P(X = i)P(Y =
j ). Ad esempio
2 2
4
16
P(X = 2)P(Y = 3) =
=
=
15 15
225
900
che diverso dal valore di P(X = 2, Y = 3) calcolato in b).
Lintuizione potrebbe spingere a rispondere immediatamente alla domanda c) che le variabili sono indipendenti. Ma abbiamo gi visto (vedi il riquadro pag. 13) che in probabilit
lintuizione, se non adeguatamente addestrata, pu portare a conclusioni errate. In questo caso
lerrore consiste nellaver trascurato il fatto che il risultato del primo lancio d informazioni su
quale delle due urne sia stata scelta.
(1.2)
Ora la probabilit che la chiave giusta non si trovi tra le prime k la stessa che la probabilit di
ottenere 0 successi in k estrazioni (senza rimpiazzo) su n oggetti, dei quali uno solo corrisponde
a successo. Possiamo applicare la distribuzione ipergeometrica e si ha
P(T > k) =
e usando la (1.2)
1 n1
0 k
n
k
P(T = k) =
(n 1)!
k!(n k)!
nk
=
k!(n k 1)!
n!
n
nk+1 nk
1
=
n
n
n
ovvero la probabilit di trovare la chiave giusta al k-esimo tentativo la stessa per ogni k e vale
1
n.
Secondo modo: consideriamo unurna contenente n 1 palline bianche e una rossa e di
effettuare delle estrazioni senza rimpiazzo. La probabilit richiesta chiaramente la stessa che
quella di estrarre la pallina rossa al k-esimo tentativo. Abbiamo gi visto (Esempio 1.30) che
questa probabilit non dipende da k e che vale n1 .
I due modi in cui abbiamo risolto questo esercizio sono abbastanza diversi. Mentre il
secondo usa una tecnica tipica del calcolo combinatorio, il primo fa ricorso alla nozione di
funzione di ripartizione di una v.a. con un metodo di calcolo che useremo spesso nel seguito
(per calcolare la legge di una v.a. si determina prima la f.r., per poi usare la (1.2) o formule
Esercizio 2.7
23
simili). Il primo metodo certo pi semplice ed tipico soprattutto (ma non solo) per v.a. che,
come in questo caso, rappresentano tempi dattesa.
2.7 a) Indichiamo con A, B e C rispettivamente gli eventi il pezzo proviene dalla linea
A, proviene dalla linea B e il pezzo difettoso. I dati del problema ci permettono di
affermare che
P(A) = 0.3,
P(B) = 0.7,
Inoltre gli eventi A e B costituiscono una partizione dellevento certo (sono disgiunti e la somma
delle loro probabilit vale 1). Dunque per la formula delle probabilit totali (1.12),
P(C) = P(C |A)P(A) + P(C |B)P(B) = 0.1 0.3 + 0.17 0.7 = 0.15 .
b) Se consideriamo una scatola contenente 10 pezzi provenienti dalla linea A, allora ciascuno
di essi pu essere difettoso con probabilit 0.1. Possiamo inoltre supporre che ogni pezzo sia
difettoso oppure no indipendentemente dagli altri. Dunque il numero di pezzi difettosi in una
scatola di 10 proveniente dalla linea A si modellizza con una v.a. di legge binomiale B(10, 0.1).
Analogamente se la scatola proviene dalla linea B il numero di pezzi difettosi seguir una legge
B(10, 0.17). Se ora indichiamo con C1 levento nella scatola vi (esattamente) un pezzo
difettoso, allora avremo
10
0.1 0.99 = 10 0.1 0.99 = 0.39
P(C1 |A) =
1
10
0.17 0.839 = 10 0.17 0.839 = 0.32 .
P(C1 |B) =
1
La probabilit che un pezzo difettoso provenga dalla linea A non altro che la probabilit
condizionale P(A|C1 ). Per calcolarla si usa la formula di Bayes:
P(A|C1 ) =
P(C1 |A)P(A)
P(C1 )
Nella frazione a destra nella formula precedente conosciamo tutte le quantit che intervengono
tranne P(C1 ). Il calcolo di questa probabilit per facile, sempre usando la formula delle
probabilit totali (1.12):
P(C1 ) = P(C1 |A)P(A) + P(C1 |B)P(B) = 0.39 0.3 + 0.32 0.7 = 0.341 .
Dunque
P(A|C1 ) =
0.39 0.3
= 0.343 .
0.34
P(C1 |B)P(B)
0.32 0.7
=
= 0.657 .
P(C1 )
0.34
24
Parte 1: soluzioni
P(T > k) =
k
52
k
=
=
=
52! (48 k + 1)! (48 k)!
52!
(48 k + 1)!
48! (52 k)![(52 k + 1) (48 k + 1)]
48! (52 k)!
=
=4
52!
(48 k + 1)!
52! (48 k + 1)!
Per vedere per quali valori di k pk massima basta osservare che per ogni valore di k si ha
52 k
pk
=
1
pk+1
49 k
e dunque la probabilit massima per k = 1.
2.9 Un attimo di riflessione mostra che la probabilit che tra le 24 figurine acquistate ve ne
siano esattamente k di quelle gi possedute la stessa che la probabilit che in unestrazione
senza rimpiazzo da unurna contenente 60 palline di un tipo (corrispondenti alle figurine gi
possedute) e 40 di un altro, su 24 palline estratte ve ne siano k del primo tipo. La probabilit di
questo evento data dalla distribuzione ipergeometrica e vale
60 40
k 24k
100
24
60 40
k 24k
100
24
k=20
24
X
Esercizio 2.10
25
e con un calcolo numerico si ottiene il valore 0.00594 = 0.594%. Il numero medio di nuove
figurine non altro che la speranza matematica E(X) della v.a. X =numero di nuove figurine.
La speranza matematica di una v.a. di legge ipergeometrica calcolata nellEsempio 2.39 ed
uguale al numero di tentativi (qui sono 24) per la probabilit di successo in un singolo
40
tentativo (= 100
= 25 ) ovvero
48
E(X) =
= 9.6 .
5
P(X1 = 1, Sn = r)
P(Sn = r)
Se r = 0 si vede subito che la probabilit condizionale vale 0, perch Sn X1 e quindi gli eventi
{X1 = 1} e {Sn = 0} hanno intersezione vuota. Altrimenti sappiamo gi che il denominatore
vale nr pr (1 p)nr , poich Sn binomiale B(n, p). Per il numeratore invece
P(X1 = 1, Sn = r) = P(X1 = 1, X1 + . . . + Xn = r) =
= P(X1 = 1, X2 + . . . + Xn = r 1) = P(X1 = 1)P(X2 + . . . + Xn = r 1) =
n1 r
n 1 r1
p (1 p)nr
p (1 p)nr =
=p
r 1
r 1
e dunque
P(X1 = 1|Sn = r) =
n1
r1
n
r
m nm
k rk
n
r
26
Parte 1: soluzioni
n
+ .
Per determinare il valore di k per cui questa quantit massima studiamo per quali valori di k
si ha
pk+1
1.
pk
Poich
pk+1
18k
=
1
pk
2k+1
pk
< 1 per k = 3, 4, . . .
Se ne deduce che il massimo valore di pk si raggiunge per k = 2 oppure k = 3.
d) La retta di regressione di X rispetto a X + Y x = az + b dove
a=
Cov(X, X + Y )
,
Var(X + Y )
b = E(X) aE(Y ) .
Ora
Cov(X, X + Y ) = Cov(X, X) + Cov(X, Y ) = Cov(X, X) = Var(X) =
| {z }
=0
Esercizio 2.12
27
b =
( + ) = 0
+
z.
La retta dunque x = +
Se X e Y sono v.a. indipendenti e a valori discreti, la legge congiunta di X e X + Y si
calcola sempre con facilit, come in questo esercizio, usando la relazione
k
n
perch se X = k, ci vuol dire che nella seconda urna vi sono k palline rosse su un totale di n.
Possiamo ora usare la formula delle probabilit totali:
n
X
k n k
P(A|X = k)P(X = k) =
P(A) =
p (1 p)nk =
n k
k=0
k=0
n
X
1
n k
=
p (1 p)nk = p ,
k
k
n
n
X
k=0
dove abbiamo riconosciuto nella somma la speranza matematica di una v.a. B(n, p).
b) Si tratta di calcolare
P(X = k |A) =
P(A|X = k)P(X = k)
P(A)
28
Parte 1: soluzioni
Per calcolare questa somma conviene cercare di ricondursi alla somma che d la speranza
matematica delle leggi binomiali; sostituendo i = k 1 si ha
n1
X
n1 i
p (1 p)n1i =
(i + 1)
E(X|A) =
i
i=0
n1
X
n1
X
n1 i
n1 i
n1i
p (1 p)
i
=
+
p (1 p)n1i = (n 1)p + 1 .
i
i
i=0
i=0
|
{z
} |
{z
}
=1
2.13
a) X non altro che listante di primo successo in uno schema di prove ripetute
indipendenti, nelle quali ad ogni prova si ha successo con probabilit 61 . Sappiamo quindi che
X una v.a. geometrica modificata di parametro p = 61 , ovvero
1 5 k1
k = 1, 2, . . .
P(X = k) =
6 6
Per lo stesso motivo Y una v.a. geometrica modificata di parametro 26 = 31 . Sappiamo che una
v.a. geometrica modificata di parametro p ha speranza matematica p1 (Esempi 2.38); dunque
E(X) = 6,
E(Y ) = 3 .
b) Per calcolare la densit discreta di Z conviene calcolarne prima la f.r. Poniamo per semplicit p = 16 e q = 31 . Allora, poich X e Y sono indipendenti,
P(Z k) = P(max(X, Y ) k) = P(X k, Y k) =
= P(X k)P(Y k) =
k
X
i=1
p(1 p)i1
k
X
i=1
q(1 q)i1 =
1 (1 p)k 1 (1 q)k
q
= (1 (1 p)k )(1 (1 q)k ) .
=p
1 (1 p)
1 (1 q)
per k = 1, 2, . . . Dunque la densit di Z, sempre per k = 1, 2, . . . , data da
P(Z = k) = P(Z k) P(Z k 1) =
= (1 (1 p)k )(1 (1 q)k ) (1 (1 p)k1 )(1 (1 q)k1 ) =
= 1 (1 p)k (1 q)k + [(1 p)(1 q)]k +
1 + (1 p)k1 + (1 q)k1 [(1 p)(1 q)]k1 =
= p(1 p)k1 + q(1 q)k1 (p + q pq)[(1 p)(1 q)]k1 .
|
{z
}
=1pq+pq
Infine
E(Z) =
=
X
k=1
kp(1 p)k1 +
X
k=1
X
k=1
kP(Z = k) =
kq(1 q)k1
X
k=1
Esercizio 2.14
29
1
p = 6. Per lo stesso
1
9
p+qpq = 4 . Dunque
1
q
E(Z) = 6 + 3
27
9
=
4
4
c) Usiamo il metodo della partizione dellevento certo: gli eventi {Y = i}, al variare di
i = 1, 2, . . . , sono disgiunti e la loro unione ha probabilit 1, dunque
P(X Y ) =
X
i=1
P(X Y, Y = i) =
X
i=1
P(X i, Y = i) =
X
i=1
P(X i)P(Y = i) .
Daltra parte
P(X i) =
e quindi
P(X Y ) =
X
i=1
X
k=i
X
i=1
q
q
=
=
1 (1 p)(1 q)
p + q pq
e sostituendo i valori p = 16 , q =
1
3
si ottiene P(X Y ) = 43 .
2.14 a) Fissiamo una lettera i e consideriamo levento Ai =la lettera i viene usata. La
1
probabilit che la lettera i non venga usata come prima lettera della parola n1
n = 1 n.
Poich le apparizioni di una lettera nelle posizioni successive della parola sono indipendenti, la
probabilit che la lettera non venga mai usata sar (1 n1 )k . Dunque
P(Ai ) = 1 (1 n1 )k .
Se k = n allora
P(Ai ) = 1 (1 n1 )n
b) Poniamo
1 e1 .
30
Parte 1: soluzioni
n
X
i=1
(1 (1 pi )k ) .
3 100
28 )
+ 7 1 (1
3 100
112 )
+ 7 1 (1
1 100
112 )
= 17.68 .
a) Poniamo
Zi =
1
0
Allora il numero totale di indennizzi nel corso del primo anno si modellizza con la v.a. X =
Z1 + . . . + ZN . Poich le v.a. Zi sono indipendenti si ha X B(N, p). Ma se N grande e
p piccolo, la legge di X si pu approssimare con una legge di Poisson di parametro = Np.
Ripetendo lo stesso ragionamento si vede che anche Y di Poisson di parametro . Poich si
suppone Y indipendente da X, allora Z = X + Y di Poisson di parametro 2. Calcoliamo la
legge congiunta di X e Z: se 0 k m
P(X = k, Z = m) = P(X = k, Y = m k) = P(X = k)P(Y = m k) =
k
mk
m
= e e
= e2
k!
(m k)!
k!(m k)!
mentre naturalmente P(X = k, Z = m) = 0 se m < k oppure k < 0.
b) La compagnia incassa ogni anno un ammontare pari a 45 pNI e paga in indennizzi X I .
Quindi in media il beneficio
5
5
1
pNI I E(X) = pNI pNI = pNI
4
4
4
c) La probabilit richiesta si esprime, in termini delle v.a. X e Z come
P({X > 2} {Z > 3}) = 1 P(X 2, Z 3) =
= 1 P(X = 0, Z = 0) P(X = 0, Z = 1) P(X = 1, Z = 1) P(X = 0, Z = 2)+
P(X = 1, Z = 2) P(X = 2, Z = 2) P(X = 0, Z = 3)+
P(X = 1, Z = 3) P(X = 2, Z = 3) =
= 1 e2 1 + (1 + 1) + 2 21 + 1 + 21 + 3 16 + 21 + 21
Esercizio 2.16
31
40i
3000
40
i = 0, . . . , 40 .
La probabilit che lunit 1 sia necessaria allesecuzione del programma vale quindi
(1.3)
100 2900
40
0
3000
40
200 2800
40i
i
3000
40
i = 0, . . . , 40
e la probabilit che una delle prime due unit sia necessaria vale ora
(1.4)
200 2800
40
0
3000
40
Se indichiamo con A1 levento lunit 1 necessaria e con A2 lanalogo evento per lunit
2, abbiamo appena calcolato P(A1 A2 ), mentre la probabilit che entrambe le unit siano
necessarie P(A1 A2 ); ma dalla formula della probabilit della unione di due eventi otteniamo
P(A1 A2 ) = P(A1 ) + P(A2 ) P(A1 A2 ) = 0.745 + 0.745 0.938 = 0.552 .
c) Le v.a. Yi sono di Bernoulli (prendono solo i valori 0 e 1) di parametro p = P(Yi = 1) =
0.745, calcolato in a). Lintuizione vorrebbe che le v.a. Yi non siano indipendenti, perch se, ad
esempio, fosse Y1 = 1 ci vorrebbe dire che almeno una delle registrazioni si trova nellunit
1 e ci rende minore la probabilit che siano necessarie le altre unit. Per rendere rigorosa
questa intuizione calcoliamo il coefficiente di correlazione: se esso risulter diverso da 0 ci
32
Parte 1: soluzioni
implicher che le v.a. Yi , i = 1, . . . , 40 sono correlate e quindi non sono indipendenti e neanche
indipendenti a due a due. Il coefficiente di correlazione di Y1 e Y2 per definizione
Y1 ,Y2 = p
Cov(Y1 , Y2 )
Var(Y1 ) Var(Y2 )
p
Var(Y1 ) Var(Y2 )
Sappiamo gi che Var(Y1 ) = Var(Y2 ) = p(1 p) ed inoltre che E(Y1 )E(Y2 ) = p2 , poich
Y1 e Y2 sono entrambe B(1, p). Resta da calcolare E(Y1 Y2 ). Ma anche la v.a. Y1 Y2 di
Bernoulli, poich anchessa pu prendere solo i valori 0 oppure 1. Resta dunque da calcolare
P(Y1 Y2 = 1) = P(Y1 = 1, Y2 = 1). Ma questultima non altro che la probabilit che sia
lunit 1 che la 2 siano necessarie per lesecuzione del programma e dunque vale 0.552 per il
punto b). In conclusione
0.552 0.7452
= 0.016
0.745 0.255
che conferma lintuizione iniziale di una correlazione negativa tra le variabili. Inoltre il valore
del coefficiente di correlazione, vicino a 0, indica che la dipendenza tra le variabili abbastanza
piccola.
d) Il calcolo della media di X secondo la definizione di speranza matematica richiederebbe
preliminarmente il calcolo della legge di X, che abbastanza complicato. Si pu per osservare
che X = Y1 + . . . + Y30 e dunque E(X) = E(Y1 ) + . . . + E(Y30 ) (la speranza matematica di
una somma di v.a. sempre uguale alla somma delle speranze matematiche, anche se le v.a.
non sono indipendenti). Inoltre, poich le Yi sono tutte di Bernoulli B(1, p) con p = 0.745,
Y1 ,Y2 =
E(X) = 30 p = 22.35 .
Questo esercizio usa alcune idee di cui ci serviamo ripetutamente. Ci limitiamo a segnalare
il modo di calcolare la speranza matematica di una v.a. X scrivendo che essa uguale alla somma
X1 + . . . + Xn , dove X1 , . . . , Xn sono v.a. di cui facile calcolare la speranza matematica.
Talvolta questa idea fondamentale: il calcolo della legge di X, necessario per applicare la
definizione di speranza matematica, pu risultare molto complicato.
2.17 a) Converr fare i calcoli scrivendo n al posto di 90. La probabilit che alla k-esima
estrazione si ottenga la pallina i-esima naturalmente uguale a n1 (Esempio 1.30). In particolare,
scegliendo k = i si ha P(Ai ) = n1 .
Per studiare lindipendenza degli eventi Ai , i = 1, . . . , n, conviene costruire esplicitamente
uno spazio di probabilit. Una scelta naturale pu essere quella di porre =insieme delle
permutazioni di n elementi. Con questo modello si ha Ai = {, i = i}, cio Ai corrisponde
allinsieme delle permutazioni che lasciano i allo i-esimo posto. Ora
A1 A2 = {, 1 = 1, 2 = 2}
e dunque A1 A2 ha cardinalit (n 2)! (la cardinalit delle permutazioni che lasciano fissi 1
e 2 la stessa che la cardinalit delle permutazioni di {3, . . . , n}). Dunque
P(A1 A2 ) =
(n 2)!
1
,
=
n!
n(n 1)
Esercizio 2.17
33
mentre sappiamo che P(A1 )P(A2 ) = n12 . Dunque gli eventi Ai , i = 1, . . . , n non sono a due a
due indipendenti e quindi neppure indipendenti.
b) Poniamo
n
1 se si ha coincidenza alla i-esima estrazione
Xi =
0 altrimenti .
Allora X = X1 + . . . + Xn ed inoltre le v.a. Xi sono di Bernoulli di parametro p = P(Xi =
1) = P(Ai ) = n1 . Per la propriet di additivit della speranza matematica
E(X) = E(X1 ) + . . . + E(Xn ) = n
1
=1.
n
(1.5)
n
X
i=1
Var(Xi ) +
n
X
Cov(Xi , Xj ) .
i,j =1
i6=j
1
1
n(n 1) n2
Infine osserviamo che nella prima somma della (1.5) vi sono n termini, mentre nella seconda
n(n 1). Dunque
Var(X) = n
1
1
1
1
2 =1.
1
+ n(n 1)
n
n
n(n 1) n
Anche la varianza del numero di coincidenze uguale a 1 e non dipende dal numero di palline.
Anche qui lidea di scrivere X come somma delle Xi per calcolare la speranza matematica
fondamentale. Il calcolo della legge del numero di coincidenze X, che abbastanza importante
in combinatoria, in effetti possibile ma non facile.
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011
34
Parte 1: soluzioni
2.18
Osserviamo che gli eventi A e B costituiscono una partizione dellevento certo. Dunque la
probabilit richiesta vale
P(R1 ) = P(R1 A) + P(R1 B) = P(R1 |A)P(A) + P(R1 |B)P(B) .
Per come il problema stato posto chiaro che deve essere
P(R1 |A) = 1,
P(R1 |B) = nr ,
P(A) = P(B) =
e dunque
P(R1 ) =
1
2
1 r
2 n
1
2
1+
r
n
1
2
b) Indichiamo con C levento le prime due estrazioni danno palline di colori diversi.
La probabilit che in due estrazioni dallurna A si ottengano una pallina rossa e una nera
chiaramente 0. Invece il numero di palline rosse estratte dallurna B in due estrazioni segue
una legge binomiale B(2, nr ). Dunque
P(C |A) = 0
2 r
r
r(n r)
P(C |B) =
1
=2
1 n
n
n2
P(C) = P(C |A)P(A) + P(C |B)P(B) =
r(n r)
n2
c) Indichiamo con T la v.a. tempo dattesa della prima estrazione di una pallina rossa.
Dobbiamo calcolare la speranza matematica di T e per farlo calcoliamone prima la legge. Ora,
sempre con la formula delle probabilit totali (1.12),
P(T = k) = P(T = k |A)P(A) + P(T = k |B)P(B) .
Ma, poich lurna A contiene solo palline rosse,
P(T = k |A) =
mentre
P(T = k |B) =
1
0
se k = 1
altrimenti
p(1 p)k1
0
se k = 1, 2, . . .
altrimenti
Esercizio 2.19
X
k=1
r
n
35
e dunque
kP(T = k) =
X
k=1
k P(T = k |A)P(A) + P(T = k |B)P(B) =
1 1X
1
1 1
n
= +
kp(1 p)k1 =
1+
=
1+
2 2
2
p
2
r
k=1
dove abbiamo riconosciuto nellultima serie la speranza matematica di una legge geometrica
modificata, che vale appunto p1 .
d) Poniamo Ek = R1 . . . Rk . Ek levento le prime k estrazioni hanno dato tutte palline
rosse. La probabilit richiesta non altro che P(A|Ek ). Per la formula di Bayes
P(A|Ek ) =
Ora P(Ek |A) = 1 mentre P(A) =
probabilit totali (1.12) d
1
2.
P(Ek |A)P(A)
P(Ek )
Ma se lurna prescelta la B il numero di palline rosse estratte segue una legge binomiale
B(k, nr ). Dunque
P(Ek |B) = P(R1 |B) . . . P(Rk |B) = ( nr )k
e in conclusione P(Ek ) = 21 (1 + ( nr )k ) e
P(A|Ek ) =
Per n = 12, r = 4
1 + ( nr )k
1
1 + 3k
e dopo qualche manipolazione algebrica si vede che perch sia
P(A|Ek ) =
1
0.99
1 + 3k
deve essere 3k 99 e cio k 5.
2.19
a) Poniamo
Xi =
1
0
36
Parte 1: soluzioni
La probabilit che una singola pallina finisca nella scatola 1 vale 1r poich, per come il problema
posto, possiamo supporre che tutte le scatole abbiano la stessa probabilit di essere scelte.
Dunque P(Xi = 1) = 1r e cio Xi B(1, 1r ). Inoltre le v.a. X1 , . . . , Xn si possono supporre
indipendenti.
Il numero di palline finite nella scatola 1 dunque Y1 = X1 + . . . + Xn ; se ne ricava che Y1
binomiale B(n, 1r ) per cui la probabilit richiesta vale
P(Y1 = i) =
1 ni
n 1 i
.
1
r
r
i
1 i 1 j
n!
2 nij
.
1
i!j !(n i j )! r
r
r
(1.6)
P(C |A)P(A)
P(C)
Se il messaggio proviene dalla sorgente A, allora il numero di bit uguali a 1 segue una legge
binomiale B(n, 21 ). Dunque
10 1
P(C |A) =
4 210
Invece se esso proviene dalla sorgente B il numero di bit uguali a 1 seguir una legge B(n, 41 ).
Dunque
10 1 4 3 6
P(C |B) =
.
4
4
4
Per il calcolo di P(C) useremo la formula delle probabilit totali:
1
1+
36
210
= 0.584 .
Esercizio 2.21
37
1
1+
360
2100
= 0.968
P(C |A)P(A)
0.3
= 0.376
=
6
P(C)
0.3 + 0.7 2310
P(C |A)P(A)
0.3
= 0.928 .
=
60
P(C)
0.3 + 0.7 23100
Quindi per n = 100 la sorgente A resta la pi probabile, mentre per n = 10 prevale il fatto che
a priori la pi probabile fosse B.
2.21
1
4
p1 = P(Xi = 1) =
1
2
p2 = P(Xi = 2) =
1
4
mentre pk = P(Xi = k) = 0 per gli altri valori di k. La funzione generatrice delle probabilit
di Xi vale dunque
1
1
t
t2
t 2
(t) = + +
=
+
.
4 2
4
2 2
38
Parte 1: soluzioni
b) Per il calcolo della legge della somma di v.a. indipendenti tra i metodi possibili c luso
delle funzioni generatrici delle probabilit, che in questo caso sembra praticabile, visto che
la f.g.p. calcolata nel punto precedente ha unespressione semplice. Poich si tratta di v.a.
indipendenti, la f.g.p. n di X1 + . . . + Xn vale
n (t) = (t)n =
1
2
t 2n
.
2
Per calcolare la densit di X1 + . . . + Xn non resta che sviluppare la funzione n (t) con la
regola del binomio
n (t) =
2n
X
2n t k 1 2nk
k=0
2n
X
2n 1 k
=
t
k 22n
k=0
2n
a) Consideriamo le v.a.
Xi =
1
0
Esercizio 2.23
39
1
0
per i = 1, . . . , N. chiaro che il numero di errori rimasti dopo il passaggio del primo revisore
X1 = Z1 +. . .+ZN . Poich, per la natura del problema, si possono supporre le v.a. Z1 , . . . , ZN
indipendenti ed inoltre P(Zi = 1) = 1 p, si vede subito che X1 B(N, 1 p).
Per studiare la legge di X2 , si pu osservare che X2 ancora una somma di v.a. Zi come
nella (1.7), solo che ora lindice i varia tra 1 e X1 (numero di errori rimasti). Ovvero X2 =
Z1 +. . .+ZX1 . Poich possiamo supporre le v.a. Zi e X1 indipendenti, sappiamo (Proposizione
2.62) che la funzione generatrice delle probabilit X2 data da
X2 (t) = X1 (Z1 (t)) = (p + (1 p) (p + (1 p)t))N =
{z
}
|
f.g.p. di Z1
N
Si riconosce quindi che X2 binomiale B(N, (1 p)2 ). Ci suggerisce che la v.a. Xk abbia
legge B(N, (1 p)k ). La verifica rigorosa di questo fatto si pu fare per ricorrenza: se
Xk B(N, (1 p)k ), allora Xk+1 = Z1 + . . . + ZXk e dunque
Xk+1 (t) = Xk (Z1 (t)) = (1 (1 p)k + (1 p)k (p + (1 p)t))N =
= (1 (1 p)k+1 + (1 p)k+1 t)N
che appunto la funzione generatrice delle probabilit di una v.a. B(N, (1 p)k+1 ).
La probabilit che dopo il lavoro di k revisori restino ancora degli errori
P(Xk > 0) = 1 P(Xk = 0) = 1 (1 (1 p)k )N .
40
Parte 1: soluzioni
b) Se supponiamo che il numero N di errori sia a sua volta aleatorio il ragionamento simile
a quello appena visto: il numero di errori rimasti dopo il lavoro del primo revisore
X1 = Z1 + . . . + ZN .
Poich la funzione generatrice delle probabilit di N (z) = e(z1) , quella di X1
X1 (t) = N (Z1 (t)) = e((p+(1p)t)1) = e(1p)(t1)
e quindi X1 di Poisson di parametro (1 p). Analogamente la funzione generatrice delle
probabilit di X2 = Z1 + . . . + ZX1 sar
X2 (t) = X1 (Z1 (t)) = e(1p)((p+(1p)t)1) = e(1p)
2 (t1)
per cui X2 di Poisson di parametro (1 p)2 . Per ricorrenza, come nel punto a) si vede che
Xk di Poisson di parametro (1 p)k .
Con i valori numerici assegnati X3 segue una legge di Poisson di parametro (1 p)3 =
300 103 = 0.3. Dunque la probabilit che restino degli errori
P(X3 > 0) = 1 P(X3 = 0) = 1 e0.3 = 0.259 = 25.9% .
Il numero medio di errori rimasti
E(X3 ) = (1 p)3 = 0.3 .
2.24 Perch una funzione g sia la funzione generatrice di qualche v.a. X occorre che siano
soddisfatte alcune propriet: essa deve intanto essere sviluppabile in serie di potenze con un
intervallo di convergenza che deve contenere [1, 1]. Inoltre tutti i coefficienti pk dello sviluppo
devono P
essere 0, poich deve essere pk = P(X = k); infine deve essere g(1) = 1, perch
g(1) =
k=0 pk = 1.
Da questultima condizione si vede che c, se esiste, deve essere uguale a (log 21 )1 =
(log 2)1 . Per questo valore di c si ha, ricordando lo sviluppo in serie di potenze della
funzione z log(1 z),
X
1
g(z) =
zn
n2n log 2
n=1
e g dunque realmente una funzione generatrice (tutti i coefficienti dello sviluppo sono 0).
Se X una v.a. avente funzione generatrice g, allora
P(X = n) =
n2n log 2
1
1
=
(2 z) log 2 z=1
log 2
Esercizio 3.2
41
3.1
a) La v.a. X prende i suoi valori, con probabilit 1, nellintervallo [0, 10]: infatti
P(0 X 10) = F (10) F (0) = 1.
b) La f.r. F derivabile a tratti con derivata continua. Dunque X ha densit che si ottiene
derivando la f.r. La densit dunque data da
1
25
t
se 0 t 5
f (t) = 1 t + 2 se 5 t 10
5
25
0
altrimenti .
......................
........
........
........
........
........
........
.
.
.
.
.
.
.
........
.
........
........
........
........
.
.
.
.
.
.
........
.
.....
.
.
........
.
.
.
.
.
........
.....
.
.
.
.
.
.
........
.
.....
.
........
.
.
.
.
.
.
........
.....
.
.
.
.
.
........
.
.
.....
.
........
.
.
.
.
.
.
........
.....
.
.
.
.
........
.
.
.
.....
........
.
.
.
.
.
.
.
........
.....
.
.
.
.
........
.
.
.
........
.....
.
.
.
.
.
.
.
........
.....
.
.
.
........
.
.
.
.
........
....
.
........
10
Figura 1.3
Z 10
2
1
1 2
t dt +
t dt =
t2 +
25
5
5
0 25
125
1000
125
100 25
=
+
+
=5.
3 25 3 25 3 25
5
5
+
tf (t) dt =
P(X t) = P(X t) =
2
2x x 2 /
2 t
e
dx = ex / = 1 et/ .
0
2 /
42
3.3
Parte 1: soluzioni
a) Si ha
Z
f (x) dx = c
x (+1) dx =
c
r
ret
x (+1) dx =
1 t
(e r) r r = 1 et .
e derivando
fY (y) =
2 , 2 [,
il calcolo
arctan y +
(1 + y 2 )
3.5 a) Se indichiamo con T1 , T2 , T3 i tempi di vita dei singoli elementi, chiaro che T =
min(T1 , T2 , T3 ). Il punto a) si riduce quindi al calcolo delle legge del minimo di tre v.a.
indipendenti di cui si conosce la legge. Questo problema si pu risolvere passando per il
calcolo della f.r. FT di T , oppure, che lo stesso, di 1 FT . Ricordando che la f.r. di una v.a.
esponenziale di parametro vale, se t > 0,
F (t) =
t
0
es ds = 1 et
Esercizio 3.5
43
1
= 1.67 .
++
b) Se T e W sono i tempi di vita di ognuno dei due componenti in parallelo, il tempo di vita
del complesso formato dai due componenti non altro che X = max(T , W ). Calcoliamo la f.r.
GX di questa v.a. Se t > 0
GX (t) = P(max(T , W ) t) = P(T t, W t) = P(T t)P(W t) = (1 e(++ )t )2
mentre GX (t) = 0 per t 0. Da questespressione si ricava per derivazione la densit g di X:
gX (t) = GX (t) = 2( + + )e(++ )t (1 e(++ )t )
se t > 0, mentre naturalmente gX (t) = 0 se t 0. Infine
E(X) =
+
0
Z
t gX (t) dt = 2( + + )
te
(++ )t
dt
+
0
te2(++ )t dt =
1
1
1
2
= 2( + + )
= 2.49 .
=
2
2
( + + )
(2( + + ))
+ + 2( + + )
c) Possiamo ancora dire che il tempo T di vita del complesso della Figura 3.20 uguale
a min(T1 , T2 , T3 ), dove per ora T1 il tempo di vita del componente formato dai primi tre
elementi in parallelo, T2 quello formato dal secondo elemento, T3 quello formato dagli ultimi
due in parallelo. Ripetendo i ragionamenti del punto b) per calcolare la legge del max di variabili
aleatorie, si ricava facilmente
P(T1 t) = (1 et )3 ,
P(T2 t) = 1 et ,
P(T3 t) = (1 e t )2 .
Ripercorrendo i metodi del punto a) per calcolare la legge del min di v.a. abbiamo
P(T > t) = P(T1 > t) P(T2 > t) P(T3 > t) = (1 (1 et )3 ) et (1 (1 e t )2 ) .
Dunque, sviluppando con un po di pazienza il quadrato e il cubo si ottiene che la funzione di
ripartizione G di T data da
1 G(t) = P(T > t) = (3et 3e2t + e3t ) et (2e t e2 t ) =
= 6e(++ )t 6e(2++ )t +2e(3++ )t 3e(++2 )t +3e(2++2 )t e(3++2 )t
e dunque la densit
g(t) = G (t) = 6( + + ) e(++ )t 6(2 + + ) e(2++ )t +
+2(3 + + ) e(3++ )t 3( + + 2 ) e(++2 )t +
+3(2 + + 2 ) e(2++2 )t (3 + + 2 ) e(3++2 )t
44
Parte 1: soluzioni
6
6
2
3
3
1
=
+ + 2 + + 3 + + + + 2 2 + + 2 3 + + 2
Il calcolo numerico d il risultato E(T ) = 3.26, sensibilmente migliore che nel caso b).
Da segnalare in questo esercizio il calcolo della legge del massimo di due v.a. indipendenti
effettuato determinandone prima la f.r. Per calcolare la densit del minimo invece si opera in
maniera del tutto analoga usando piuttosto la funzione di sopravvivenza 1 F .
3.6
a)
E(X) =
+
0
Z +
2x x 2 /
2 +
2
+
e
dx = xex /
ex / dx .
0
{z 0 }
|
=0
y
2
2
ex /2 :
+
0
x 2 /
Z +
Z +
y 2 /2
y 2 /2
e
dy =
e
dy = 2 =
dx =
2
2 0
2 2
2 2
yey/ dy =
1 2
(2) =
e quindi
Var(X) = E(X 2 ) E(X)2 = 1
b) Una v.a. Y di Cauchy se ha densit
fY (y) =
(1 + y 2 )
Perch Y abbia speranza matematica finita deve essere assolutamente convergente lintegrale
Z +
y
dy .
2
(1 + y )
Esercizio 3.8
45
Lintegrando per per |y| tende a zero in modulo come |y|1 e lintegrale non dunque
assolutamente convergente. Y quindi non ha speranza matematica finita.
c) La speranza matematica finita se e solo se convergente lintegrale
Z +
Z +
x x (+1) dx =
x dx
r
E(X) = r
x dx =
x
=
r
1
r
Perch la varianza sia finita occorre invece che sia convergente anche lintegrale
Z +
Z +
2
(+1)
x x
dx =
x +1 dx
r
=
E(X ) = r
x +1 dx =
r
2
2
r
r 2
2 r 2
r 2 ( 1)2 2 r 2 ( 2)
=
=
2 ( 1)2
( 2)( 1)2
r 2
=
( 2)( 1)2
Y ) > 0 = 1 8(0) =
= P X Y > 21 = P 1 (X Y ) >
2
1
= 1 8(0.35) = 0.36 .
=18
P X>Y +
1
2
1 (X
2
2 2
2 2
1
2
3.8 Se il modello normale valido, la probabilit che uno studente ottenga un voto superiore
al 24 pari a P(X 24), dove X N(21, 9). Ma sappiamo che si pu scrivere X = 3Z + 21,
dove Z N(0, 1). Dunque
= P(Z 1) = 1 8(1)
P(X 24) = P(3Z + 21 24) = P Z 2421
3
46
Parte 1: soluzioni
dove 8 indica la f.r. di una legge N(0, 1). Uno sguardo alle tavole d il valore 8(1) = 0.84.
Dunque la probabilit richiesta 1 8(1) = 0.16.
Allo stesso modo la probabilit che uno studente ottenga un voto 17
= P(Z 1.33) = 8(1.33) =
P(X 17) = P(3Z + 21 17) = P Z 1721
3
= 1 8(1.33) = 1 0.908 = 0.092 .
La probabilit che uno studente non ottenga la sufficienza alla prova scritta del 9.2%.
Largomento chiave di questo esercizio il fatto che se X N(, 2 ), allora si pu scrivere
X = Z + , dove Z N(0, 1). Questo metodo, che consiste nel ridursi sempre al caso di
una legge N(0, 1), quello che conviene usare sempre per calcolare quantit legate alle leggi
normali.
3.9 La probabilit che un individuo abbia unaltezza superiore ai 190 cm P(X > 190)
dove X N(175, 81). Ma sappiamo che si pu scrivere X = 9Z + 175, dove Z N(0, 1).
Dunque
P(X > 190) = P Z > 190175
= P(Z > 53 ) = 1 8(1.67)
9
dove 8 la f.r. di una v.a. N(0, 1). Uno sguardo alle tavole d 8(1.67) = 0.95 e dunque
1 8(1.67) = 0.05. La percentuale ditaliani di statura > 190 cm sarebbe del 5%.
Allo stesso modo la probabilit che un italiano sia riformato alla visita di leva sarebbe
P(X 153) = P Z 153175
= P Z 22
9
9 = 8(2.44) = 0.008 .
Dunque la percentuale di reclute scartate sarebbe dello 0.8%.
3.10
La probabilit che una bottiglia risulti insufficientemente riempita P(X < 730).
Osserviamo di nuovo che si pu scrivere X = Z + con Z N(0, 1). Dunque
P(X < 730) = P( Z + < 730) = P Z < 730
.
Uno sguardo alle tavole ci informa che, perch questa probabilit sia inferiore a 0.002, occorre
2.88, ovvero 730 + 2.88 = 802. Se invece la varianza fosse
che sia 730
3.11 a) k deve essere scelto in modo che lintegrale di f valga 1, cio deve essere uguale
allinverso di
Z
+
x 3 ex/2 dx .
In questo caso per basta riconoscere che f una densit (4, 21 ) e dunque k =
1
24 (4)
1
.
24 3!
b) X + Y ha legge (8, 21 ), per la regola della somma di due v.a. Gamma indipendenti.
Sappiamo inoltre che in generale la v.a. aX ha densit
faX (x) =
1
f
|a|
x
a
Esercizio 3.12
47
1
f
2 X
x
2
ovvero 2X (4, 41 ).
3.12
=k
x 3 x/4
e
24
s
0
1 s
ds =
t
0
eu du = 1 et .
Per mostrare che f una densit occorre calcolarne lintegrale e mostrare che esso vale 1. Ma,
poich gi abbiamo calcolato la f.r., basta osservare che
Z t
Z +
f (s) ds = lim F (t) = 1 .
f (s) ds = lim
t+
t+
+1
1/
da cui si vede che X di Weibull di parametri e = 1 (ha la stessa f.r.). Dunque una v.a. Y
di Weibull di parametri e della forma X 1/ , dove X esponenziale di parametro ; essa
ha dunque media
(1 + 1 )
E(Y ) = E(X 1/ ) =
1/
Per la varianza, evidentemente
E(Y 2 ) = E(X 2/ ) =
e
Var(Y ) = E(Y 2 ) E(Y )2 =
(1 + 2 )
2/
(1 + 2 ) (1 + 1 )2
2/
c) Basta osservare che (1 + 2t) (1 + t)2 la varianza di una v.a. di Weibull di parametri
= 1 e = 1t e quindi si tratta di una quantit positiva.
d) Per simulare una v.a. di Weibull di parametri , basta dunque simulare una v.a. esponenziale Y di parametro e poi porre X = Y 1/ . In maniera equivalente si pu anche ricordare
da a) (o dallEsempio 3.48) che la funzione di ripartizione di una v.a. di Weibull
F (t) = 1 e t ,
t > 0,
48
Parte 1: soluzioni
La funzione di ripartizione in questo caso quindi invertibile e quindi, come indicato a pag.142,
basta porre X = F 1 (Z), dove Z uniforme su [0, 1].
3.13 a) Sappiamo che se X N(, 2 ) allora Z = X N(0, 2 ). Sappiamo per
che i momenti di ordine dispari delle leggi normali centrate sono tutti nulli, quindi
E((X )3 ) = E(Z 3 ) = 0
e dunque = 0. In effetti in questo calcolo abbiamo utilizzato unicamente il fatto che le
v.a. normali hanno una legge che simmetrica rispetto alla media, cio sono tali che X e
(X ) hanno la stessa legge. Per tutte le v.a. con questa propriet si ha
E[(X )3 ] = E[(X )3 ] = E[(X )3 ]
per cui E((X )3 ) = 0 e = 0. Tutte le v.a. simmetriche intorno alla media (cio tali che
X e (X ) hanno la stessa legge) hanno dunque indice di skewness = 0.
b) Ricordiamo che per una v.a. X (, ) il momento di ordine k vale
E(X k ) =
( + k 1)( + k 2) . . .
( + k)
=
k ()
k
E(X 2 ) =
( + 1)
,
2
E(X 3 ) =
( + 1)( + 2)
= 3 2 + 3 + 2 3 2 3 + 2 2 =
2
= 3
per cui
2
3
3/2
3
= 2 1/2 .
Esercizio 3.13
49
In particolare lindice di skewness non dipende da e quello di una legge esponenziale (1, )
sempre uguale a 2. Osserviamo anche che la skewness di una legge sempre positiva, il che
in accordo con lintuizione (il grafico delle densit sempre come nella Figura 3.21, almeno
per > 1).
c) Useremo sempre lo sviluppo del binomio di terzo grado, ma occorre ora calcolare il momento del terzordine di una legge di Poisson. In effetti gi conosciamo i momenti di ordine
uno: E(X) = e di ordine due: E(X 2 ) = Var(X) + E(X)2 = + 2 . Il momento di ordine
tre pu essere ottenuto in modi diversi: intanto direttamente con la definizione:
E(X 3 ) = e
= e
X
k=0
X
i=0
k3
k=1
i=0
X
X
k
i+1
k
k2
(i + 1)2
= e
= e
=
k!
(k 1)!
i!
(i 2 + 2i + 1)
i!
= (2 + + 2 + 1) = 3 + 32 +
Oppure anche derivando, a scelta, la funzione caratteristica oppure la funzione generatrice dei
momenti. Ricordiamo che, per questultima, si ha (vedi la (3.68))
d3
m (0) = E(X 3 ) .
d 3 X
(1.8)
La funzione generatrice dei momenti di una v.a. di Poisson di parametro (Esempio 3.71 b))
mX ( ) = e(e
1)
Derivando pazientemente
d
mX ( ) = e e(e 1)
d
d2
mX ( ) = (e + 2 e2 )e(e 1)
2
d
d3
m ( ) = (e + 32 e2 + 3 e3 )e(e 1)
d 3 X
da cui, ponendo = 0,
E(X 3 ) =
d3
m (0) = + 32 + 3 .
d 3 X
Finalmente
E((X )3 ) = E(X 3 ) 3E(X 2 ) + 3E(X)2 3 =
= + 32 + 3 3( + 2 ) + 33 3 =
e quindi
=
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2007
= 1/2 .
3/2
50
Parte 1: soluzioni
3.14
e 2 (xs) dx es
2 /2
esx ex
y=xs
es
2 /2
2 /2
dx =
Z
ey
2 /2
dy = es
2 /2
e dunque
2
Var(eX ) = e2 e2 e e
0.9
.
...
2 /2
2
2
2
= e2 e e 1 .
....... .......
.......
......
.
....
...
.
.....
...
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.....
.....
.
.
.
.
.
.
.
.
.
.
.
..
.
.. .............
...
.
.....
........
..
..
.
.
.
.
.
........
......
..
........
..
.
.
........
2 = 41
..
.
.
.
.........
......
.
.........
...
....
..........
.
.
.
.
.
.
...
...........
.
..
...........
.......
..
..
............
..
...
..............
..
................ ..... .....
..
..................... ..
..
..
.......................
...
...............................
.
.
2
.
.
....... .. ..................................
=1
..
..........
..... .......
...
..
....... ....... .........................
.
.
.
.
.. .......
...
..
.
.
.
...... .......
Figura 1.4 Grafico della densit lognormale per diversi valori di 2 e = 0. Da notare che al crescere
di 2 la media cresce, come si visto nellesercizio, mentre la moda (cio il punto di massimo della
densit) diventa pi piccolo. Sempre per = 0, la mediana vale 1 per ogni valore di 2 .
(log z )
Esercizio 3.17
51
3.15 Nella risoluzione di questo esercizio supporremo che il lettore sappia come simulare
le v.a. N(0, 1) e le esponenziali, come indicato nel paragrafo 3.10.
2 (n) la legge della somma dei quadrati di n v.a. N(0, 1). Baster quindi simulare n v.a.
N(0, 1) indipendenti X1 , . . . , Xn , dopo di che X12 + . . . + Xn2 avr legge 2 (n).
(n, ) la legge della somma di n v.a. indipendenti ed esponenziali di parametro . Queste
si ottengono considerando che, se X uniforme su [0, 1], allora Y = 1 log X appunto
esponenziale di parametro .
Allo stesso modo per ottenere una v.a. ( n2 , ) si possono sommare n v.a. indipendenti
ciascuna di legge ( 21 , ). Per ottenere ciascuna di queste basta osservare che ( 21 , ) la
legge del quadrato di una v.a. N(0, 1 ) (Esempio 3.42).
2
3.16 a) La v.a. Y a valori discreti (interi 0). Inoltre chiaro che Y = k se e solo se
k X < k + 1. Dunque
Z k+1
P(Y = k} = P(k X < k + 1) =
et dt = ek e(k+1) = ek (1 e ) .
k
1 e
b) Simulare una v.a. esponenziale facile, poich esponenziale di parametro la v.a.
X = 1 log U , dove U uniforme su [0, 1]. Abbiamo ora visto che geometrica la v.a. X,
che si calcola facilmente a partire da X. Occorre solo scegliere in modo che sia p = 1 e ,
cio = log(1 p). Dunque la procedura di simulazione la seguente:
1) Si simula una v.a. U uniforme su [0, 1].
2) Si pone
1
log U
X = log(1p)
che allora geometrica di parametro p.
3.17 a) Il calcolo delle leggi del massimo o del minimo di v.a. indipendenti stato visto
varie volte nei Capitoli 2 e 3. Ricordando che la f.r. di una v.a. esponenziale di parametro
F (t) = 1 et per t > 0, mentre F (t) = 0 per t < 0, la f.r. di X(3) data, sempre per t > 0,
da
G(t) = P(X(3) t) = P(X1 t, X2 t, X3 t) =
= P(X1 t)P(X2 t)P(X3 t) = (1 et )3
da cui derivando si ottiene la densit di X(3) : se t > 0, g(t) = G (t) = 3et (1 et )2 (per
t 0 naturalmente g(t) = 0). La speranza matematica di X(3) vale dunque
Z +
E(X(3) ) = 3
t et (1 et )2 dt =
0
Z +
3
1 1 11
= 3
t et 2e2t + e3t dt =
1 +
=
2 9
6
0
52
Parte 1: soluzioni
1
0
1
3 .
se Xi t
altrimenti
Derivando
k(t) = K (t) = 6e2t (1 et )
per cui la speranza matematica di X(2) vale
E(X(2) ) = 6
+
0
t e2t (1 et ) dt =
Esercizio 3.19
53
da cui derivando si ottiene la densit di Z: fZ (z) = zez /2 se z > 0, mentre f (z) = 0 per
z 0. Uno sguardo al paragrafo 3.8 mostra che si tratta di una densit di Weibull.
b) Abbiamo appena calcolato la f.r. di Z. Dunque la quantit richiesta
P(Z > 1) = 1 FZ (1) = e1/2 .
3.19 La prima probabilit richiesta si pu scrivere P((X, Y ) A) dove A la regione del
piano formata dai punti (x, y) tali che xy > 21 . Limitandoci ai punti che hanno entrambe le
coordinate positive, si vede facilmente che si tratta della regione al di sopra delliperbole della
Figura 1.5.
...
...
...............................
...........................................
........................................
.....................................
........................
................................
..............................
.................
....................
...........
..........
.......
.........
....
xy =
1
2
Figura 1.5
La probabilit richiesta dunque larea della porzione di quadrato che si trova in A, cio il
valore dellintegrale
Z 1
Z 1
Z 1
1
1
dx = (1 log 2) .
dx
dy =
1
1
1
1
2x
2
2
2x
2
Inoltre
P XY < 41 |X >
1
2
P X > 21
1
, x > 21 } che contenuta nel quadrato quella ombreggiata
La porzione della regione {y < 4x
nella Figura 1.6. La probabilit condizionale P(XY < 41 |X > 21 ) dunque uguale allarea
della superficie ombreggiata divisa per P(X > 21 ) = 21 , cio
Z 1
Z 1
Z 1
4x
1
1
dx = log 2 .
2
dy = 2
dx
1
1 4x
2
0
2
2
...
...
...
...
...
...
...
...
...
...
...
.....
.....
..
.......................
...................................
.............................................................
. . . . . . . . . . . . . . .............
.........................................................................
..........................................................
..........................................................
1
2
Figura 1.6
xy =
1
4
54
Parte 1: soluzioni
P XY > 41 | X
Y >2 =
X
P( Y > 2)
La probabilit al denominatore pari allarea della porzione di quadrato che si trova sotto la
retta y = x2 (ed quindi 41 ), mentre il numeratore uguale allarea della superficie ombreggiata
nella Figura 1.7. Questultima vale
Z 1
Z x
Z 1
2
x
1
1
dx
dy
=
dx = (1 log 2)
2
2 2
1
4x
8
2
4x
2
e quindi
1
P XY > 41 | X
Y > 2 = 2 (1 log 2) .
...
...
...
...
..
..
..
..
..
..
..
...
...
...
....
.......
.......
...
.......
.....
.......
.....
.......
.
.
.
.....
.
.
.
..... ....
......
.........................................
................. ........
....... .. .............................
.............
.......
.
.
.
.
.
.
...
......
..
.......
.......
.......
.
.
.
.
.
.
.
.
.
....
y=
x
2
xy =
1
4
2
2
Figura 1.7
I due esercizi precedenti illustrano come il calcolo della probabilit di eventi legati a pi
v.a. si riconduca spesso a quello dellintegrale della densit congiunta su opportune regioni del
piano, ovvero, nel caso di densit uniformi, al calcolo di aree.
3.20
R2
Esercizio 3.21
Poich
P(X1 > t) = P(X2 > t) =
55
1
t
ds = 1 t
A
1
1
2
y(1 y) dy = 1 =
3
3
1
1
0
1
2 e(x+y)
0
se x > 0, y > 0
altrimenti .
56
Parte 1: soluzioni
x
y )
= f (x, y x) .
g(x, y)
fY (y)
Essa nulla se x non si trova nellintervallo ]0, y[ mentre in questo intervallo vale
g X1 |Y (x|y) =
2 ey
1
=
2
y
ye
y
f (u, v) du dv = c
du
u
0
2u u2 /
c
e
v dv =
u3 eu
2 /
du = 1 .
Lultimo integrale dellespressione precedente si calcola per parti (vedi comunque il punto a)
2
dellEsercizio 3.2). Esso vale dunque 2 , per cui deve essere
c=
dove la funzione (u, v) = (u, uv ); questa funzione certo infinite volte derivabile per
u > 0, v > 0: se essa fosse anche invertibile e la sua inversa derivabile potremmo calcolare
la densit congiunta g di U e U
V con il teorema di cambio di variabile negli integrali multipli,
grazie al quale si ha che
(1.10)
Esercizio 3.23
57
prover che invertibile). Poi bisogna calcolare il differenziale D 1 (che in questo caso
una matrice 2 2) e il suo determinante. A questo punto avremo la densit congiunta g tramite
la (1.10) e vedremo che essa il prodotto di una funzione della sola variabile x moltiplicata
per una funzione della sola variabile y. Come si vede si tratta di un programma abbastanza
complesso, ma nel quale ogni singola parte non presenta grosse difficolt.
Per calcolare linversa di , fissati dei valori x e y dobbiamo determinare dei numeri u e v
tali che (u, v) = (x, y). In altre parole dobbiamo risolvere rispetto a u e v il sistema
u=x
u
v =y
che d facilmente u = x, v = xy . Dunque 1 (x, y) = (x, xy ). immediato ora il calcolo del
differenziale di 1 :
1
0
D 1 (x, y) = 1
x
y2
y
per cui det D 1 (x, y) = yx2 . Abbiamo quindi calcolato tutte le quantit che compaiono nella
(1.10). Sostituendo i valori trovati dobbiamo per ricordare che f (u, v) = 0 a meno che non
sia 0 < v < u. Dunque otteniamo f ( 1 (x, y)) = f (x, xy ) = 0 a meno che non sia y > 1 e
x > 0. In conclusione
g(x, y) =
2 2x x 2 /
x
e
1{x>0} (x)1{y>1} (y)
y
{z
}
|
=f ( 1 (x,y))
x
y2
|{z}
=| det D 1 (x,y)|
1
4 3 x 2 /
x e
1{x>0} (x)
1
(y)
2
y 3 {y>1}
|
{z
} |
{z
}
funzione della sola x
e dunque U e U
V sono indipendenti.
Il metodo di calcolo della densit congiunta (a cui si talvolta condotti per provare
lindipendenza di due v.a.) con luso il teorema di cambio di variabile negli integrali multipli, illustrato in questo esercizio, un tecnica che risulta utile in molte situazioni. Si tratta
di un calcolo piuttosto complesso ed al quale conviene ricorrere solo quando non ci sono altre
possibilit. Uno sguardo pi da vicino mostra per che le diverse tappe del calcolo sono relativamente semplici: calcolo dellinversa 1 (spesso loperazione pi difficile), calcolo del suo
differenziale e del determinante di questultimo, sostituzione dei valori nella (1.10).
3.23 Ricordiamo che la media di una v.a. esponenziale di parametro 1 .
1
, = 61 . Indichiamo con S1 e S2 i tempi di vita di ciascuno dei due
a) Poniamo = 10
elementi che compongono il secondo componente. Se T2 il tempo di vita di questultimo,
allora T2 = max(S1 , S2 ). Se supponiamo che S1 e S2 siano indipendenti allora abbiamo gi]a
visto altre volte come si fa il calcolo della f.r. di T2 :
P(T2 t) = P(max(S1 , S2 ) t) = P(S1 t, S2 t) =
= P(S1 t) P(S2 t) = (1 et )2 .
58
Parte 1: soluzioni
tf2 (t) dt = 2
+
0
t (et e2t ) dt =
1
3
2
=
=9.
2
2
= 2
e(+)y dy 2
e(+2)y dy =
2
2
25
=
= 0.48
+ + 2
52
Quindi, nonostante in media duri pi, la probabilit che il primo componente resti funzionante
pi a lungo del secondo minore di 21 . Naturalmente lintegrale doppio precedente si sarebbe
anche potuto calcolare integrando prima in y e poi in x, cio
P(T1 > T2 ) =
f1 (x)f2 (y) dx dy =
ex dx
2ey (1 ey ) dy .
3.24 a) I dati del problema permettono di affermare che la densit condizionale di Y dato
X = x deve essere fY |X (y |x) = xexy per y > 0 e fY |X (y |x) = 0 altrimenti. Poich
conosciamo anche la legge di X, possiamo calcolare la legge congiunta di (X, Y ), da cui
potremo ricavare la legge di Y , che ne una marginale, e poi la legge condizionale di X dato
Y = y. La legge congiunta di (X, Y )
f (x, y) = fX (x)fY |X (y |x) =
(+y)x
() x e
se x > 0, y > 0
altrimenti .
f (x, y) dx =
()
=
+
0
x e(+y)x dx =
( + y)+1
( + 1)
=
() ( + y)+1
Esercizio 3.25
59
E(Y ) =
dy
=
dy =
+
+1
( + y)
( + y) 0
( + y)
0
0
|
{z
}
=0
+
1
=
=
1 ( + y)1 0
1
3.25
a) La v.a. X Y si pu scrivere
X Y = X + (Y ) .
Le v.a. X e Y sono ancora indipendenti ed inoltre Y ha legge N(0, 1). Per la regola della
somma di v.a. normali indipendenti,
X Y ha legge N(0, 2).
b) Per calcolare la legge di (X, 2Y ) basta osservare che X e 2 Y sono ancora v.a. indipendenti. La prima N(0, 1) mentre la seconda N(0, 2). Dunque la densit congiunta
1
2
2
g(x, y) = ex /2 ey /4 .
2 2
Avremmo anche potuto osservare che il vettore aleatorio (X, 2 Y ) segue una legge normale
multivariata, essendo una funzione lineare del vettore (X, Y ). La sua legge risulta determinata
dal fatto che la matrice di covarianza
1 0
K=
0 2
60
Parte 1: soluzioni
come risulta dal calcolo delle varianze di X e 2 Y e dal fatto che X e 2 Y sono indipendenti
e quindi non correlate.
Per il calcolo della legge di (X, X Y ) osserviamo che si tratta di una v.a congiuntamente
gaussiana, essendo una funzione lineare delle v.a. X, Y che sono esse stesse gaussiane.
La legge di (X, X Y ) resta dunque determinata una volta che se ne conoscano media e
matrice di covarianza. chiaro che E(X) = E(X Y ) = 0 e dunque anche (X, X Y )
centrata. Per la matrice di covarianza C basta osservare che
Var(X) = 1
Var(X Y ) = Var(X) + Var(Y ) = 2
Cov(X, X Y ) = Cov(X, X) Cov(X, Y ) = 1 .
| {z } | {z }
=0
=Var(X)=1
Dunque
C=
1
1
1
2
1
0
0
1
1
1 2
1
1
2
2
2
2
g X|XY (x |z) = e 2 (2x 2xz+z ) ez /4 = e(x xz 4 z ) .
In generale per conviene ricordare che per le leggi condizionali di variabili congiuntamente
normali valgono le (3.89) e (3.90), cio se U e Z hanno legge congiunta normale, allora la legge
condizionale di U dato Z = z ancora normale di varianza
2 = Var(U )
Cov(U, Z)2
Var(Z)
Esercizio 3.26
e media
= E(U ) +
61
Cov(U, Z)
(z E(Z)) .
Var(Z)
=0
=0
= Var(Y )=1
3.26
a) Calcoliamo la f.r. di T . Indichiamo con A levento il pezzo prescelto stato
prodotto dalla prima linea e con B levento il pezzo prescelto stato prodotto dalla seconda
62
Parte 1: soluzioni
p
q
+
0
b) Si tratta di calcolare P(A|T > s). Con la formula di Bayes si trova
E(T ) =
P(A|T > s) =
t (pet + qet ) dt =
= s
=
s
P(T > s)
pe
+ qe
p + qe()s
Per s che tende allinfinito, ricordando che supponiamo > , questa probabilit tende a 1 e
dunque pi s grande e pi probabile che il componente provenga dalla linea A.
Questo in accordo con lintuizione: infatti la condizione > implica che i pezzi della
prima linea di produzione hanno in media vita pi lunga. Dunque era ragionevole aspettarsi
che pi il pezzo risulta longevo, pi probabile che provenga dalla prima linea.
3.27 a) Se Z e W sono i tempi desecuzione della prima e della seconda fase rispettivamente,
il tempo di esecuzione totale T = Z + W ; basta ora ricordare che la speranza matematica di
una v.a. esponenziale di parametro vale 1 , per cui
E(T ) = E(Z) + E(W ) =
1
1
+
=
e
(1 e()x ) =
(ex ex ) .
Esercizio 3.27
63
c) La probabilit che il programma non sia terminato ancora al tempo t + s sapendo che esso
non era terminato al tempo s
P(T > t + s |T > s) =
P(T > t + s)
1 F (t + s)
P(T > t + s, T > s)
=
=
P(T > s)
P(T > s)
1 F (s)
(ex ex ) dx =
(1 et )
(1 et ) =
F (t) =
0
et et
=1
dunque
P(T > t + s |T > s) =
e(t+s) e(t+s)
.
es es
e()s
es
1
1 FZ (s)
= s
=
1 F (s)
e (1 + s)
1 + s
64
Parte 1: soluzioni
x+y =t
(1, t 1)
Figura 1.8
se 0 t 1
se 1 t 2
t
2t
e f (t) = 0 per t al di fuori dellintervallo [0, 2]; f ha il caratteristico grafico a casetta della
Figura 1.9.
1
...
..... .....
..... .........
.....
.....
....
.....
.
.
.
.
.
.....
.....
.....
.....
.....
.
.
.
.....
...
.
.
.
.....
.
...
.
.....
.
.
.
.....
....
.
.
.
.....
...
.
.
.....
.
.
...
.....
.
.
.
.
.....
....
.
.
.....
.
...
.....
.
.
.
.
.....
...
.
.
.
.....
.
....
.....
.
.
.
.....
....
.
.
.
.....
.
.....
Figura 1.9
1
0
se 0 t 1
altrimenti .
Esercizio 3.30
65
3.29
a) X e Y hanno distribuzione congiunta uniforme sul quadrato [0, 1] [0, 1]. La
probabilit richiesta P((X, Y ) A) dove A R2 la regione dei punti (x, y) tali che
|x y| > 21 . Cio larea della regione ombreggiata nella Figura 1.10, che vale 41 .
...
.....
.....
........................................
........................
.
. . . . . . . . ..
................................
..................
................
. . . . . ..
...................
...........
. ..
........
.....
....
.
.
.
.
...
.
1
.
.
.
..
.....
2
....
....
....
.....
.....
.....
.
.
.
.....
.......
.........
...........
..................
.
.
.
................
..................
....................
......................
.................................
.
.
.
.
...........................
.....
.....
.....
Figura 1.10
b) Calcoliamo la f.r. di Z. Se 0 t 1, allora P(Z > t) = P(|X Y | > t) non altro che
la probabilit che il punto (X, Y ) si trovi in una regione simile a quella della Figura 1.10 (solo
con il valore t al posto di 21 ). Dunque, sempre per 0 t 1,
P(Z > t) = (1 t)2 .
La f.r. di Z dunque
FZ (t) =
1 (1 t)2
0
se 0 t 1
altrimenti
per cui la densit fZ (t) = 2(1 t) per 0 t 1, fZ (t) = 0 altrimenti. La distanza media
tra X e Y quindi
Z 1
1
E(Z) = 2
t (1 t) dt =
3
0
3.30 Indichiamo con Y la v.a. che rappresenta il valore assunto da . La legge congiunta di
X, Y dunque data dalla densit mista
g(, k) = e e
k
,
k!
> 0, k = 0, 1, . . .
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011
g(, k) d =
k!
e e k d =
k!
e(+1) k d
66
Parte 1: soluzioni
da cui
pX (k) =
,
( + 1)k+1
k = 0, 1, . . .
e(+1) k!
g(, k)
( + 1)k+1 k (+1)
p Y |X ( |k) =
=
=
e
.
pX (k)
k!
k+1
(+1)
E(Y ) = E(X + W ) = 0
=Var(X)
C=
1
1
1
1 + 2
La legge di Y risulta quindi individuata: N(0, C). Volendo, ci permette di calcolare la densit
congiunta (cosa che per non esplicitamente richiesta dallenunciato). Indicando z = (x, y)
essa infatti
1
1
1
e 2 hC z,zi .
f (z) =
2 det C
Ora det C = 2 mentre
1
= 2
1 + 2
1
1
1
Esercizio 3.32
67
e quindi
h 1
i
1
exp 2 ((1 + 2 )x 2 2xy + y 2 ) .
2
2
b) Sappiamo, vedi le (3.89) e (3.90), che la legge condizionale di X dato Y normale di
varianza
Cov(X, Y )2
1
2
Var(X)
=1
=
Var(Y )
1 + 2
1 + 2
e media
y
Cov(X, Y )
(y E[Y ]) =
E(X) +
Var(Y )
1 + 2
che quindi la speranza condizionale richiesta.
11
e per
c) Abbiamo visto nel punto precedente che la legge condizionale di X dato Y = y = 20
f (x, y) =
y
2
1 1
1
= 21 e varianza 1+
2 = 11 , ovvero che N( 2 , 11 ). Dunque
1+ 2
11
probabilit che X si trovi in [ 41 , 43 ] sapendo che Y = 20
pari alla probabilit che una v.a.
1 1
1 3
1 1
N( 2 , 11 ) si trovi in [ 4 , 4 ]. Ma se Z N( 2 , 11 ) allora Z della forma Z = 1 W + 21
11
la
Z
dove W N(0, 1) e quindi
P 41 Z 43 = P
11
4
11
4
= P(0.82 Z 0.82) =
= 8(0.82) 8(0.82) = 0.58 .
=0
=0
=0
=0
=0
=211=0
=0
=1
68
Parte 1: soluzioni
A=
cio
2 1 1
1
1
1
1 3
2
X1
X2
X3
U
V
W
Dunque il vettore (U, V , W ) ha legge congiunta normale e tutte le sue componenti sono centrate.
Poich la matrice di covarianza di (X1 , X2 , X3 ) la matrice identit, (U, V , W ) ha matrice di
covarianza
!
!
!
6 0
3
2 1
1
2 1 1
C = AA = 1
1 1 3 = 0 3 0
1
1
3 0 14
1 1
2
1 3
2
da cui si pu rispondere insieme alle questioni dei punti a) e b): U N(0, 6), V N(0, 3),
W N(0, 14) (gli elementi sulla diagonale di C sono le varianze di U , V e W ); inoltre U, V
e V , W sono coppie di v.a. indipendenti, mentre U e W non sono indipendenti (le covarianze
delle variabili si trovano, nella matrice di covarianza, fuori della diagonale).
3.33 a) Poich S = T +W , si tratta di calcolare la legge della somma di due v.a. esponenziali
indipendenti di parametri rispettivamente e . Se indichiamo con fT , fW le densit di T e W
rispettivamente, la densit fS di S si pu calcolare come indicato dalla Proposizione 3.23, cio
fS (x) =
fT (t)fW (x t) dt .
Il calcolo di questo integrale gi stato effettuato nel punto b) dellEsercizio 3.27 e d come
risultato
fS (s) =
(es es ) .
Esercizio 3.33
69
1
g A1 st .
| det A|
A1 =
1
1
0
1
t
e f (t, s) = g(t, s t). Quindi intanto f (t, s) = 0 a meno che non sia
per cui A1 st = st
0 t s (se fosse t > s allora sarebbe s t < 0 e dunque g(t, s t) = 0). Sostituendo
nellespressione di g a z e w i valori t e s t rispettivamente, otteniamo
t (st) se 0 t s
f (s, t) = e e
0
altrimenti .
b) La densit condizionale di T dato S = s , per definizione,
fT |S (t |s) =
f (t, s)
fS (s)
( )es ()t
e
es es
0
se 0 t s
altrimenti .
t e()t dt .
e
)
=
es es
( )2
1
s
=
()s
1e
Sostituendo i valori si ottiene
per s = 1.5
per s = 0.1
1.3889
0.0574
Cov(T , S)
Var(T )
=
=
Var(S)
Var(S)
1
2
1
2
1
2
2
2 + 2
70
Parte 1: soluzioni
2 1
1
1
2
+
= 2
2
+
+ 2
1.3960 (1.3889)
0.0099 (0.0574)
|S = s)
Si vede che per valori molto piccoli di s la retta di regressione e la funzione s E(T
sono abbastanza diverse.
3.34
a) Si vede subito che f una densit: poich si tratta di una funzione pari
Z
1
f (x) dx =
2
|x|
dx =
+
0
ex dx = 1 .
Si tratta del resto della densit di Laplace di parametro = 1, che sincontra anche negli Esercizi
3.40, 3.46, 3.55, 3.56, 3.58 e 3.63. Il grafico di questa densit si pu vedere nella Figura 1.11.
....
2 ..... ......
...
...
...
...
...
...
...
....
....
....
.....
.....
....
.....
......
.......
........
..........
..............
...........................
.............................................................
.........................................................................................
...
...
...
..
.
.
...
...
....
....
.
.
.
....
....
....
.....
.....
.
.
.
.
.
......
.........
...........
..................
.................................
.......................................................................................................................................
Figura 1.11
Calcoliamo la sua funzione caratteristica. Dato che x sin x una funzione dispari, mentre
x cos x pari,
X ( ) =
1
2
e|x| eix dx =
1
2
e|x| cos x dx =
ex cos x dx
Z
+
cos x
cos x dx = e
ex sin x dx =
0
0
0
Z +
Z +
+
x
2
x
2
1 + e sin x
e cos x dx = 1 +
ex cos x dx
e
da cui si ricava
X ( ) =
1 + 2
Esercizio 4.1
71
1
b1) 1+
2 una funzione integrabile su R; dunque, per il Teorema 3.82 dinversione
delle funzioni caratteristiche,
Z +
Z + ix
1
e
1
1
f (x) = e|x| =
eix X ( ) d =
d .
2
2
2 1 + 2
eix
dx = e||
1 + x2
dunque Y ( ) = e|| .
b2) Calcoliamo la funzione caratteristica di Z = 21 (Y1 +Y2 ): per i punti 1) e 3) del paragrafo
3.13,
Z ( ) = Y1 ( 2 ) Y2 ( 2 ) = e||/2 e||/2 = e|| .
Dunque 21 (Y1 + Y2 ) ha ancora legge di Cauchy.
Osserviamo che Y non derivabile in 0; daltra parte abbiamo visto nellEsercizio 3.4
che Y non ha speranza matematica finita. Si tratta quindi di un esempio di v.a. che non ha
speranza matematica finita e non ha funzione caratteristica derivabile.
1
1
n Xn :
0.
e ci, per definizione, implica che ( n1 Xn )n converge in probabilit alla costante 1. La convergenza ha luogo anche in legge (la convergenza in probabilit implica sempre quella in legge,
vedi lOsservazione 4.10).
Secondo metodo. Se (Zn )n una successione di v.a. indipendenti tutte di legge ( 21 , 21 ),
allora, per ogni n, Z1 + . . . + Zn ha legge 2 (n), cio la stessa di Xn ; dunque le due v.a.
(1.13)
1
n
Xn
1
n
(Z1 + . . . + Zn )
hanno la stessa legge. Ma di queste la seconda converge in probabilit alla media E(Z1 ) = 1
per la Legge dei Grandi Numeri. Dunque, per ogni > 0,
0
P n1 Xn 1 > = P n1 (Z1 + . . . + Zn ) 1 >
n
72
Parte 1: soluzioni
4.2 a) Per la disuguaglianza di Chebyshev e ricordando che la varianza di una v.a. di Poisson
di parametro vale appunto ,
P(|X n | )
Var(X n )
= 2
2
.
P(|Xn | ) 28
=1
n2
che non una stima particolarmente utile (che una probabilit sia pi piccola di 1 lo sapevamo
gi da prima. . . ). Con lapprossimazione normale invece
n
P(|Xn | ) 28
= 28(1) = 0.3173 .
Il risultato esatto (ottenuto, ad esempio, con uno dei software menzionati a pag. 45) 0.3173;
dunque in questo caso lapprossimazione normale d un valore preciso fino alle prime 4 cifre
decimali.
Non male per ricordare che la Disuguaglianza di Chebyshev ha applicazioni comunque
importanti (la Legge dei Grandi Numeri ne un esempio) ed vera per ogni valore di n,
mentre lapprossimazione normale , appunto, unapprossimazione e vale solo se n abbastanza
grande.
4.3 a) Poich X1 una v.a. (1, ) (cio esponenziale di parametro ), se indichiamo con
F1 la sua f.r.,
1
P X1 > 1 = 1 F1 ( 1 ) = e = e1 = 0.37 .
Per X3 sappiamo che la f.r. di una v.a. (3, ) data da
(t)2
F3 (t) = 1 et 1 + t +
2
Esercizio 4.5
e quindi
73
P(X3 > 3 ) = e3 1 + 3 + 29 = 0.42 .
1
n Xn
>
n
,
2
= P Xn > n = P Xn n > 0 = P Z1 + . . . + Zn
Z + . . . + Z n
1
1
n
=P
>0
1 8(0) =
p
n
2
2
n/
>0 =
4.4 Se indichiamo con Xi la v.a. che rappresenta il risultato dello i-esimo lancio, cio la v.a.
che vale 1 se allo i-esimo lancio Marco vince e 0 altrimenti, allora il numero di volte che Marco
vince in 100 prove si modellizza con la v.a. X = X1 + . . . + X100 . Se la moneta equilibrata
le v.a. Xi hanno ciascuna legge di Bernoulli B(1, 21 ) e dunque media 21 e varianza 41 . Usando
lapprossimazione normale (4.7), la probabilit che Marco vinca meno () di 36 volte
P(X1 + . . . + X100 36) 8
36.5 50
5
8 t 8 t
=P
n
P(Zn t) = P
Dunque le f.r. delle v.a. Zn convergono. Occorre ora verificare che il limite sia la f.r. di una
v.a. e individuarla. Ma
t
t
X
= P( t X t ) = P(( X)2 t) .
8 t 8 t = P
Dunque Zn converge in legge verso la v.a. ( X)2 , che una v.a. ( 21 , 21 2 ) (Esempio 3.42).
74
4.6
Parte 1: soluzioni
a) Si ha
Z 2a
1
E(Xi ) =
x dx = a
2a 0
Z 2a
4
1
x 2 dx = a 2
E(Xi2 ) =
2a 0
3
a2
Var(Xi ) = E(X 2 ) E(X)2 =
3
b) Per il Teorema Limite Centrale
P(X1 + . . . + Xn > na + x n) =
q
q
X + . . . + X na
n
> x a32
1 8 x a32
P 1
q
a2 n
3
dove 8 indica al solito la f.r. di una legge N(0, 1). Con i valori numerici assegnati e le tavole
si ottiene
x=a
1 8( 3 ) = 1 8(1.732) = 0.041
x = 21 a 1 8( 21 3 ) = 1 8(0.866) = 0.807 .
4.7 Se indichiamo con Xi lerrore commesso nella i-esima addizione, allora lerrore complessivo X = X1 + . . . + X106 . Osserviamo che le v.a. Xi hanno densit (discreta)
10 se 0.5 1010 t 0.5 1010
f (t) = 10
0
altrimenti .
Esse hanno dunque media nulla (per simmetria, chi non ci crede pu calcolare lintegrale. . . ).
Inoltre
Z 0.51010
1
Var(Xi ) = E(Xi2 ) = 1010
t 2 dt =
1020 := 2 .
12
0.51010
P(0.5 107 X 0.5 107 ) = P(X 0.5 107 ) P(X 0.5 107 ) =
= P(X1 + . . . + Xn 0.5 107 ) P(X1 + . . . + Xn 0.5 107 )
8
0.5 107
0.5 107
8
n
n
Ora
0.5 107
n
0.5 107
Esercizio 4.9
75
e dunque la probabilit che la settima cifra sia significativa 0.958 0.041 = 0.917. Ripetendo
i calcoli per 0.5 108 si ha facilmente
P(0.5 108 < X 0.5 108 ) 8(0.173) 8(0.173) = 0.568 0.431 = 0.137 .
La probabilit che la settima cifra decimale sia corretta molto elevata, mentre per lottava non
si pu dire lo stesso.
4.8
a) Poniamo
Xi =
1
0
179.5 900
q
5
900 36
1
6
179.5 900 29
> 179.5) 1 8 q
900 29 79
= 1 8(1.64) = 0.95 .
Dunque un dado truccato viene individuato con una probabilit del 95%.
4.9 a) Se X il numero di bit distorti, chiaro che X segue una legge B(1000, 0.01) (numero
di successi in 1000 prove indipendenti con probabilit di successo p = 0.01 in ogni singola
prova). Dunque E(X) = 1000 0.01 = 10. La probabilit che vi siano bit distorti
P(X 1) = 1 P(X = 0) = 1 (1 0.01)1000 1
(0.991000 = 4.3 105 ), mentre la probabilit che vi siano almeno 10 bit distorti
(1.14)
9
X
1000
P(X 10) = 1 P(X 9) = 1
0.01i 0.991000i .
i
i=0
76
Parte 1: soluzioni
9
X
10
i=0
i!
= 0.543
e 0.543 lo stesso valore che avremmo ottenuto se avessimo effettuato la somma in (1.14).
In questo caso dunque lapprossimazione con le leggi di Poisson d risultati migliori che
lapprossimazione normale. Questultima rimane comunque pi pratica perch il calcolo della
f.r. in (1.15) richiede comunque un certo lavoro numerico (inoltre, di solito, per le leggi di
Poisson non ci sono tavole, anche se i pacchetti software statistici sono in grado di fornire le f.r.
anche delle leggi di Poisson).
Si potrebbe pensare di usare lapprossimazione normale per stimare, nella situazione del
punto b), quale sia la probabilit che vi siano pi () di k bit distorti, per qualche valore di k
fissato. In realt in questo caso lapprossimazione normale non funziona bene. Ad esempio per
k = 2 la probabilit di avere pi (>) di un bit distorto 1 (1 q)1000 1000 q(1 q)999 =
0.0365 mentre lapprossimazione normale d
1.5 1000 q
18
= 1 8(2.2) = 0.0138
q(1 q) 1000
che unapprossimazione abbastanza scadente dal vero valore 0.0365. In effetti una regola
accettata in pratica per potere utilizzare lapprossimazione normale con leggi binomiali B(n, p)
Esercizio 4.12
77
che i numeri np e n(1p) siano entrambi pi grandi di 5, mentre in questo caso (p = 2.98104 )
np = 0.298.
4.10 a) Fissiamo lattenzione su un singolo pixel e indichiamo con Ai , i = 1, . . . , 8, levento
lo i-esimo bit non distorto e con A levento nessuno degli 8 bit distorto. Per le
ipotesi del problema, gli eventi A1 , . . . , A8 sono indipendenti e A = A1 . . . A8 . Dunque
P(A) = P(A1 ) . . . P(A8 ) = (1 p)8 = 0.9984.
b) Se poniamo
n
1 se lo i-esimo pixel distorto
Xi =
0 altrimenti
per i = 1, . . . , 131 072, allora il numero di pixel distorti nellimmagine X = X1 + . . . +
X131 072 . Inoltre le v.a. Xi sono di Bernoulli (possono prendere solo i valori 0 oppure 1)
B(1, 0.0016) (0.0016 = 1 0.9984 la probabilit che un singolo pixel venga distorto nella
trasmissione). Dunque
E(X) = 131 072 0.0016 = 209.7 .
Per calcolare la probabilit che vi siano pi di 200 pixel distorti si pu usare lapprossimazione
normale. In effetti la v.a. X la somma di n = 131 072 v.a. di Bernoulli di parametro q =
0.0016. Sappiamo che in questo caso una regola euristica per la validit dellapprossimazione
normale che i due numeri nq e n(1q) siano entrambi 5. Abbiamo gi visto che nq = 209.7,
mentre n(1 q) certo un numero molto grande. Lapprossimazione normale d quindi
P(X 200) = 1 P(X < 200) = 1 P(X 199.5) =
199.5 nq
=18
= 1 8(0.706) = 0.773 .
nq(1 q)
e varianza (+)2
4.11 a) Una v.a. Beta(, ) ha media +
(vedi il paragrafo 3.9).
(++1)
Dunque
,
Var(Xn ) =
E(Xn ) =
2
+
( + ) (n + n + 1)
P(|Xn
+ |
e dunque
Xn
Var(Xn )
0
n
2
4.12 Ricordiamo che vi sono vari modi per studiare il limite in legge: calcolando il limite
delle funzioni di ripartizione oppure delle funzioni caratteristiche, soprattutto.
78
Parte 1: soluzioni
...........
... ..
... ....
..
..
..
...
..
..
.. ....... ..... ...
..
... .......
..... ..
..
.....
..... .
.
.. .
.
......
.....
.... .
.
... ..
........
..............................................................
.
.
.
.
.
.
.
.
.
.............. . .....
.
....... .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............. .
.
.
......
.............................
.......
...
..
.......
... ..... .................
.
.
......
.
.
.
.
.
.
.
.
....
.
.
.
.
.
... ....... ........................
.
.....
..
.
...
....
.....
....
.
.
.
.
.
.
.
...
..
.
.
.
.
.
.
...... ....... ....... .......................................
.
.
.
.
.
...
.....
.
.
.
.
.
.
.....
..
.
.
.
.....
.
.
.
.
..
.
.
.
.
..
..
.
.
.
.................................... ....... ....... .............................................................
....... ....... ....
.............
5
4
3
2
1
2
5
nt
X
k=0
k
n
nt+1
=1 1
n
nt+1
=
=
n
1 1
n
lim Fn (t) = 1 et .
Riconosciamo ora nel termine a destra la f.r. di una legge esponenziale di parametro . Dunque
Yn converge in legge ad una v.a. che ha questa distribuzione.
Secondo modo: funzioni caratteristiche. Ricordando lespressione della funzione caratteristica di una v.a. geometrica (Esempi 3.77 b) a pag.155), si ha
Xn ( ) =
n
i
n )e
1 (1
n(1 ei ) + ei
e dunque
Yn ( ) = Xn
Osservando che
1 ei/n
d i
e |=0 = i
d
Esercizio 4.14
79
si ha
n
i
che appunto la funzione caratteristica di una legge esponenziale di parametro .
Come si vede, in questo caso tutti e due i metodi si possono applicare in maniera semplice.
lim Yn ( ) =
Sn
n .
Sn
n
converge in
0
1
se t <
se t .
Se invece = 1 il valore 1 non un punto di continuit per F e questo ragionamento non basta,
perch la definizione di convergenza in legge e la Legge dei Grandi Numeri non permettono di
stabilire quanto valga il limite. Si ha per per il Teorema Limite Centrale
P(X1 + . . . + Xn n) = P(X1 + . . . + Xn n 0) =
X + . . . + X n
1
n
=P 1
0
8(0) =
n
2
n
Dunque la densit di X1 f (x) = F (x) = x (+1) per x 1, mentre f (x) = 0 per x < 1.
Quindi
Z +
Z +
E(X1 ) =
tf (t) dt =
t dt .
80
Parte 1: soluzioni
Si vede dunque che X1 ha speranza matematica finita se e solo se > 1 e in questo caso
E(X1 ) =
Inoltre
E(X12 ) =
1
+
t +1 dt
,
2
2
2
1
( 2)( 1)2
i=1
(X1 X2 . . . Xn )1/n
E(Y1 ) =
e1/ .
4.15 La v.a. X1 X2 il prodotto di due v.a. indipendenti, aventi entrambe speranza matematica finita. Sappiamo quindi (Proposizioni 3.38 oppure 2.41) che anchessa ha speranza matematica finita e anzi che
E(X1 X2 ) = E(X1 )E(X2 ) = 0 .
Anche la v.a. X12 X22 il prodotto delle due v.a. X12 e X22 che sono indipendenti ed hanno
speranza matematica finita (perch per ipotesi X1 e X2 hanno varianza finita). Dunque
Var(X1 X2 ) = E(X12 X22 ) = E(X12 )E(X22 ) < + .
Esercizio 4.16
81
b) Le v.a. X1 X2 , . . . , X2n1 X2n sono indipendenti, centrate ed hanno varianza finita. Inoltre
hanno tutte la stessa legge. Dunque per la Legge dei Grandi Numeri
Vn =
1
(X X + X3 X4 + . . . + X2n1 X2n )
n 1 2
E(X1 X2 ) = 0 .
c) La normalizzazione con n invece che n deve far pensare al Teorema Limite Centrale:
applicandolo alle v.a. X1 X2 , . . . , X2n1 X2n , che sono indipendenti, equidistribuite e centrate
si ha
X1 X2 + . . . + X2n1 X2n
+
N(0, 1)
n
n
+
1 4
(X + . . . + Xn4 )
n 1
E(X14 ) .
Inoltre si pu scrivere
Un =
X12 + . . . + Xn2
X14 + . . . + Xn4
1
2
n (X1
1
4
n (X1
+ . . . + Xn2 )
+ . . . + Xn4 )
E(X12 )
E(X14 )
4.16 Le v.a. Zn che intervengono in questo esercizio sono definite come il minimo delle v.a.
X1 , . . . , Xn . Siamo dunque in una situazione in cui facile calcolare le f.r., mentre lo stesso
non si pu dire per le funzioni caratteristiche. Nel calcolo dei limiti in legge proposti useremo
quindi piuttosto il metodo basato sulle f.r.
a) Si ha, per 0 t 1,
P(Zn > t) = P(X1 > t, . . . , Xn > t) = (1 t)n
e dunque la f.r. Fn di Zn vale
Fn (t) = 1 P(Zn > t) =
(0
1 (1 t)n
1
per t < 0
per 0 t 1
per t > 1 .
82
Parte 1: soluzioni
per t 0
per t > 0 .
0
1
Ora la f.r. di una v.a. che assume il solo valore 0 con probabilit 1
0 per t < 0
F (t) =
1 per t 0 .
Poich Fn (t) F (t) per n per ogni t, tranne che per t = 0, che non punto di continuit
per F , possiamo concludere che Zn converge in legge ad una v.a. che ha questa distribuzione.
La convergenza ha luogo anche in probabilit, dato che, se > 0,
P(|Xn | ) = P( Xn ) = Fn () Fn ()
e dunque
P(|Xn | > ) = 1 P(|Xn | )
t
n
= Fn
t
n
=1 1
t n
n
per t 0
per t > 0 .
1,
per ogni
che la funzione caratteristica di una v.a. X che assume il valore 0 con probabilit 1.
b) Le v.a. del punto a) hanno media e varianza date da
E(Xn ) = (1 n ) 0 + n n = nn
E(Xn2 ) = (1 n ) 02 + n n2 = n2 n
Esercizio 4.19
83
Dunque se, ad esempio, n = n1 allora Var(Xn ) +, mentre la varianza del limite in legge
X uguale a zero. Ed inoltre E(Xn ) 1, mentre E(X) = 0.
4.18
a) Poniamo
n
S 0.2 n
n
n(0.2 0.8)
segue una legge che, per n abbastanza grande, approssimativamente N(0, 1). Dunque, con
lapprossimazione normale,
S 0.2 n
(0.23 0.2) n
>
P(p n > 0.23) = P(Sn > 0.23 n) = P n
n(0.2 0.8)
0.2 0.8
0.03 n
18
0.16
sostituendo il valore numerico n = 1000 si ottiene 1 8(2.37) = 0.009.
b) Poniamo per comodit
ripetendo il ragionamento del punto a) e usando
p = 0.2. Allora
la (4.8) si ha, poich = p(1 p) = 0.16 = 0.4,
P(|p n p| > ) 2 1 8
n
40
n
= 28
40
Perch questa quantit sia pi piccola di = 4 103 occorre (dopo uno sguardo alle tavole)
che sia
n
2.88
40
ovvero n > (40 2.88)2 = 13271.
4.19 a) log Si assume i valori log(1 + n ) e log(1 + n ), entrambi con probabilit 21 . La
funzione caratteristica di Si dunque
( ) =
1 i log(1+ n )
i log(1+ )
n
+e
= cos log 1 +
e
2
n
La v.a. log Xn uguale a log(xt ) + log S1 + . . . + log Sn . La sua funzione caratteristica vale
dunque
n
t
n ( ) = ei log(x ) cos log 1 +
n
84
Parte 1: soluzioni
b) Nel calcolo del limite per n di n ( ) siamo quindi ricondotti ad una forma 1 .
Ricordando gli sviluppi di Taylor per x e z vicini a 0
x2
+ o(x 2 )
2
log(1 + z) = z + o(z)
cos x = 1
si ottiene facilmente, per n ,
e dunque
Dunque
1 2 2
+o
cos log 1 +
=1
2 n
n
n
1 2 2
cos log 1 +
+o
= 1
2 n
n
n ( )
ei log(x ) e
2
n
n
2
n
= e
2 2 /2
2 2 /2
Se ne deduce che log(Xn ) converge in legge ad una v.a. normale di media log(xt ) e varianza
2.
+
c) Sia Z una v.a. normale N(log(xt ), 2 ). Abbiamo appena visto che log Xn Z, dunque,
poich la f.r. di Z continua,
P(log Xn x)
P(Z x)
4.20 a) Per provare una convergenza in legge abbiamo a disposizione due metodi: quello
della funzione di ripartizione e quello delle funzioni caratteristiche. In questo caso, dato che
le funzioni caratteristiche delle leggi normali sono ben note, questultimo probabilmente il
metodo pi semplice. Infatti
2 2 /2
Xn ( ) = eibn en
e|ib e
{z
2 2 /2
N(b, 2 )
Esercizio 4.20
85
Anche il metodo delle funzioni di ripartizione comunque non crea problemi: basta ricordare
che se 8b, 2 e 8 indicano le f.r. di v.a. N(b, 2 ) e N(0, 1) rispettivamente, allora si ha
8b, 2 (t) = 8
e dunque, poich 8 continua,
8bn ,n2 (t) = 8
t b
n
n
t b
t b
= 8b, 2 (t) .
b1) Cominciamo con losservare che X1 ha legge normale ( una funzione lineare-affine
della v.a. normale Z1 ) di media x e varianza 2 .
Anche X2 = X1 + Z2 normale, essendo la somma delle due v.a. X1 e Z2 , che sono
normali e indipendenti. Poich media e varianza sono date da
E(X2 ) = E(X1 ) + E(Z2 ) = 2 x
| {z }
=0
2 (1 + 2 + . . . + 2n )
1 2
2
b3) Con i valori numerici assegnati Xn converge ad una v.a. N(0, 43 ). Dunque per n grande
q
Xn ha approssimativamente la stessa legge di 43 Z, dove Z N(0, 1) e quindi
q
q
q
P(|Xn | 1) = P |Z| 43 8 43 8 43 =
= 8(0.866) 8(0.866) = 0.807 0.193 = 0.614 .
86
Parte 1: soluzioni
(2)
P 2 = (pij )ij =
7
16
5
16
3
8
13
36
9
16
7
16
5
8
19
36
0
1
4
0
0
.
0
1
9
(2)
Dunque si in 2 dopo due passi con probabilit p22 = 41 partendo da 2 e con probabilit
(2)
p32 = 0 partendo da 3.
b) Sappiamo che uno stato i transitorio se esso comunica con uno stato j che per non
comunica con i; questa una condizione sufficiente per la transitoriet di uno stato, che anche
necessaria se per di pi la catena, come in questo caso, finita. Uno stato ricorrente se non
transitorio.
La determinazione di ricorrenza e transitoriet consiste quindi nel verificare, per ogni stato i,
con quali altri stati esso comunica e se questi altri stati a loro volta comunichino con i.
Ora partendo da 1 si pu solo restare in 1 oppure andare in 3; invece partendo da 3 si pu solo
restare in 3 oppure passare in 1. Gli stati 1 e 3 costituiscono quindi una classe chiusa e sono
ricorrenti, poich non soddisfano alla condizione di transitoriet che abbiamo appena ricordato
(non comunicano con un altro stato j che non comunica con loro).
Invece lo stato 2 comunica sia con 1 che con 3 che, come abbiamo visto, non comunicano con
2 che quindi transitorio. Per lo stesso motivo anche 4, che comunica con 1 e 3, transitorio.
Partendo da 2 la catena pu restare in 2 oppure passare in uno degli stati 1 oppure 3. In questa
eventualit la catena non torner mai pi in 2, perch abbiamo visto che 1 e 3 costituiscono una
classe chiusa. Dunque la sola possibilit di essere in 2 dopo 12 passi consiste nel restare in 2 in
(12)
tutte le 12 transizioni; quindi la probabilit richiesta p22 = 2112 .
c) La nuova matrice di transizione
1
4
1
4
1
2
0
1
2
0
1
3
3
4
1
4
1
4
1
3
.
1
4
1
3
Ma ora si vede facilmente che tutti gli stati comunicano tra loro, e sono quindi ricorrenti.
5.2 a) Abbiamo gi ricordato che uno stato i transitorio se esso comunica con uno stato j
che a sua volta non comunica con i.
1 comunica con 2 (p12 = 21 > 0) ma 2 non comunica con 1 (in effetti la probabilit pi1
uguale a 0 per ogni stato i) e dunque 1 transitorio.
4 comunica con 4 e 5 e lo stesso vale per 5; 4 e 5 sono dunque ricorrenti e costituiscono
una classe irriducibile.
Esercizio 5.2
87
2 comunica con 4 che, come abbiamo visto, non comunica con 2: 2 transitorio.
3 comunica con 2 che comunica con 4. Dunque 3 comunica con 4, che per non comunica
con 3: 3 transitorio. Avremmo anche potuto osservare che 3 comunica con 2, che sappiamo
gi essere transitorio, e ci basta a stabilire la transitoriet di 3 (uno stato ricorrente non pu
comunicare con uno transitorio).
Osserviamo che in tutti questi ragionamenti non era importante conoscere i valori dei numeri
pij , ma solo se essi fossero o no > 0. In particolare la classificazione degli stati che abbiamo
ottenuta valida per ogni matrice della forma
0 0
0 0
0
0
0
0
0 0
0
0 0
dove gli asterischi indicano numeri qualunque, purch > 0. Per tutte le matrici di questa forma
gli stati 1, 2, 3 saranno transitori, mentre 4 e 5 ricorrenti.
b) Sappiamo che una distribuzione invariante data da dei numeri v1 , . . . , v5 , tutti 0, tali
che v1 + . . . + v5 = 1 e che siano soluzione del sistema di equazioni lineari
v1 p1j + . . . + v5 p5j = vj
j = 1, . . . , 5
(v1 , . . . , v5 ) p11
. . . p15
..
= (v1 , . . . , v5 ) .
.
. . . p55
p51
(1.17)
1
2
1
2
1
2
v1 +
v1 +
v2 +
1
4
1
4
1
4
3
4
v2 +
v2 +
v4 +
v4 +
1
2
1
2
1
2
1
2
0 = v1
v3 = v2
v3 = v3
v5 = v4
v5 = v5
pi lequazione
v1 + v2 + v3 + v4 + v5 = 1 .
Questo sistema si semplifica per considerevolmente ricordando che una distribuzione invariante
sempre nulla sugli stati transitori. Dunque v1 = v2 = v3 = 0 e il sistema diviene
(1.18)
1
4
3
4
v4 +
v4 +
1
2
1
2
v5 = v4
v5 = v5
v4 + v5 = 1 .
88
Parte 1: soluzioni
1
2
v4 +
1
2
v4 = v4
cio
1
2
e quindi v4 =
2
5
5
4
v4
e v5 = 1 v4 = 53 . Quindi
v1 = 0,
v2 = 0,
v3 = 0,
v4 = 25 ,
v5 =
3
5
una distribuzione invariante. Essa anche unica, perch il sistema (1.18) ammette solo questa
soluzione.
c) Gli stati 4 e 5 sono i soli stati ricorrenti. Sappiamo che una catena di Markov con probabilit
1 lascia prima o poi linsieme costituito dagli stati transitori. Quindi la probabilit di giungere
in {4, 5} uguale a 1.
Un errore molto comune nel calcolo della distribuzione invariante consiste nel considerare
il sistema
(1.19)
pj 1 v1 + . . . + pj N vN = vj
j = 1, . . . , N
pN1
. . . p1N v1 v1
..
.. = ..
.
.
.
vN
vN
. . . pNN
p1j v1 + . . . + pNj vN = vj
j = 1, . . . , N
cio nel considerare il sistema i cui coefficienti sono dati dalla matrice P invece che dalla sua
trasposta. C per un modo facile per accorgersi di questo errore: la soluzione del sistema
(1.19) infatti sempre data da v1 = . . . = vN = N1 , cio dalla distribuzione uniforme, come
facile accorgersi osservando che pj 1 + . . . + pj N = 1 (la somma degli elementi di ogni riga
della matrice di transizione vale 1).
Si pu per dimostrare che la distribuzione uniforme invariante se e solo se la matrice P
bistocastica, cio se e solo se anche la somma degli elementi di ogni colonna vale 1. In
conclusione: se trovate come distribuzione invariante la legge uniforme, verificate che P sia
effettivamente bistocastica, altrimenti rivedete i vostri conti, probabilmente avete commesso
lerrore di considerare il sistema (1.19) invece di quello corretto (1.20).
In pratica nel calcolo della distribuzione stazionaria occorre risolvere il sistema (1.20) con
in pi lequazione
(1.21)
v1 + . . . + vN = 1 .
Esercizio 5.3
89
Infatti (1.20) non ha soluzione unica (se v = (v1 , . . . , vN ) soluzione, allora anche v, R
soluzione). Ci vuole dire che tra le equazioni (1.20) ce n sempre almeno una che
linearmente dipendente dalle altre (nel caso di (1.18) la seconda equazione uguale alla prima).
Concretamente per trovare la distribuzione invariante occorre risolvere il sistema che si ottiene
dalla (1.20) eliminando una equazione che dipende dalle altre ed aggiungendo la (1.21). Nei
casi in cui c una sola distribuzione invariante in questo modo si ottiene un sistema che ha
soluzione unica.
5.3
P =
0
1p
p
p
0
1p
1p
p
0
La catena irriducibile perch, per ipotesi, sia p che 1 p sono numeri > 0 e dunque ogni
stato comunica con tutti gli altri. Per mostrare che la catena regolare basta mostrare che esiste
un n tale che la matrice P n abbia tutti gli elementi > 0. In questo caso basta n = 2: infatti
P2 =
2p(1 p) (1 p)2
p2
2
p
2p(1 p) (1 p)2
2
(1 p)
p2
2p(1 p)
Calcoliamo la distribuzione invariante. Prima per di lanciarsi nella risoluzione del sistema
lineare (che in questo caso in 3 incognite) conviene controllare che non vi siano scorciatoie,
come succede ad esempio con le matrici di transizione bistocastiche (per le quali anche la somma
degli elementi delle colonne sono = 1). In effetti questa la situazione e sappiamo dunque che
la distribuzione stazionaria quella uniforme v = ( 13 , 13 , 31 ).
b) Si ha
P(Xn = 1, Xn+1 = 2) = P(Xn+1 = 2|Xn = 1)P(Xn = 1) =
= p12 P(Xn = 1) = pP(Xn = 1) .
Poich per n grande P(Xn = 1) 13 , P(Xn = 1, Xn+1 = 2)
p
3.
1p
c) Perch la catena sia reversibile occorre che sia vi pij = vj pj i per tutti gli stati i, j . In
questo caso i valori vi della distribuzione stazionaria non dipendono da i. Dunque abbiamo la
reversibilit se pij = pj i per ogni i, j , cio se e solo se la matrice di transizione simmetrica.
Uno sguardo a P e si vede subito che ci si verifica se e solo se p = 21 (che anche il valore
per cui le due probabilit calcolate in b) sono uguali).
90
Parte 1: soluzioni
5.4 a) Il problema si pu chiaramente modellizzare con una catena di Markov del tipo della
rovina del giocatore, avente cio come insieme degli stati E = {0, 1, . . . , 1001} e matrice di
transizione
(
p se j = i + 1
pij = q se j = i 1
0 altrimenti
18
19
se 0 < i < 1001 dove p = 37 , q = 37 , mentre invece gli stati i = 0 e i = 1001 sono assorbenti.
Si vede subito che tutti gli stati, tranne 0 e 1001, sono transitori, poich comunicano con gli
stati assorbenti 0 e 1001 che non comunicano con altri stati. Dunque per n la catena
converge (viene assorbita) in 0 oppure in 1001. Se indichiamo con i la probabilit di passaggio
in 0 della catena con stato iniziale i allora la probabilit che il giocatore vinca 1 1000 . Le
formule per le probabilit di passaggio della rovina del giocatore danno
i =
i + . . . + 1000
1 + . . . + 1000
19
. Per calcolare 1000 conviene effettuare qualche manipolazione algebrica
dove = pq = 18
per evitare gli errori di arrotondamento:
1000 =
1000
1
1 1
1
=
=
= 0.053
1000
1000
1001
1 + ... +
+ ... + 1
1
19
( 1001 = 3.33 1024 ). Quindi la probabilit che il giocatore vinca 1 0.053 = 0.947.
Invece con probabilit del 5.3% il giocatore finisce rovinato.
b) La v.a. Y pu assumere i soli valori 0 oppure 1001, poich sappiamo che con probabilit
1 il gioco finisce dopo un numero finito di giocate. Pi precisamente, considerando come stato
iniziale i = 1000
P(Y = 0) = 1000 = 0.053
P(Y = 1001) = 1 1000 = 0.947 .
Quindi
In media dunque, come ci si poteva aspettare, il giocatore perde (alla fine ha un capitale inferiore
a quello iniziale).
5.5 Il problema in realt pi difficile in questo tipo di esercizi consiste nella modellizzazione
del problema, cio nello scrivere la matrice di transizione della catena di Markov da usare come
modello. Ci del resto si pu fare in molti modi. In questo caso il pi semplice consiste nel
considerare una catena di Markov con 6 stati:
1 A tiene il gioco
2 B tiene il gioco
3 C tiene il gioco
4 A vince
5 B vince
6 C vince .
Esercizio 5.6
91
Gli stati 4, 5, 6 saranno assorbenti, il che equivale a dire che il gioco si ferma non appena un
giocatore vince. Se supponiamo che A, B, C siano seduti in senso antiorario intorno al tavolo,
dovr essere
p11 =
p12 =
p13 =
p14 =
3
8
3
8
1
8
1
8
3 3 1 1
0 0
8
8
8
8
1 3 3 0 1 0
8 8 8
8
3 1 3
8 8 8 0 0 81
P =
0 0 0 1 0 0
0 0 0 0 1 0
0
La probabilit che il giocatore che inizia il gioco vinca chiaramente la stessa qualunque sia il
giocatore che inizia. Dunque questa probabilit la stessa che la probabilit di assorbimento
in 4 partendo da 1. Il calcolo di i =probabilit di assorbimento in 4 partendo da i, si effettua
risolvendo il sistema (5.9) che qui diventa
i = pi4 + pi1 1 + pi2 2 + pi3 3
e cio
1 =
1
8
2 =
3 =
La soluzione del sistema 1 =
che inizia il gioco vinca 11
26 .
11
26 , 2
3
8
1
8
3
8
1 +
1 +
1 +
7
26 , 3
3
8
3
8
1
8
2 +
2 +
2 +
8
26 .
i = 1, 2, 3
1
8
3
8
3
8
3
3
3 .
92
Parte 1: soluzioni
0 1
1
1
3
2 0
3 0
4 0
0
0
1
2
0
0
0
0
2
3
1
2
3
5
0
0
0
0
0 .
2
5
1
b) Si richiede di calcolare P2 (X3 2) (P2 la probabilit partendo dallo stato 2). Ricordiamo
(n)
che se pij indica la probabilit di fare una transizione in n passi da i a j , allora Pi (Xn = j ) =
(n)
pij . Dunque
(3)
(3)
(3)
3
P =
1
4
9
1
6
1
10
0
0
0
19
45
0
0
19
60
19
60
19
50
2
15
1
5
13
50
19
dunque la probabilit che vi siano almeno due palline N nellurna dopo tre estrazioni 60
+ 15 =
31
60 (bisogna guardare la terza riga, perch gli stati sono numerati a partire da 0). Attenzione
anche a non confondere P2 (probabilit partendo dallo stato 2) con P 2 (matrice di transizione
in due passi).
c) La probabilit richiesta non altro che la probabilit di assorbimento in 4 partendo da 2. Se
i la probabilit di assorbimento in 4 partendo da i, allora i numeri 1 , 2 , 3 sono soluzione
del sistema lineare
1 = 23 2
2 =
3 =
1
2
2
5
1 +
+
3
5
1
2
2 .
4 6 8
, 11 , 11 ) e quindi la probabilit che A vinca 2 =
La soluzione ( 11
6
5
vinca sar invece 1 11
= 11
. Il giocatore A favorito.
6
11 .
La probabilit che B
Esercizio 5.7
93
2
3 2
1
2 1
3
5 2
1
2 3
60 47
Il sistema ha per soluzione ( 51
11 , 11 , 11 ). Poich supponiamo di partire inizialmente dallo stato
2 (due palline nere nellurna), la partita dura in media 60
11 = 5.45 estrazioni.
5.7
a)
r
q
0
p
p
r
q
0
0
0
0
p
r
q
0
0
0
0
p
r
q
0
0
0
0
p
r
q
q
0
0
.
0
p
r
b) Ricordiamo che, per definizione, una catena irriducibile se tutti gli stati comunicano tra
loro. Supponiamo che sia p > 0. Allora lo stato 1 comunica ( ) con 2. Poich 2
3 per
lo stesso motivo, anche 1
3. Ripetendo lo stesso ragionamento vediamo che 1 comunica
con 4, 5, . . . , N. Dunque 1 comunica con tutti gli altri stati. Lo stesso ragionamento si pu
ripetere per ogni altro stato, ottenendo che tutti gli stati comunicano tra loro e quindi la catena
irriducibile. Lo stesso ragionamento permette di provare lirriducibilit nellipotesi che sia
q > 0.
c) Ricordiamo che una matrice di transizione regolare se esiste un numero m tale che P m
abbia tutti i suoi elementi > 0; una condizione semplice (ma solo una condizione sufficiente)
che la catena sia irriducibile e vi sia almeno un elemento sulla diagonale di P che sia > 0.
Se uno almeno tra i numeri p e q > 0 abbiamo visto che la catena irriducibile; se per di pi
r > 0, dato che tutti gli elementi della diagonale di P sono uguali a r (come si vede anche dal
punto a)), sono soddisfatte le condizioni del criterio di regolarit: catena irriducibile ed almeno
un elemento sulla diagonale > 0; la catena quindi regolare.
Se invece r = 0 il criterio non soddisfatto ed occorre verificare direttamente la definizione,
(m)
cio se esista un numero m tale che pij > 0, tale cio che la probabilit di passare da i a j in
m passi, sia > 0 per ogni coppia di stati i, j .
Se N pari la catena non regolare. Basta osservare che ad ogni transizione da uno stato i
si pu passare solo in uno stato contiguo. Se il poligono ha un numero N pari di vertici, allora
se i uno stato di indice pari gli stati ad esso contigui hanno indice dispari e, viceversa, se i
di indice dispari gli stati ad esso contigui sono di indice pari (Vedi la Figura 5.8). Quindi se
si parte dallo stato iniziale i dispari, dopo un numero pari di passi ci troveremo certamente in
uno stato dispari, mentre dopo un numero dispari di passi la catena si trover in uno stato pari.
94
Parte 1: soluzioni
0 0
0 0
0 0
0 0
0 0
0 0
0
0
0
0
oppure
0
0 0
0 0
0
0 0
0 0
0
0 0
0 0
0
a seconda che m sia dispari o pari rispettivamente. P m non pu dunque mai avere tutti i suoi
elementi > 0.
Se invece il numero di vertici N dispari, allora il ragionamento appena svolto non si pu
ripetere perch lo stato 1 contiguo sia a uno stato pari che a uno dispari. Del resto nellEsercizio
5.3, dove avevamo N = 3, si aveva r = 0 ma la catena era regolare. In realt si potrebbe
dimostrare che se il numero di vertici dispari, allora se p > 0, q > 0, la catena sempre
regolare (anche se r = 0).
d) facile rendersi conto che la matrice di transizione bistocastica. Dunque la distribuzione
uniforme i = N1 stazionaria. Poich con i valori di p, r, q assegnati la catena regolare,
questa anche lunica distribuzione invariante. Inoltre, per n grande
P(Xn = 1, Xn+1 = 2) = P(Xn+1 = 2|Xn = 1)P(Xn = 1) p12
1
p
=
N
N
5.8 a) La descrizione dellevoluzione dello stato della stampante determina subito la matrice
di transizione che
0
1
0 1b
b
P =
.
1
a
1a
b) Se a = 0, b = 0 la matrice di transizione diventa
1 0
P =
0 1
e i due stati 0 e 1 sono assorbenti. La catena non dunque irriducibile e non pu essere regolare.
Se invece a = 1, b = 1 la matrice di transizione
0 1
.
P =
1 0
La catena ora irriducibile (gli stati comunicano), ma non pu essere regolare: ad ogni intervallo
di tempo essa cambia di stato con probabilit 1. Dunque se lo stato iniziale 0, la catena si
Esercizio 5.9
95
trover in 1 ai tempi dispari ed in 0 ai tempi pari. Non quindi possibile che P n possa avere
tutti i suoi elementi > 0. Se a = 1, b = 21 invece
P =
1
2
1
2
La catena regolare. Infatti essa irriducibile e vi almeno un elemento > 0 sulla diagonale.
Se infine 0 < a < 1, 0 < b < 1 la catena certo regolare perch gi P ha tutti i suoi elementi
> 0. In questultima situazione la probabilit che la catena si trovi nello stato 1 per n grande
si pu valutare approssimativamente con il valore 1 , dove = (0 , 1 ) la distribuzione
stazionaria, la cui unicit garantita dal Teorema di Markov 5.15. Essa si ottiene risolvendo il
sistema (5.9), pi la condizione 0 + 1 = 1. Cio il sistema lineare
(1 b)0 + a1 = 0
0 + 1 = 1
a
b
che ha come soluzione = ( a+b
, a+b
). Dunque la probabilit che la stampante sia occupata
b
ad un tempo n grande a+b . Coi valori numerici proposti si ottiene 1 = 0.7
1.1 = 0.636.
c) La catena irriducibile (abbiamo anzi visto che regolare). Dunque, per il Teorema
ergodico 5.28, N n converge in probabilit al valore della distribuzione stazionaria in 1, che
abbiamo calcolato in b). Con i valori numerici proposti la stampate risulterebbe dunque occupata
il 63.6% del tempo.
1
2
P(D1 = 2) = 21
96
Parte 1: soluzioni
In conclusione abbiamo visto tre stati possibili, {0, 2, 4}, con la matrice di transizione:
0
1
4
0
1
4 .
1
2
1
2
1
2
0
2
P = 2 41
4 0
1
2
c) La matrice di transizione P regolare, perch tutti gli stati comunicano tra di loro ed
inoltre vi sono elementi non nulli sulla diagonale. Per il Teorema di Markov esiste dunque
ununica distribuzione invariante = (0 , 2 , 4 ) e la probabilit P(Dn = 0) per n grande si
pu approssimare con il valore 0 della distribuzione invariante nello stato 0. Calcoliamo la
distribuzione invariante. Essa soluzione del sistema = P , ovvero
0 =
2 =
4 =
1
2
1
2
1
4
0 +
0 +
2 +
1
4
1
2
1
2
2
2 +
1
2
0 + 2 + 4 = 1 .
La soluzione facile perch dalla seconda equazione si ha
2 =
1
2
0 +
1
2
2 +
1
2
1
2
4 =
(0 + 2 + 4 ) =
1
2
da cui si ricava facilmente 0 = 4 = 41 . Quindi per n grande le due coccinelle si trovano nello
stesso vertice con probabilit 41 (qualunque sia lo stato iniziale).
d) Per calcolare il tempo medio necessario perch le due coccinelle si trovino nello stesso
vertice possiamo ragionare cos: rendiamo lo stato 0 assorbente (il che equivale ad arrestare
la catena nel momento in cui essa giunge in 0). Se indichiamo con 2 , 4 i tempi medi di
assorbimento in 0 partendo da 2 e 4 rispettivamente, allora sappiamo che 2 e 4 sono soluzione
di
2 = 1 + 21 2 + 41 4
4 = 1 +
1
2 2
1
2 4
0 21 21 0 0
1 0 0 1 1
2
4
4
3
4 0 0 41 0 .
0 0 1 0 1
2
Esercizio 5.11
97
1
2 1
3
4 1
1
2 3
+
+
1
4 4
1
4 4
1
2
1
2
1
2
1
4
0
0
0
0
0
1
4
3
4
1
4
1
2
1
2
1
2
1
2
1
4
1
2
2 +
1 +
1 +
1
2 3
1
4 4
3
4 4
5.11
palline bianche
i
r i
palline rosse
r i
i
2
98
Parte 1: soluzioni
pij =
ri
r ).
(ri)2
r2
2i(ri)
i2
r2
0
r2
se j = i + 1
se j = i
se j = i 1
altrimenti .
k pk,k+1 = c
k+1 pk+1,k
e dunque reversibile.
Secondo modo. Il lettore attento avr osservato che questa una catena di nascita e morte e
per queste catene ci sono delle formule esplicite per la distribuzione stazionaria (vedi lEsempio
5.26). La formula (5.31) afferma infatti che la distribuzione stazionarie (che per queste catene
sempre reversibile) data da
vi = Pi
h=0 h
dove
j =
p0 . . . pj 1
q1 . . . qj
Qui si ha
pi = pi,i+1 =
i2
(r i)2
, qi = pi,i1 =
r2
r2
Esercizio 5.13
99
Dunque
j =
2
r 2 (r 1)2 . . . (r j + 1)2
r
=
j
12 2 2 . . . j 2
i = Pm i
h=0 h
dove i numeri i sono definiti da 0 = 1 e
i =
Evidentemente si ha
p0 . . . pi1
m
m(m 1) . . . (m i + 1)
=
=
i
q1 . . . qi
1...i
m
X
h=0
h =
m
X
m
h=0
= 2m
m m
2
i
5.13 a) Tutti gli stati comunicano tra loro, perch il grafo connesso; dunque la catena
irriducibile e la distribuzione stazionaria unica. Per calcolarla ci sono due possibilit: la prima
consiste nel risolvere il sistema lineare P = pi la condizione 1 +. . .+10 = 1. Non una
via troppo complicata perch per motivi di simmetria chiaro che deve essere 2 = 3 = 4 e
5 = 6 = 7 = 8 = 9 = 10 . Ci si riconduce quindi a un sistema lineare in tre incognite.
100
Parte 1: soluzioni
La seconda possibilit consiste nel ricordare che per una catena di Markov sui vertici di un
grafo c una formula esplicita della distribuzione stazionaria: se ki il numero di spigoli del
grafo che arrivano nel vertice i e k la somma dei numeri ki , allora
i =
ki
k
la distribuzione invariante. Qui ki uguale a 3 per 4 vertici e uguale a 1 per 6. Dunque k = 18.
1
La distribuzione invariante vale 16 per gli stati 1, 2, 3, 4 e 18
per gli altri.
La catena non regolare. Basta osservare che gli stati si possono suddividere in due classi:
la prima formata da 1, 5, 6, 7, 8, 9, 10 e la seconda da 2, 3, 4. Se la catena si trova in uno stato
della prima classe, allistante successivo si trover in uno della seconda e viceversa. Non
dunque possibile che esista n tale che, partendo da i, si possa essere in ognuno degli stati con
probabilit positiva.
b) Con le nuove regole di transizione la catena ora regolare: essa infatti ancora irriducibile
e per di pi pii = 21 per gli stati da 5 a 10. Vi sono dunque degli elementi > 0 sulla diagonale
della matrice di transizione e questo, insieme alla irriducibilit, assicura la regolarit della
catena. La formula della distribuzione invariante per le catene sui vertici di un grafo d ora
k = 24 e quindi
1
se i = 1, 2, 3, 4
i = 81
12 se i = 5, . . . , 10 .
c) Il tempo medio di passaggio nella classe {5, . . . , 10} partendo da i, i = 1, 2, 3, 4, indicato
i , si ottiene risolvendo il sistema
i = 1 +
4
X
pij j ,
j =1
i = 1, 2, 3, 4 .
Questo si risolve facilmente osservando che, per motivi di simmetria, deve essere 2 = 3 = 4 .
Giungiamo quindi al sistema
2 = 1 + 13 1
1 = 1 + 2
5.14 Come nellEsempio 5.36, si possono modellizzare i lanci successivi con una catena di
Markov formata dagli stati
0C
1 CT
...
n CT n
dove con CT i indichiamo che negli ultimi i + 1 lanci si sono avute una croce seguita da i teste
consecutive. Ad ogni lancio si pu passare da CT i a CT i+1 con probabilit 21 (se il lancio
Esercizio 5.14
101
n1
X
pij j
j =0
1
2 0
1
2 0
...
1
2 n1
i = 1 +
1
2 0
1
2 i+1
0 = 1 +
1
2 0
1
2 1
...
Il tempo medio per ottenere n teste consecutive 0 . Sostituendo il valore di n1 dato dalla
prima equazione nella seconda si ottiene
n2 = 1 +
1
1
1
1 1
1
0 +
1 + 0 = 1 + +
1+
.
2
2
2
2 2
2 0
1 1
1 1 1
+ +
1+ +
2 4 2
2 4 0
1
1
1
1
1
+ . . . + ni1 +
1 + + . . . + ni1 0
2
2
2
2
2
da cui per i = 0
1
1
1
1
1
+ . . . + n1 +
1 + + . . . + n1 0 =
2
2
2
2
2
1 21n
1 1 21n
1
1
+
=
2
1
=
+
1
.
0
2 1 21
2n
2n 0
1 21
0 = 1 +
Quindi, finalmente,
0 = 2(2n 1) = 2n+1 2 .
102
Parte 1: soluzioni
q1 . . . qi
(1 + 3 k)(2 + 3 k) . . . (i + 3 k)
=
p1 . . . pi
(1 + k)(2 + k . . . (i + k)
(i + 1)(i + 2)(i + 3)
6
(k = 0)
che il termine generale di una serie divergente (anzi i stesso tende allinfinito per i ).
Ripetendo lo stesso argomento, semplificando cio numeratore e denominatore che contengono
sempre molti termini in comune, si ottengono le espressioni di i per gli altri valori di k:
i+2
2
2
i =
i+2
i =
i =
6
(i + 1)(i + 2)(i + 3)
(k = 1)
(k = 2)
(k = 3) .
p0 . . . pj 1
q1 . . . qj
1 (1 + k) . . . (j + k 1)
(2j + 3)
2 (4 k) . . . (j + 3 k)
(vedi lEsempio 5.26). Per k = 0 il numeratore nella frazione a destra nellespressione precedente il prodotto dei numeri interi da 1 a j 1, mentre il denominatore contiene i prodotti da
4 a j + 3. Dunque per k = 0
j =
3(2j + 3)
j (j + 1)(j + 2)(j + 3)
che il termine generale di una serie convergente (va a 0 allinfinito come j13 ). Ripetendo lo
stesso ragionamento per k = 1, 2 e semplificando numeratore e denominatore abbiamo
2j + 3
(j + 1)(j + 2)
2j + 3
j =
4
j =
(k = 1)
(k = 2) .
Esercizio 5.15
103
qualunque sia lo stato iniziale i, a condizione che la catena sia aperiodica. Questa condizione
(n)
verificata in questo caso, poich lipotesi che sia r0 = 21 implica p0,0 r0n > 0. Dunque lo
stato 0 aperiodico, e, poich la catena irriducibile, tutti gli stati sono aperiodici. Come noto
la distribuzione stazionaria data da
j
j = P
h=0 h
2
Risultati degli esercizi proposti
4
25 .
1.19
a) 51 . b)
1.20
5
12
1.21
= 0.416.
16 10
) = 0.36, che una probabilit non trascurabile, ma non particolarmente
1.22 a) 1(1 365
alta. b) 50%: 25 giorni, 90%: 76 giorni. c) 50%: 16 partecipanti, 90%:
52 partecipanti.
1.23
1.24
a)
4 1
5 8
1 8
5 27
0.950.03
0.2225
= 0.56
c) n 5.
a) n 3. b) 1 0.8n , 1
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011
(10.95)0.03
0.7775
1.25
= 0.128. c)
0.8n
10.2n .
c)
0.8
10.2n .
= 0.0019.
106
1.26
a) 31 . b) 21 .
1.27
1.28
a)
(130)(39
13)
= 0.013. b)
(52
13)
13 39
4
1.29
a) 61 . b) 61 . c)
1.30
13
52
13
26 26
0 13
52
13
+4
39 13
0 13
52
13
= 0.051
2
11 .
28
(12)(28)
(12)(28)
(120)(10
)
6 0 40 20 4 0 40 10 = 0.062.
40
(10)
(20)
(10)
(8)(7)+(8)(7)+(8)(7)
(28)(47)
= 0.196. b) 0 6 1 15 5 2 4 = 0.23 c) 0.034; una probabilit un po
15
(6)
(6)
troppo piccola.
1.31
a)
1.32
a) 21 . b) 47 . c) 13 .
1.33
a)
(24)(26)
= 73 . b)
(104)
1.34
a)
(131)(131)(131)(131)
(13)(13)(13)(13)
(13)(13)(13)(13)
= 0.1. b) 2 2 52 0 0 = 0.022. c) 6 2 2 52 0 0 = 0.13. d)
52
(4)
(4)
(4)
1
14 .
c)
1
14 .
(264)(260)
= 0.055.
(524)
(03)(k7)
, k = 1, . . . , 7, q8 = 0. b) pk =
(10k )
massima per k = 1. c) p1 + p3 + p5 + p7 = 0.583.
1.35
a) qk =
1.36
a) 21 . b) 16 .
1.37
(2n)!
2n
3
1098
Esercizio 1.48
1.38
107
n!.
1.41 La probabilit di estrarre palline dello stesso colore 49 , quella di estrarre palline di
colori diversi 95 ed pi grande.
1.42
a)
(10)(110)
(100)(110
10 )
= 0.404. b) 10 120 0 8.16 1015 .
120
( 10 )
( 10 )
1.43
a)
(51)(71)(1)
. b) n = 5 oppure n = 6.
(12+n
3 )
1.44
1.45
a)
1.46
a)
5
12 .
b1) 23 . b2) 76 .
30
(60
(45)(45)
10)( 0 )
= 0.013. b) 10 90 0 = 5.6 104 .
90
(10)
(10)
3R
2R e 1B
1R e 2B
3B
1.47
a) 3
1.48
a) 1
10 15
7 15
25
22
10 15
8 14
25
22
10 15
9 13
25
22
10 15
10 12
25
22
8 9 10
= 0.05
23 24 25
9 10 15 3
= 0.29
23 24 25
10 14 15 3
= 0.46
23 24 25
13 14 15
= 0.2 .
23 24 25
(10)(10)(10)
(10)(10)(10)
(102)(101)(101)
= 0.492. b) 3 3 301 1 + 3 2 302 1 = 0.68.
30
(4)
(5)
(5)
(4)(35)
(04)(48
13)
= 0.696. b) 1 0 3913 = 0.818. c1)
52
(13)
(13)
4 48
4 48
4 48
3
c2)
1
3 1
r
13
52
13
4 35 4 48
0 13
0 13
39
52
13
13
26
52
26
3 1
39
52
39
= 0.748 := r .
4 22 4 48
0 13
0 26
26
52
13
26
4 48
0 39
52
39
= 0.813
108
(A calcolata in c1).
1.49 a) Figura 1.1 a): 2p2 p4 ; Figura 1.1 b): 2p2 + p p4 2p3 + p5 . b) 2p2 + 2p3
5p4 + 2p5 . c) 1.1 a): 0.59, 1.1 b): 0.84, 1.2: 0.66.
1.50 a) Vero. b) Vero. c) Falso (possono essere indipendenti). d) Falso e) Falso. f) Vero. g)
Vero. h) Falso. i) Vero.
13
2.25 a) 1 13
0 0.74
13
b) (1 0.28) = 0.014.
2 2
4 1
2 7
6
7
13
13
13
3
10
2
11
12
1 0.26 0.74 2 0.26 0.74 3 0.26 0.74
3
4 1
3 7
6
7
2.26
a)
2.27
a) ( 21 )n . b) 1 ( 21 )n . c)
2.28
a) 49 . b)
2.29
a) E(T ) =
2.30
a) ( 23 )k , ( 31 )k . b) 3 ( 23 )k 3 ( 31 )k ,
4n2
(3n1)(3n2) ,
1
3.07
1
2
4
4 1
4 7
= 0.46. b) 1
840
2401
= 0.45.
= 0.65.
2m 1 2m
m (2) .
n 49 .
k=4
0.56
k = 10
0.05
1
2.06
k = 20
9 104
11
2 .
(1p)
1(1p)(1) .
2.31
a) (1 p)n . b)
2.32
2.33
a) voto medio= 30
16 14
30 1
2
= 0.0116.
16 3
3
1
4
= 7.5,
16 14
30 1
16 4
3
4
Esercizio 2.44
2.34
p
1e(1p)
2.35
ep
(e1+p) ,
1 1e .
E(eX ) =
per p >
a)
109
(25)(25)(25)
= 0.2. b)
(156)
6!
2! 2! 2!
( 31 )6 = 0.12.
2.39
2.40
a)
1
50 .
2.43
a)
2.44
a) p =
5
16 .
b2)
p
n=3
= 0.34
11
32
n=4
= 0.36
93
256
135
16 .
r
b+r ,
b) P(Y = 4) = 1,
3
10
per b = 7, r =
110
2.46
a) E(X) = E(X 3 ) = 0. b)
1
PY |X (r|k) = 2
0
se r = k 2 + 1 oppure r = k 2 1
altrimenti;
|X = k) = k 2 . c) a = 0.
E(Y
2.47 a) P(X = k |X + Y = n) = nk 21n che una legge binomiale B(n, 21 ); la speranza
condizionale vale 21 . b) Cov(X + Y, X + Z) = Var(X) = ; X+Y,X+Z = 21 . c) P(X + Y =
4
5
3
2, X + Z = 3) = e3 2 + 2 + 12 .
2.48
2.49
a) k0 61. b) Usando un software adatto si trova che la probabilit che una v.a.
binomiale B(100, 23 ) assuma valori < 61 (ovvero 60) vale 0.1.
2.50
1p
.
a) H (p ; p0 ) = log 0 +0 . b) H (p ; p0 ) = n p log pp0 +(1p) log 1p
0
2.52
a) P(X = 3) =
1
2.
5
.
128 2
2.53
2.51
3.35
b) e 4 = 0.001.
3.36
1p
p ,
Var(X) =
1p
.
p2
27
Esercizio 3.50
3.39
a) fY (t) = 1
1t 2
, 1 t 1. b) fY (t) =
2
.
2
111
2
(1)2 (2)
b) X di Laplace di parametro
|| ,
|X| esponenziale
3.43
3.44
3.45
3.46
a) 0.0227. b)
3.47
= 41 , =
1
4
3.48
a) fW (t) =
c 3/4 t
e ,
2t
1 2 2
2e
= 0.03.
2
.
( 41 )
c) E(X) = 0, Var(X) =
( 43 )
.
( 41 )
3.50
( 2 )
a) fY (t) =
2n/2 ( n2 )
t n1 et
2 /2
n+1 2
( n+1 )
(
)
. b) E( X) = 2 ( n2 ) , Var(Y ) = n 2 ( n2 ) ;
2
112
per n = 3 E(Y ) =
2 2
,Var(Y )
= 3 8 ; per n = 4 E(Y ) =
3.51
3.52
a) E[ X1 ] =
b) g(t) =
3.53
()
1 per >
t (1+) e/t .
a1) (, ). a2)
1. Var( X1 ) =
3 2
4
, Var(Y ) = 4
9
8
5
4 .
2
(1)2 (2)
per > 2.
b) 3. c) 6.
3.56
a1)
F (x) =
1
et
1 21 et
2
se t 0
se t 0 .
a2) Se X uniforme su [0, 1], allora F 1 (X) di Laplace di parametri , dove F 1 (y) =
log(2y) per y 21 e F 1 (y) = 1 log(2(1 y)) per y 21 .
b) Se X uniforme su [0, 1], allora F 1 (X) di Weibull di parametri e se F 1 (y) =
1/
.
1 log(1 y)
3.58
a) m(t) =
2
,
2 t 2
t . b) mY W (t) =
2
,
2 t 2
Y W di Laplace di parametro
+t ,
3.59
r(t) =
3.60
d) mZ (t) =
2
t
1
.
d) 0 = mX (0) = E(X),
decrescente in t; no.
2
2t .
3
2 ,
Var(Z) =
5
.
42
c) r(t) = 1
1
;
2et 1
s.
Esercizio 3.71
3.61
113
a = E(X).
1
(z a)2 + (b z)2 . b4)
3.62 b1) 21 (b + a). b2) m = 21 (b + a). b3) E[|X z|] = 2(ba)
z = 21 (b + a). c) E(X) = 1 , m = 1 log 2, E[|X z|] = z 1 1 2ez , z = 1 log 2.
3.63 a) Se X una v.a. di densit f , E(X) = (0), Var(X) = (0).
b2) Se Y una v.a. di densit f , E(Y ) = ( ), Var(Y ) = ( ).
b3) ( ) = Var(X) 0.
b4) f N( 2 , 2 ).
b5) f (, ).
b6) f (x) =
3.64
2 2
2
a) 1
r2
.
R2
e|x|+ x , m (t) =
b1) 1
r2 n
.
R2
2 2
.
2 (t+ )2
b2) 1
r2 n
nR 2
r2
R
6
1
, P(Y = 100) = 100
. a2) E(Y ) = 28. b1)
3.65 a1) P(Y = 20) = 43 , P(Y = 50) = 25
1
c = 20 , larea pi probabile resta quella relativa al punteggio 20. b2) E(Y ) = 40.
3.66
1
e.
|t|
2 e
3.68 a) c = 1. b) fX (x) = log x per 0 < x < 1, Y uniforme su [0, 1]; X e Y non sono
indipendenti. d) P(Y > 2X) = 21 .
3.69
a) 31 . b) 31 . c) 13 .
3.70
X, Y (1, 1).
1
,
(y+1)2
y > 0 b) S. c) Esponenziale
E[X|Y = y] =
2
(y + 1)
114
3.72
a) ( + , ).
+
1 (y x)1 ey per 0 < x < y.
()() x
(+) 1 x 1
(1 xz )1 .
gX|X+Y (x|z) = ()()
z(z)
E(X|X
+ Y = z) = +
z. La retta di regressione x =
b) g(x, y) =
c)
d)
3.73
c)
1
+x
+n+ .
b) E(X) =
+ ,
b = 0.
n
+ .
+ u1 v +1
v
()() (1u)+1 exp 1u , per x > 0, y > 0.
(+) 1
fU (u) = ()()
u (1 u)1 cio U Beta(, ).
+
+1 exp v .
fY |U (v|t) = (+)(1t)
+ v
1t
|U = t] = 1 ( + )(1 t). La retta di regressione di Y rispetto
E[U
3.74
b)
|X = x) =
a) E(Z
az + b dove a =
a) g(u, v) =
d)
( + )(1 t) (cio coincide con la speranza condizionale. . . ).
(+)(+k)
. b) E(X) =
a) pX (k) = ()(++k+1)
finita se 1. c) E(Y |X = k) = +1
3.75
1 , se
aU y =
++k+1
3.76
3.77
a) fX (x) =
3.78
fX (x) =
3.79
a) g(u, v) =
3.80
a) P(X Y ) = 2n . b)
x 1
.
(+x )2
( n2 + 21 )
( n2 ) n
1
8
(1+ xn )
f (t) =
2
+x .
t
4 e
t
(1 + 2t)
4 e
1 |v|
(1 + |v|).
4e
se t < 0
se t 0 .
Esercizio 3.89
115
3.82
3.83
a) X ( ) = sin . b) Y ( ) =
X ( )2 . X1 + X2 2Y .
2
a) ( ) = e(1 +2 +1 2 ) ,
3.84
2(1cos )
.
2
c) 2Y ( ) =
(1cos2 +sin2 )
2 2
sin2
2
1
1
2
2
e 3 (x1 +x2 x1 x2 ) .
f (x) =
2 3
b) X12 ( 21 , 41 ).
c) U1 N(0, 6), U2 N(0, 2); U1 e U2 N(0, 2) sono indipendenti.
d) C non una matrice definita positiva. . .
a) f (x) =
3.85
15
e 15
1
8x12 +32x22 +8x1 x2 4x1 2x2 + 2
C=
b)
3.87
no.
3.88
. b1) 18 . b2)
15
16 ,
sia per X2 = 21
3.86
23
t.
a) Var(X 2 ) = 2 4 . X2 (t) =
2
3
3
5
2 108
1
12 2 t
2
1
13y 2 + 9z2 6yz . d) No,
exp 216
per t <
1
.
2 2
b1)
2
2
2
O=
2
2
2
2
2
2
Var(Z1 + Z2 ) = 20,
Z 2 +Z 2 =
1
1
,
(1 6t)(1 2t)
per t
116
4.21
a) ( n1 Xn )n converge in probabilit verso la v.a. costante p. b) (Xn )n converge in
probabilit verso la v.a. costante .
4.23
a) 0.16.
1 200
)
= 0.134. b) 0.3233213; lapprossimazione di Poisson d 0.3233236,
4.24 a) (1 100
lapprossimazione normale 0.3611695.
4.25 a) Probabilit di superare il test: 3.7 104 , di prendere un voto inferiore a 5: 0.2. b)
0.0166. c) p = 0.493.
4.26
a) Approssimazione normale: 0.51, risultato esatto (vedi Esempio 3.45): 0.55. b)
0.527. c) Skewness di X: 2 51/2 = 0.89, skewness di Y : 2 251/2 = 0.4.
4.27
4.28
a) 0.067. b) 0.081.
4.29
1
2.
a) limn P(Xn n +
4.30
4.31
a) Z n Pn 0. b) 0.88.
4.32
a) Sn +
n N(0, 15). b) 0.22.
4.33
a) Sn +
n N(0, 2). b) 0.017.
4.34
Yn ( 21 , 2)
Esercizio 5.17
4.35
4.36
b1) Wn (n,
4.37
4.38
4.39
117
+
n). b2) Un +
n N(0, 1). a) Yn n N(0, 1).
4.40
a) (Zn )n converge in legge e in probabilit ad una v.a. che prende il valore 0 con
probabilit 1. b) (Yn )n converge in legge e in probabilit ad una v.a. che prende il valore 1 con
probabilit 1.
4.41
a) (Mn )n converge in legge e in probabilit ad una v.a. che prende il valore 1 con
probabilit 1. b) (Zn )n converge in legge ad una v.a. esponenziale di parametro 1.
4.42 a) (nYn )n converge in legge a una legge esponenziale di parametro 1. b) (nYn )n converge
in legge ad una v.a. che prende il valore 0 con probabilit 1.
x
4.43 Converge in legge alla f.r. F (x) = ee . Se le Xi hanno f.r. F (x) = ee , allora
Mn ha f.r. F per ogni n.
4.44
4.45
per t > 0.
118
5.18
a) 2 transitorio, gli altri sono ricorrenti. La catena non irriducibile. b) Ci sono
3 3(1) 4(1)
infinite distribuzioni stazionarie, della forma ( 2
5 , 0, 5 ,
7 ,
7 ), 0 1.
5.19
1 9 9
, 19 , 19 ). c) 17. d) Ora la catena irriducibile ma non
5.20 a) La catena regolare. b) ( 19
1 4 1
pi regolare. La distribuzione stazionaria ( 18
, 9 , 2 ).
5.21
a) La catena regolare. b) ( 27 , 27 , 37 ).
5.22
a) 1 e 2 sono transitori, 3, 4, 5 ricorrenti. b) 31 . c) (0, 0, 1, 0, 0), (0, 0, 0, 21 , 21 ) e
(0, 0, 21 , 41 , 41 ), ad esempio.
5.24
a) 0.2. b) 31 ,
5.25
a)
1
1 0
1
2
2
30
P = 4 13
5
0
60
7 0
2
1
2
0
1
3
0
0
0
0
3
0
1
2
0
1
3
0
1
3
1
2
1
3
5
0
0
0
6
0
0
1
3
1
2
0
0
1
3
1
3
1
2
0
1
0
0
1
3
3 3 1 3 1
b) La catena irriducibile ma non regolare. = ( 18 , 81 , 16
, 16 , 8 , 16 , 16 ). c) La catena
1 1 1 1 1 1,1
4
regolare. = ( 9 , 9 , 6 , 6 , 6 , 6 9 ) d) 29 . La probabilit pi piccola si ha per lo stato i = 1.
Esercizio 5.31
5.26
a)
0
1
0
1
0
1 31 (1 p)
p
1
P = 2
0
2 (1 p)
3
0
0
4
0
0
60
(non dipende da p). c) 11(1p) .
2
0
2
(1
p)
3
p
3
5 (1 p)
0
b)
6
11
119
3
0
0
1
(1
p)
2
p
0
5 (1 p)
1
1
per
5.27 a) La catena irriducibile ma non regolare. b) La distribuzione stazionaria vale 24
1
1
gli stati negli angoli, 16 per quelli sui lati che non sono negli angoli, 12 per quelli in mezzo. c)
5
3
per gli stati negli angoli, 84
per quelli
La catena regolare. La distribuzione stazionaria vale 84
8
sui lati che non sono negli angoli, 84 per quelli in mezzo. d) La catena irriducibile ma non
2
3
regolare. La distribuzione stazionaria vale 16128
per gli stati negli angoli, 16128
per quelli sui
4
lati che non sono negli angoli, 16128 per quelli in mezzo.
1
12
5
36
a1)
0
1
P =3
0
0
1
0
2
3
0
1
2
3
0
0
1
3
NN
N!
120
2
1
6
1
2
1
2
1
3
0
0
3
P =
1
0
2
6
0 0 21 21
b2) Irriducibile e regolare. b3) v0 = 18 , v1 = 38 , v2 = 83 , v3 =
5.32
b) ( 31 , 13 , 13 ). c) ( 27 , 27 , 73 )
5.33
b) p2
1+q
1qp .
c) Se p =
3
4
1
8
35
13
5.37