Primo parziale Flashcards

(60 cards)

1
Q

Cos’è una probabilità
Proprietà

A

E’ una funzione F che va da ε a R t.c. :
1. P(E) > 0
2. 0 < P(E) < 1
3. se E1, E2, E3 sono incompatibili 2 a 2 allora P(E1∪ E2 ∪ E3) = P(E1) + P(E2) + P(E3)
Proprietà:
1. P(E^c) = 1 - P(E)
2. 0 <= P(E^c) <= 1
3. se E implica F allora P(E) < P(F)
4. P(E∪F) = P(E) + P(F) - P(E∩F)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Cos’è σ-famiglia

A

una σ-famiglia è una famiglia F ⊆ P(Ω) tc:
1. Omega appartiene a F
2. E appartiene a F allora Omega - E appartiene a F
3. E1, E2, … , E3 appartengono a F allora E1∪ E2 ∪ … ∪ E3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Probabilita per famiglia

A

Una probabilità per le famiglia è una funzione P : F va a R
E la tripa (Ω, F, P) è uno spazio di probabilità

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Peso

A

p(w) = p({w}) con w appartenente a Ω, dove w è un’insieme con 1 solo elemento
P(E) = Ʃp(w) per ogni E appartenente a P(Ω)
Proprietà:
1. p(w) >= 0
2. Ʃ p(w) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Coefficiente Binomiale

A

il coefficiente binomiale di n su k = n!/[k!(n-k)!] se n appartiene a {0,1,…} e k appartenente a {…,-1,0,1,…}
Proprietà:
1. coefficiente binomiale di (n su 0) e di (n su n) = 1
2. coefficiente binomiale di (n su k) = (n su n-k)
3. coefficiente binomiale di (n su k+1)+(n su k) = (n+1 su k)
4. (a+b)^k = Ʃ(n su k) a^k b^(n-k)
5. coefficiente binomiale di (n su k) = numero di anagrammi con k “a” e n-k “b”
6. coefficiente binomiale di (n su k) = |{E⊆{1, …, n} : |E| = k }, ovvero è la cardinalità dell’insieme dei sottoinsiemi di k elementi dell’insieme {1, …, n}

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Probabilità Evento Condizionato

A

P(E|F) = P(E∩F)/P(F) definitia per ogni P(F)!=0
Poprietà:
1. P(-|F) è una probrabilità:
- P(-|F) >= 0
- P(Ω|F) = 1
- P(E1 ∪ E2 ∪ … ∪ En|F) = P(E1|F) + … + P(En|F)
2. P pedice F (E|G) = P pedice F ∩ G (E)
3. P(E) = 0 allora P(E|F) = 0
4. P(E) = 1 allora P(E|F) = 1
5. F implica E allora P(E|F) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Teorema: Regola del prodotto

A

Siano E1, …, En eventi t.c. P(Ei) != 0 per ogni i allora:
P(E1∩ E2 ∩ … ∩ En) = P(E1) x P(E2|E1) x … x P(En|En-1 ∩ … ∩ E2 ∩ E1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Partizione

A

una partizione di Ω è una conllezione di insiemi F1, F2, …, Fn ⊆ Ω tc:
1. Fi ∩ Fj = ∅ (per i != j)
2. Ui>=0 Fi = Ω

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Teorema: Formula probabilità totale

A

Siano F1, F2, …,Fn una partizione di Ω tc P(Fi) != 0 per ogni i allora P(E) = ƩP(Fi)xP(E|Fi)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Teorema: Formula di Bayes

A

sia F1, …, Fn una partizione di Ω tc P(Fi) != 0 per ogni i allora:
P(Fx|E) = [P(Fx) x P(E | Fx)]/∑[P(Fi) x P(E | Fi)]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Indipendenza per 2 eventi

A

2 eventi si dicono indipendenti quando P(E ∩ F) = P(E) x P(F)
Proprietà:
1. P(F) = 0 allora E, F sono indipendenti per ogni E
2. E, F sono indipendenti allora lo è anche E con Fᶜ
3. P(F) = 1 allora E, F sono indipendenti per ogni E
4. E, F indipendenti allora P(E|F) = P(E ∩ F)/P(F) = P(E)xP(F)/P(F) = P(E)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Indipendenza per 3 eventi

A

3 eventi si dicono indipendenti sse [E, F, G]:
1. P(E∩F) = P(E)∩P(F)
2. P(E∩G) = P(E)∩P(G)
3. P(G∩F) = P(G)∩P(F)
4. P(E∩F∩G) = P(E)∩P(F)∩P(G)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Indipendanza per N eventi

A

N eventi sono indipendenti sse:
P(∩k∈i Ek) = Πk∈i P(Ek) = P(Ei1) x … x P(Ein)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Teorema: Infipendenza per N eventi

A

Se tutte le seguenti ipotesi sono soddisfatte allora gli F1, …, Fn sono indipendenti:
1. E1, …, En sono indipendenti
2. 1 = i₀ < i₁ < … < iᵣ = n
3. Fk è combinazione lineare di Eiₖ₋₁, …, Eiₖ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Combinazione di eventi

A

la combinazione di eventi è un evento ricavato da E1, …, En:
H = (E ∩ Fᶜ ∩ Gᶜ) ∪ (Eᶜ ∩ Fᶜ ∩ G) ∪ (Eᶜ ∩ F ∩ Gᶜ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Cosa sono le prove di bernulli e quando si usano

A

Le prove di bernulli si utilizzano quando si vogliono fare n-prove t.c. :
1. ogni prova puo avere solo 2 esiti
2. si ha la stessa probabilità per ogni esito
3. le prove non si influenzano tra di loro

Teorema:
P(Fx) = (n su k) qᵏ (1-q)ⁿ⁻ᵏ per ogni k = 0, …,n

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Indipendenza condizionata x n-eventi

A

Gli eventi E1, …, En sono indipendenti condizionatamente ad F se:
P(∩k∈i Ek|F) = Πk∈i P(Ek|F)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Funzione di ripartizione

A

una funzione di ripartizione (f.d.r.) di una v.a. di X è:
Fx:R->[0,1] e Fx(t) := P(“x≤t”)
Proprietà:
1. Fx e non-decidibile
2. Fx(t) -> (t-> ∞) -> 1 e Fx(t) -> (t -> -∞) -> 0
3. se s < t -> P(s < x ≤ t) = Fx(t) - Fx(s)
4. Fx è continua a destra con limite a sinistra

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Variabili aleatorie discrete

A

X è una v.a. discreta se X(Ω) è un sottoinsieme discreto di R -> X(Ω) = {x ∈ R : X(Ω) = x per ogni w ∈ Ω}
X(Ω) è un insieme discreto se tutti i suoi punti sono isolati

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Densità discreta

A

sia px : R -> R
px(k) : P(x = k), k ∈ S
Proprietà:
1. P(x∈A) = ∑₍k∈A∩R₎ px(k) per ogni A ⊆ R
2. px(k) ∈ [0, 1] per ogni k ∈ S
3. ∑₍k∈S₎ px(k) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Densità banale

A

Serve a descrivere le costanti
X(w) = c per ogni w ∈ Ω
S = {c} > px:{c} -> [0,1]
ovvero px(c) = P(x = c) = P(Ω) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Def. funzione indicatrice

A

X(w) = 1E(w) = [1 se w ∈ E ⊆ Ω] oppure [0 altrimenti]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Densità Geometrica

A

Data una serie di numerazioni, con che probabilità avviene un successo alla k-esima prova
F(k) = P(T<k) = 1- P(T>k) = 1 - (1-q)^k
px(k) = F(k) - F(k-1) = q (1-q)^k
P(T>k) = (k su 0) q^0 (1-q)^k
T~G(q)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Densità ipergeometrica

A

Si utilizza quando abbiamo estrazione senza reimmisione
avenso |Ω|=(r+b, b) ed |Ek| = (r su n) (b su n-k)
P(Ek) = |Ek|/|Ω|
Z~H(b+r,r,n)
Condizioni:
1. n ≤ b+r
2. pz(k) = 0 se k ≤ max{o, n-b} V k≥min{r,n}
3. H(r+b, r, u) ~ B(n, r/(r+b)) se b»k e r»k

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
**Densità di poisson**
Quando abbiamo n prove (n molto grande) ma il peso del successo è molto molto piccolo Y~Bin(n,q) con n->∞ e q->0 e nq è circa 1 py(k) = e^(-λ)λ^k/k!
26
**Variabili aleatorie assolutamente continue**
Una v.a. è assolutamente continua (a.c.) se Esiste una fx : R -> R tc P(s≤x≤t) = ∫₍ₛ ₜ₎fx(z)dz Proprietà: 1. fx(z) ≥ 0 2. ∫₍-∞ +∞₎ fx(z) dz = 1
27
**Densità uniforme continua**
una funzione costante a tratti che dipende da 2 paramentri "a" e "b", dove "a
28
**Densità esponenziale**
quando una macchina non è soggetta ad usura: dopo che ha unzionato x volte in t>0 ha ancora la stessa probabilità di funzione per s > 0 di quando è nuova: Fₜ(t) = [1- e^-λt se t ≥ 0] o [ 0 se t < 0] fₜ(t) = [λe^-λt se t ≥ 0] o [0 se t < 0]
29
**Intensità di guasto o Hazard function**
Sia "x" una v.a. a.c. tc P(x>0) = 1 con f.d.r. Fx(t) ≠ 1 per ogni t e densità fx si definisce densità di guasto: λ(t) = fx(t)/[1- Fx(t)] con t > 0
30
**Densità di guasto con usura/rodaggio/nessuna di queste due OVVERO DENSITA DI RAYLEIGH**
P(x > t+s|x>t) = P(x>t+s)/P(x>t) = [e^(-∫₍0 e t+s₎ λ(u) du)]/[e^(-∫₍0 e t₎ λ(u) du)] = e^(-∫₍t e t+s₎ λ(u) du Cosa sappiamo: - se λ[] è crescente -> P(x>t+s|x>t) < P(x>s) -> usura - se λ[] è decrescente -> P(x>t+s|x>t) > P(x>s) -> rodaggio - se λ[] =λ -> P(x>t+s|x>t) = P(x>s) -> non usura
31
**Distribuzione di weibull**
λ(t) = aßt^(ß-1) dove: 1. ß < 1, t -> λ(t) decrescente 2. ß = 1, t -> λ(t)= λ costante 3. ß > 1 , t -> λ(t) crescente Fx(t) = 1 - e^(-at^ß) fx(t) = aßt^(ß-1) e^(-at^ß) X~Weibull(a,ß)
32
**Funzione di una var. aleatoria**
se X è una v.a. g:R->R una funzione, posso considerare la nuova v.a. -> y=g(x) Cosa succede con X a.c: 1. Fy(t) = P(y≤t) = P(g(x) ∈ (-∞, t]) = P(x ∈ g^-1((-∞ t])) = ∫₍g^-1((-∞ t])₎ fx(z)dz 2. fy(t) = d Fy(t) /dt
33
**Quantile**
un quantile qᵧ=Fx^-1(γ) è definito di oridne γ di X sse [γ ∈(0,1) è fissato] ed Esiste un'unica qᵧ ∈ R tc Fx(qᵧ) = γ
34
**Valore atteso**
Il valore attesso è una variabile aleatoria caso assolutamente continuo: E[x] =∫₍-∞ ∞₎ zfx(z)dz caso discreto: E[x]= ∑₍k∈I₎ kpx(k) Proprietà: 1. E[x] è il paramentro della densità di x 2. se fx è simmetrico rispetto a x=x0 -> E[x] = x0 = q₀,₅=mediana 3. E[x] non è definito se tende a ∞ 4. E[ag(x)+bh(x)] = aE[g(x)] + bE[h(x)] 5. E[ag(x)+b] = aE[g(x)] + b 6. se P(x≥0) = 1 -> E[x] ≥ 0 7. se P(g(x) ≥ h(x)) = 1 -> E[g(x)] ≥ E[h(x)] 8. se P(x≥c) = 1 -> E[x] ≥ c
35
**Varianza**
La varianza di una v.a. X è il numero reale: var[x] = E[(x-E[x])^2] = ϑ^2 Proprietà: 1. var[x] è la dispersione della densita di x 2. var[x] non è definita se non lo è E[x] o E[x]^2 3. var[x] ≥ 0 4. var[x] = E[x^2] - E[x]^2 5. var[ax+b] = a^2 var[x] 6. per la derivata standard sd[x] = √(var[x]) si ha sd[ax+b] = |a|sd[x] 7. per standardizzazione z = (x-E[x])/√var[x] di x si ha E[z]=0 e sd[z]=1
36
**Densità gaussiana**
La densità gaussiana di paramentri µ e ϑ^2 è: fx(z) 1/ϑ√(2π) e^(-1/2 (z-µ)/ϑ) X~N(µ, ϑ^2) Proprietà: 1. µx = mediana = µ 2. ϑx^2 = ϑ^2 3. ax+b ~ N(aµ+b, (|a|ϑ)^2) 4. se X~N(µ, ϑ^2) -> z = (x-µ)/ϑ 5. la f.d.r. di N(0,1) si indica con ϕ e si trova sulle tabelle
37
**Teorema: Disuguaglianza di Chebyshev**
P((x-E[x])) ≤ var[x]/ε per ogni ε>0
38
**Momento di ordine k**
Il momento di ordine k della v.a. X è il numero E[x^k]
39
**Funzione dei momenti**
La funzione generica dei momenti della v.a. X è la funzione mx:R->R e mx(t) = E[e^tx] Proprietà: 1. mx è la trasformata di laplace della densità di X 2. mx(t) in relatà è definita solo sui t per cui esiste E[e^tx] 3. mx=my -> x e y hanno la stessa densità
40
**Vettori aleatori**
2-dimensioni: un vettore aleatorio è una fuinzione V(vettore) : Ω -> R^2 con V(vettore) = (x(w), y(w)) n-dimensioni: stessa cosa ma abbiamo X(vettore) : Ω -> R^n
41
**Funzione di ripartizione**
la funzione di ripartizione di un vettore aleatorio è: Fx(vettore) (t) : R -> [0,1], dove Fx(vettore) (t1, ...,tn) = P("x1≤t1, ..., xn≤tn") Proprietà: 1. lim 𝑡𝑖→∞𝐹𝑋(𝑡1,…, ti-1, ti+1, ...,𝑡𝑛)=𝐹𝑋𝑖(𝑡𝑖) 2. lim ti→-∞FX(t1,…, ti-1, ti+1, ...,tn)=0 3. FX(t1,…,tn)≤min{FX1(t1),…,FXn(tn)} 4. FX(s1, ...,sn) ≤ FX(t1, ....,tn) se si≤ti
42
**Vettori aleatori discreti**
il vett. a. X è discreto se Xi è una variabile aleatoria discreta per ogni i: 1. S:= X1(Ω) = {X(w) ∈ R^n : X per ogni w ∈ Ω} 2. la densità discreta di X è pX : S -> R pX(K) = P(X = K) dove x1 = k1, .... 3. P(X ∈ D) = ∑₍K∈D∩S₎pX(K) 4. pX(K) ∈ [0,1] per ogni K 5. ∑pX(K) = 1 6. pxi(ki) = ∑k1∈s1...∑ki-1∈si-1∑ki+1∈si+1....∑kn∈sn pX(k1,...,kn) [tranne ki] = P(xi=ki) 7. pX è la densità coniugata di X 8. pxi èa la densità marginale di X
43
**Vettori aleatori assolutamente continui**
il vett.a. a.c. se esisesta una funziona fx:R^n->R tc P(X∈D) = integrale in D di (fX(Z)dZ Teorema: se X è un vett.a. a.c.: 1. xi è una v.a.a.c. 2. fxi(zi)=integrale in D di (fX(Z)dZ [tenendo fuori xi e zi]
44
**Definizione indipendenza**
le v.a. x,y si dicono indipendenti se gli eventi della coppia "x∈A" e "y∈B" sono indipendenti per ogni possibile scelta di A,B ⊆ R
45
**Teorema: fatti equivalenti**
Sono fatti equivalenti se: 1. E1, ..., En sono eventi indipendenti 2. 1E1,....,1En sono v.a. indipendenti
46
**Teorema: var. a. discrete indipendenti**
Le v.a. discrete x1,...,xn sono indipendenti sse p(x1,...,xn) (k1,...,kn) = px1(k1) x .... x pxn(kn)
47
**Teorema: var. a. a. c. indipendenti**
Le variabili aleatorie a.c. x1,...,xn sono indipendenti sse: 1. (x1,...,xn) è vettore aleaotrio a.c. 2. f(x1,....,xn) = fx1(z1) x ... x fxn(zn)
48
**Def. funzione di un vettore aleaotorio (discreto/assolutemante continuo)**
se X:Ω->R^n è un vettore aleatorio e g:R^n -> R^m allora y=g(x) è un vettore aleatorio Discreta: py(k) = ∑₍h∈s|g(h)=k₎ px(k) Assolutamente Continua: Fy(t) = integrale di g^-1((-∞ t]) di fx(z)dz fy(t) = derivata di Fy(t) per tutte le ti presenti
49
**Trasformazioni invertibili**
X:Ω->R^n a.c. g:R^n -> R^n invertibile e regolare y=g(x) Proprietà: 1.Fy(t) =∫₍z|g(z) ₎fx(z)dz = ∫₍u|u ≤ t₎ fx(g^-1(t)) |det[( J(g^-1)(u))]| du = ∫₍-∞, t1₎ du1 … ∫₍-∞ tn₎ dun fx(g^-1(t)) |det[( J(g^-1)(u))]| 2. fy(t) = d^n/(dt1 … dtn) [Fy(t) = fx(g^-1(t)) |det[( J(g^-1)(u))]|
50
**Somma di variabili aleatorie (continue)**
Y = X1+X2 = g(X) con g:R^2->R e g(X)= X1+X2 Proprietà: 1. Fy(t) = ∫₍z|g(z) ≤ t₎ fx(z) dz = ∫₍z|z1+z2 ≤t₎ fx(z1,z2) dz1 dz2 = … = ∫₍-∞, +∞₎dz1 ∫₍-∞, t₎ du fx(z1, u-z1) 2. fy(t) = d/dt (Fy(t) = ∫₍-∞, +∞₎ fx(z, t-z) Attenzione se X1 e X2 sono indipendenti allora fx1+x2 = ∫₍-∞ e +∞₎fx1(z) fx2(t-z) dz
51
**Def. Densità**
se a>0 e λ>0, la denstià Γ(a, λ) è: f(t) = [λ^a / Γ(a)] e^(-λt) 1[0, +∞] (t) Proprietà: 1. la costante Γ(a) soddisfa Γ(a+1) = aΓ(a) e Γ(1) = 1 2. Γ(1, λ) = ε(λ) 3. x1, x2 indipendenti e xi ~ Γ(ai, λ) -> x1+x2 ~ Γ(a1+a2)
52
**Somma variabili aleatorie (discreto)**
Y = x1 + x2 = g(x) con g:R^2 -> R e g(X) = x1+x2 HP: X1(Ω) ⊆ Z e X2(Ω)⊆Z -> Y(Ω)⊆Z py(K) = ∑ (h∈Z) px(h, k-h) se x1 e x2 sono indipendenti -> py(K) = ∑ (h∈Z) px(h) p(k-h)
53
**Def. Massimo e minimo var. aleatorie** **+** **Legge di V e W Massimo e minimo var. aleatorie**
siano x1, ..., xn v.a e sia V := max{x1, ..., xn} e W := min{x1, ...,xn} **Legge di V:** Fv = P(v ≤ t) = P(max{x1, ..., xn} ≤ t) = P(x1≤t, ..., xn≤t) = Fx(t1,....,tn) casi particolari: 1. x1,...,x1n indipendenti -> Fv(t) = ∏ Fxk(t) 2. indipendenti e identicamente distrubuiti (iid) -> Fv(t) = Fx1(t)^n **Legge di W:** Fw(t) = P(min{x1, ..., xn} ≤ t) = 1 - P(min{x1, ..., xn} > t) = 1 - P(x1>t, ...., xn>t) casi particolari: 1. caso indipendenti -> Fw(t) = 1 -∏ P(Xk>t) 2. caso iid -> Fw(t) = 1 - ( 1-Fx1(t))^n
54
**Prop: Regola valore atteso per vettori (discreto)**
SIa X una vettore a. discreto e g:R^ -> R e Y = g(x) se ∑|g(x1,...,xn)|px(x1,..,.xn) < ∞ allora y ammette valore atteso E[Y]=∑|g(x1,...,xn)|px(x1,..,.xn)
55
**Prop: Regola valore atteso per vettori (assolutamente continuo)**
SIa X una vettore a. a.c. e g:R^ -> R e Y = g(x) se ∫(R^n) g(x1,...,xn)fx(x1,...,xn) < ∞ allora Y ammette valore atteso E[x] = ∫(R^n) g(x1,...,xn)fx(x1,...,xn) Proprieta: 1. E[x+y] = E[x] + E[y] 2. se x e y sono indipendenti allora E[xy] = E[x]E[y] (non vale il viceversa) 3. var[x+y] = var[x] + var[y] - 2E[(x-E[x])([y-E[y])]
56
**Funzioni generatrici della somma**
x1,...,xn indipendenti che ammettono funzione generatrice dei momenti mx1+...+xn(t) = E[e^t(x1+....+xn)] = ∏ E[e^txk] = ∏mxk(t)
57
**Def. Covarianza di cancellazione lineare**
la covarianza è definita nel seguente modo: cov[x,y] = E[(x-E[x])(y-E[y])] ρx,y = cov[x,y]/√(var[x]var[y]) proprietà: 1. cov[x,c] = 0 per ogni c appartenente a R 2. cov[x,y] = cov[y,x] 3. cov[ax+b,y] = a cov[x,y] 4. cov[x, ax+b] = a cov[x,y] 5. cov[x,y] = E[xy] - E[x]E[y] 6. se x e y indipendenti cov[x,y] = 0 (non vale vicevera) 7. |ρx,y,| ≤ 1 e |ρx,y| = 1 sse esiste a,b appartenti a R tc P(Y=aX+b) = 1
58
**Def. Legge dei grandi numeri + prop.**
Siano x1,...,xn v.a. indipendenti e identicamente distrubuite (iid) allora Xn = 1/n ∑ xk proprietà: 1. se xk ammettono valore attesso -> E[Xn] = 1/n ∑ E[xk] = 𝜇 2. se Xk ammettono varianza -> var[Xn] = var[ 1/n ∑ xk ] = ϑ^2/ n
59
**Teorema: Legge dei grandi numeri (Legge debole e forte)**
**legge debole:** sia (Xk)k≥1 v.a. iid che ammette 𝜇 = E[Xk] e ϑ^2 = var[Xk] -> ε > 0: lim (per n -> ∞) P(|Xn - 𝜇| > ε) = 0 **legge forte:** sia (Xk)k≥1 v.a. iid che ammette 𝜇 = E[Xk] e ϑ^2 = var[Xk]: P(lim (per n -> ∞) Xn = 𝜇) = 1
60
**Cos'è una variabile aleatoria**
una variabile aleatoria (v.a.) è il risultato di una misura di un evento aleatorio, ovvero è una funzione X : Ω -> R