Completo Flashcards

(113 cards)

1
Q

Cos’è una probabilità
Proprietà

A

E’ una funzione F che va da ε a R t.c. :
1. P(E) > 0
2. 0 < P(E) < 1
3. se E1, E2, E3 sono incompatibili 2 a 2 allora P(E1∪ E2 ∪ E3) = P(E1) + P(E2) + P(E3)
Proprietà:
1. P(E^c) = 1 - P(E)
2. 0 <= P(E^c) <= 1
3. se E implica F allora P(E) < P(F)
4. P(E∪F) = P(E) + P(F) - P(E∩F)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Cos’è σ-famiglia

A

una σ-famiglia è una famiglia F ⊆ P(Ω) tc:
1. Omega appartiene a F
2. E appartiene a F allora Omega - E appartiene a F
3. E1, E2, … , E3 appartengono a F allora E1∪ E2 ∪ … ∪ E3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Probabilita per famiglia

A

Una probabilità per le famiglia è una funzione P : F va a R
E la tripa (Ω, F, P) è uno spazio di probabilità

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Peso

A

p(w) = p({w}) con w appartenente a Ω, dove w è un’insieme con 1 solo elemento
P(E) = Ʃp(w) per ogni E appartenente a P(Ω)
Proprietà:
1. p(w) >= 0
2. Ʃ p(w) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Coefficiente Binomiale

A

il coefficiente binomiale di n su k = n!/[k!(n-k)!] se n appartiene a {0,1,…} e k appartenente a {…,-1,0,1,…}
Proprietà:
1. coefficiente binomiale di (n su 0) e di (n su n) = 1
2. coefficiente binomiale di (n su k) = (n su n-k)
3. coefficiente binomiale di (n su k+1)+(n su k) = (n+1 su k)
4. (a+b)^k = Ʃ(n su k) a^k b^(n-k)
5. coefficiente binomiale di (n su k) = numero di anagrammi con k “a” e n-k “b”
6. coefficiente binomiale di (n su k) = |{E⊆{1, …, n} : |E| = k }, ovvero è la cardinalità dell’insieme dei sottoinsiemi di k elementi dell’insieme {1, …, n}

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Probabilità Evento Condizionato

A

P(E|F) = P(E∩F)/P(F) definitia per ogni P(F)!=0
Poprietà:
1. P(-|F) è una probrabilità:
- P(-|F) >= 0
- P(Ω|F) = 1
- P(E1 ∪ E2 ∪ … ∪ En|F) = P(E1|F) + … + P(En|F)
2. P pedice F (E|G) = P pedice F ∩ G (E)
3. P(E) = 0 allora P(E|F) = 0
4. P(E) = 1 allora P(E|F) = 1
5. F implica E allora P(E|F) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Teorema: Regola del prodotto

A

Siano E1, …, En eventi t.c. P(Ei) != 0 per ogni i allora:
P(E1∩ E2 ∩ … ∩ En) = P(E1) x P(E2|E1) x … x P(En|En-1 ∩ … ∩ E2 ∩ E1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Partizione

A

una partizione di Ω è una conllezione di insiemi F1, F2, …, Fn ⊆ Ω tc:
1. Fi ∩ Fj = ∅ (per i != j)
2. Ui>=0 Fi = Ω

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Teorema: Formula probabilità totale

A

Siano F1, F2, …,Fn una partizione di Ω tc P(Fi) != 0 per ogni i allora P(E) = ƩP(Fi)xP(E|Fi)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Teorema: Formula di Bayes

A

sia F1, …, Fn una partizione di Ω tc P(Fi) != 0 per ogni i allora:
P(Fx|E) = [P(Fx) x P(E | Fx)]/∑[P(Fi) x P(E | Fi)]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Indipendenza per 2 eventi

A

2 eventi si dicono indipendenti quando P(E ∩ F) = P(E) x P(F)
Proprietà:
1. P(F) = 0 allora E, F sono indipendenti per ogni E
2. E, F sono indipendenti allora lo è anche E con Fᶜ
3. P(F) = 1 allora E, F sono indipendenti per ogni E
4. E, F indipendenti allora P(E|F) = P(E ∩ F)/P(F) = P(E)xP(F)/P(F) = P(E)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Indipendenza per 3 eventi

A

3 eventi si dicono indipendenti sse [E, F, G]:
1. P(E∩F) = P(E)∩P(F)
2. P(E∩G) = P(E)∩P(G)
3. P(G∩F) = P(G)∩P(F)
4. P(E∩F∩G) = P(E)∩P(F)∩P(G)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Indipendanza per N eventi

A

N eventi sono indipendenti sse:
P(∩k∈i Ek) = Πk∈i P(Ek) = P(Ei1) x … x P(Ein)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Teorema: Infipendenza per N eventi

A

Se tutte le seguenti ipotesi sono soddisfatte allora gli F1, …, Fn sono indipendenti:
1. E1, …, En sono indipendenti
2. 1 = i₀ < i₁ < … < iᵣ = n
3. Fk è combinazione lineare di Eiₖ₋₁, …, Eiₖ

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Combinazione di eventi

A

la combinazione di eventi è un evento ricavato da E1, …, En:
H = (E ∩ Fᶜ ∩ Gᶜ) ∪ (Eᶜ ∩ Fᶜ ∩ G) ∪ (Eᶜ ∩ F ∩ Gᶜ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Cosa sono le prove di bernulli e quando si usano

A

Le prove di bernulli si utilizzano quando si vogliono fare n-prove t.c. :
1. ogni prova puo avere solo 2 esiti
2. si ha la stessa probabilità per ogni esito
3. le prove non si influenzano tra di loro

Teorema:
P(Fx) = (n su k) qᵏ (1-q)ⁿ⁻ᵏ per ogni k = 0, …,n

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Indipendenza condizionata x n-eventi

A

Gli eventi E1, …, En sono indipendenti condizionatamente ad F se:
P(∩k∈i Ek|F) = Πk∈i P(Ek|F)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Funzione di ripartizione

A

una funzione di ripartizione (f.d.r.) di una v.a. di X è:
Fx:R->[0,1] e Fx(t) := P(“x≤t”)
Proprietà:
1. Fx e non-decidibile
2. Fx(t) -> (t-> ∞) -> 1 e Fx(t) -> (t -> -∞) -> 0
3. se s < t -> P(s < x ≤ t) = Fx(t) - Fx(s)
4. Fx è continua a destra con limite a sinistra

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Variabili aleatorie discrete

A

X è una v.a. discreta se X(Ω) è un sottoinsieme discreto di R -> X(Ω) = {x ∈ R : X(Ω) = x per ogni w ∈ Ω}
X(Ω) è un insieme discreto se tutti i suoi punti sono isolati

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Densità discreta

A

sia px : R -> R
px(k) : P(x = k), k ∈ S
Proprietà:
1. P(x∈A) = ∑₍k∈A∩R₎ px(k) per ogni A ⊆ R
2. px(k) ∈ [0, 1] per ogni k ∈ S
3. ∑₍k∈S₎ px(k) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Densità banale

A

Serve a descrivere le costanti
X(w) = c per ogni w ∈ Ω
S = {c} > px:{c} -> [0,1]
ovvero px(c) = P(x = c) = P(Ω) = 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Def. funzione indicatrice

A

X(w) = 1E(w) = [1 se w ∈ E ⊆ Ω] oppure [0 altrimenti]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Densità Geometrica

A

Data una serie di numerazioni, con che probabilità avviene un successo alla k-esima prova
F(k) = P(T<k) = 1- P(T>k) = 1 - (1-q)^k
px(k) = F(k) - F(k-1) = q (1-q)^k
P(T>k) = (k su 0) q^0 (1-q)^k
T~G(q)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Densità ipergeometrica

A

Si utilizza quando abbiamo estrazione senza reimmisione
avenso |Ω|=(r+b, b) ed |Ek| = (r su n) (b su n-k)
P(Ek) = |Ek|/|Ω|
Z~H(b+r,r,n)
Condizioni:
1. n ≤ b+r
2. pz(k) = 0 se k ≤ max{o, n-b} V k≥min{r,n}
3. H(r+b, r, u) ~ B(n, r/(r+b)) se b»k e r»k

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
**Densità di poisson**
Quando abbiamo n prove (n molto grande) ma il peso del successo è molto molto piccolo Y~Bin(n,q) con n->∞ e q->0 e nq è circa 1 py(k) = e^(-λ)λ^k/k!
26
**Variabili aleatorie assolutamente continue**
Una v.a. è assolutamente continua (a.c.) se Esiste una fx : R -> R tc P(s≤x≤t) = ∫₍ₛ ₜ₎fx(z)dz Proprietà: 1. fx(z) ≥ 0 2. ∫₍-∞ +∞₎ fx(z) dz = 1
27
**Densità uniforme continua**
una funzione costante a tratti che dipende da 2 paramentri "a" e "b", dove "a
28
**Densità esponenziale**
quando una macchina non è soggetta ad usura: dopo che ha unzionato x volte in t>0 ha ancora la stessa probabilità di funzione per s > 0 di quando è nuova: Fₜ(t) = [1- e^-λt se t ≥ 0] o [ 0 se t < 0] fₜ(t) = [λe^-λt se t ≥ 0] o [0 se t < 0]
29
**Intensità di guasto o Hazard function**
Sia "x" una v.a. a.c. tc P(x>0) = 1 con f.d.r. Fx(t) ≠ 1 per ogni t e densità fx si definisce densità di guasto: λ(t) = fx(t)/[1- Fx(t)] con t > 0
30
**Densità di guasto con usura/rodaggio/nessuna di queste due OVVERO DENSITA DI RAYLEIGH**
P(x > t+s|x>t) = P(x>t+s)/P(x>t) = [e^(-∫₍0 e t+s₎ λ(u) du)]/[e^(-∫₍0 e t₎ λ(u) du)] = e^(-∫₍t e t+s₎ λ(u) du Cosa sappiamo: - se λ[] è crescente -> P(x>t+s|x>t) < P(x>s) -> usura - se λ[] è decrescente -> P(x>t+s|x>t) > P(x>s) -> rodaggio - se λ[] =λ -> P(x>t+s|x>t) = P(x>s) -> non usura
31
**Distribuzione di weibull**
λ(t) = aßt^(ß-1) dove: 1. ß < 1, t -> λ(t) decrescente 2. ß = 1, t -> λ(t)= λ costante 3. ß > 1 , t -> λ(t) crescente Fx(t) = 1 - e^(-at^ß) fx(t) = aßt^(ß-1) e^(-at^ß) X~Weibull(a,ß)
32
**Funzione di una var. aleatoria**
se X è una v.a. g:R->R una funzione, posso considerare la nuova v.a. -> y=g(x) Cosa succede con X a.c: 1. Fy(t) = P(y≤t) = P(g(x) ∈ (-∞, t]) = P(x ∈ g^-1((-∞ t])) = ∫₍g^-1((-∞ t])₎ fx(z)dz 2. fy(t) = d Fy(t) /dt
33
**Quantile**
un quantile qᵧ=Fx^-1(γ) è definito di oridne γ di X sse [γ ∈(0,1) è fissato] ed Esiste un'unica qᵧ ∈ R tc Fx(qᵧ) = γ
34
**Valore atteso**
Il valore attesso è una variabile aleatoria caso assolutamente continuo: E[x] =∫₍-∞ ∞₎ zfx(z)dz caso discreto: E[x]= ∑₍k∈I₎ kpx(k) Proprietà: 1. E[x] è il paramentro della densità di x 2. se fx è simmetrico rispetto a x=x0 -> E[x] = x0 = q₀,₅=mediana 3. E[x] non è definito se tende a ∞ 4. E[ag(x)+bh(x)] = aE[g(x)] + bE[h(x)] 5. E[ag(x)+b] = aE[g(x)] + b 6. se P(x≥0) = 1 -> E[x] ≥ 0 7. se P(g(x) ≥ h(x)) = 1 -> E[g(x)] ≥ E[h(x)] 8. se P(x≥c) = 1 -> E[x] ≥ c
35
**Varianza**
La varianza di una v.a. X è il numero reale: var[x] = E[(x-E[x])^2] = ϑ^2 Proprietà: 1. var[x] è la dispersione della densita di x 2. var[x] non è definita se non lo è E[x] o E[x]^2 3. var[x] ≥ 0 4. var[x] = E[x^2] - E[x]^2 5. var[ax+b] = a^2 var[x] 6. per la derivata standard sd[x] = √(var[x]) si ha sd[ax+b] = |a|sd[x] 7. per standardizzazione z = (x-E[x])/√var[x] di x si ha E[z]=0 e sd[z]=1
36
**Densità gaussiana**
La densità gaussiana di paramentri µ e ϑ^2 è: fx(z) 1/ϑ√(2π) e^(-1/2 (z-µ)/ϑ) X~N(µ, ϑ^2) Proprietà: 1. µx = mediana = µ 2. ϑx^2 = ϑ^2 3. ax+b ~ N(aµ+b, (|a|ϑ)^2) 4. se X~N(µ, ϑ^2) -> z = (x-µ)/ϑ 5. la f.d.r. di N(0,1) si indica con ϕ e si trova sulle tabelle
37
**Teorema: Disuguaglianza di Chebyshev**
P((x-E[x])) ≤ var[x]/ε per ogni ε>0
38
**Momento di ordine k**
Il momento di ordine k della v.a. X è il numero E[x^k]
39
**Funzione dei momenti**
La funzione generica dei momenti della v.a. X è la funzione mx:R->R e mx(t) = E[e^tx] Proprietà: 1. mx è la trasformata di laplace della densità di X 2. mx(t) in relatà è definita solo sui t per cui esiste E[e^tx] 3. mx=my -> x e y hanno la stessa densità
40
**Vettori aleatori**
2-dimensioni: un vettore aleatorio è una fuinzione V(vettore) : Ω -> R^2 con V(vettore) = (x(w), y(w)) n-dimensioni: stessa cosa ma abbiamo X(vettore) : Ω -> R^n
41
**Funzione di ripartizione**
la funzione di ripartizione di un vettore aleatorio è: Fx(vettore) (t) : R -> [0,1], dove Fx(vettore) (t1, ...,tn) = P("x1≤t1, ..., xn≤tn") Proprietà: 1. lim 𝑡𝑖→∞𝐹𝑋(𝑡1,…, ti-1, ti+1, ...,𝑡𝑛)=𝐹𝑋𝑖(𝑡𝑖) 2. lim ti→-∞FX(t1,…, ti-1, ti+1, ...,tn)=0 3. FX(t1,…,tn)≤min{FX1(t1),…,FXn(tn)} 4. FX(s1, ...,sn) ≤ FX(t1, ....,tn) se si≤ti
42
**Vettori aleatori discreti**
il vett. a. X è discreto se Xi è una variabile aleatoria discreta per ogni i: 1. S:= X1(Ω) = {X(w) ∈ R^n : X per ogni w ∈ Ω} 2. la densità discreta di X è pX : S -> R pX(K) = P(X = K) dove x1 = k1, .... 3. P(X ∈ D) = ∑₍K∈D∩S₎pX(K) 4. pX(K) ∈ [0,1] per ogni K 5. ∑pX(K) = 1 6. pxi(ki) = ∑k1∈s1...∑ki-1∈si-1∑ki+1∈si+1....∑kn∈sn pX(k1,...,kn) [tranne ki] = P(xi=ki) 7. pX è la densità coniugata di X 8. pxi èa la densità marginale di X
43
**Vettori aleatori assolutamente continui**
il vett.a. a.c. se esisesta una funziona fx:R^n->R tc P(X∈D) = integrale in D di (fX(Z)dZ Teorema: se X è un vett.a. a.c.: 1. xi è una v.a.a.c. 2. fxi(zi)=integrale in D di (fX(Z)dZ [tenendo fuori xi e zi]
44
**Definizione indipendenza**
le v.a. x,y si dicono indipendenti se gli eventi della coppia "x∈A" e "y∈B" sono indipendenti per ogni possibile scelta di A,B ⊆ R
45
**Teorema: fatti equivalenti**
Sono fatti equivalenti se: 1. E1, ..., En sono eventi indipendenti 2. 1E1,....,1En sono v.a. indipendenti
46
**Teorema: var. a. discrete indipendenti**
Le v.a. discrete x1,...,xn sono indipendenti sse p(x1,...,xn) (k1,...,kn) = px1(k1) x .... x pxn(kn)
47
**Teorema: var. a. a. c. indipendenti**
Le variabili aleatorie a.c. x1,...,xn sono indipendenti sse: 1. (x1,...,xn) è vettore aleaotrio a.c. 2. f(x1,....,xn) = fx1(z1) x ... x fxn(zn)
48
**Def. funzione di un vettore aleaotorio (discreto/assolutemante continuo)**
se X:Ω->R^n è un vettore aleatorio e g:R^n -> R^m allora y=g(x) è un vettore aleatorio Discreta: py(k) = ∑₍h∈s|g(h)=k₎ px(k) Assolutamente Continua: Fy(t) = integrale di g^-1((-∞ t]) di fx(z)dz fy(t) = derivata di Fy(t) per tutte le ti presenti
49
**Trasformazioni invertibili**
X:Ω->R^n a.c. g:R^n -> R^n invertibile e regolare y=g(x) Proprietà: 1.Fy(t) =∫₍z|g(z) ₎fx(z)dz = ∫₍u|u ≤ t₎ fx(g^-1(t)) |det[( J(g^-1)(u))]| du = ∫₍-∞, t1₎ du1 … ∫₍-∞ tn₎ dun fx(g^-1(t)) |det[( J(g^-1)(u))]| 2. fy(t) = d^n/(dt1 … dtn) [Fy(t) = fx(g^-1(t)) |det[( J(g^-1)(u))]|
50
**Somma di variabili aleatorie (continue)**
Y = X1+X2 = g(X) con g:R^2->R e g(X)= X1+X2 Proprietà: 1. Fy(t) = ∫₍z|g(z) ≤ t₎ fx(z) dz = ∫₍z|z1+z2 ≤t₎ fx(z1,z2) dz1 dz2 = … = ∫₍-∞, +∞₎dz1 ∫₍-∞, t₎ du fx(z1, u-z1) 2. fy(t) = d/dt (Fy(t) = ∫₍-∞, +∞₎ fx(z, t-z) Attenzione se X1 e X2 sono indipendenti allora fx1+x2 = ∫₍-∞ e +∞₎fx1(z) fx2(t-z) dz
51
**Def. Densità**
se a>0 e λ>0, la denstià Γ(a, λ) è: f(t) = [λ^a / Γ(a)] e^(-λt) 1[0, +∞] (t) Proprietà: 1. la costante Γ(a) soddisfa Γ(a+1) = aΓ(a) e Γ(1) = 1 2. Γ(1, λ) = ε(λ) 3. x1, x2 indipendenti e xi ~ Γ(ai, λ) -> x1+x2 ~ Γ(a1+a2)
52
**Somma variabili aleatorie (discreto)**
Y = x1 + x2 = g(x) con g:R^2 -> R e g(X) = x1+x2 HP: X1(Ω) ⊆ Z e X2(Ω)⊆Z -> Y(Ω)⊆Z py(K) = ∑ (h∈Z) px(h, k-h) se x1 e x2 sono indipendenti -> py(K) = ∑ (h∈Z) px(h) p(k-h)
53
**Def. Massimo e minimo var. aleatorie** **+** **Legge di V e W Massimo e minimo var. aleatorie**
siano x1, ..., xn v.a e sia V := max{x1, ..., xn} e W := min{x1, ...,xn} **Legge di V:** Fv = P(v ≤ t) = P(max{x1, ..., xn} ≤ t) = P(x1≤t, ..., xn≤t) = Fx(t1,....,tn) casi particolari: 1. x1,...,x1n indipendenti -> Fv(t) = ∏ Fxk(t) 2. indipendenti e identicamente distrubuiti (iid) -> Fv(t) = Fx1(t)^n **Legge di W:** Fw(t) = P(min{x1, ..., xn} ≤ t) = 1 - P(min{x1, ..., xn} > t) = 1 - P(x1>t, ...., xn>t) casi particolari: 1. caso indipendenti -> Fw(t) = 1 -∏ P(Xk>t) 2. caso iid -> Fw(t) = 1 - ( 1-Fx1(t))^n
54
**Prop: Regola valore atteso per vettori (discreto)**
SIa X una vettore a. discreto e g:R^ -> R e Y = g(x) se ∑|g(x1,...,xn)|px(x1,..,.xn) < ∞ allora y ammette valore atteso E[Y]=∑|g(x1,...,xn)|px(x1,..,.xn)
55
**Prop: Regola valore atteso per vettori (assolutamente continuo)**
SIa X una vettore a. a.c. e g:R^ -> R e Y = g(x) se ∫(R^n) g(x1,...,xn)fx(x1,...,xn) < ∞ allora Y ammette valore atteso E[x] = ∫(R^n) g(x1,...,xn)fx(x1,...,xn) Proprieta: 1. E[x+y] = E[x] + E[y] 2. se x e y sono indipendenti allora E[xy] = E[x]E[y] (non vale il viceversa) 3. var[x+y] = var[x] + var[y] - 2E[(x-E[x])([y-E[y])]
56
**Funzioni generatrici della somma**
x1,...,xn indipendenti che ammettono funzione generatrice dei momenti mx1+...+xn(t) = E[e^t(x1+....+xn)] = ∏ E[e^txk] = ∏mxk(t)
57
**Def. Covarianza di cancellazione lineare**
la covarianza è definita nel seguente modo: cov[x,y] = E[(x-E[x])(y-E[y])] ρx,y = cov[x,y]/√(var[x]var[y]) proprietà: 1. cov[x,c] = 0 per ogni c appartenente a R 2. cov[x,y] = cov[y,x] 3. cov[ax+b,y] = a cov[x,y] 4. cov[x, ax+b] = a cov[x,y] 5. cov[x,y] = E[xy] - E[x]E[y] 6. se x e y indipendenti cov[x,y] = 0 (non vale vicevera) 7. |ρx,y,| ≤ 1 e |ρx,y| = 1 sse esiste a,b appartenti a R tc P(Y=aX+b) = 1
58
**Def. Legge dei grandi numeri + prop.**
Siano x1,...,xn v.a. indipendenti e identicamente distrubuite (iid) allora Xn = 1/n ∑ xk proprietà: 1. se xk ammettono valore attesso -> E[Xn] = 1/n ∑ E[xk] = 𝜇 2. se Xk ammettono varianza -> var[Xn] = var[ 1/n ∑ xk ] = ϑ^2/ n
59
**Teorema: Legge dei grandi numeri (Legge debole e forte)**
**legge debole:** sia (Xk)k≥1 v.a. iid che ammette 𝜇 = E[Xk] e ϑ^2 = var[Xk] -> ε > 0: lim (per n -> ∞) P(|Xn - 𝜇| > ε) = 0 **legge forte:** sia (Xk)k≥1 v.a. iid che ammette 𝜇 = E[Xk] e ϑ^2 = var[Xk]: P(lim (per n -> ∞) Xn = 𝜇) = 1
60
**Cos'è una variabile aleatoria**
una variabile aleatoria (v.a.) è il risultato di una misura di un evento aleatorio, ovvero è una funzione X : Ω -> R
61
**Teorema centrale del limite: Teorema + oss-> a cosa equivale?**
Sia una successione (Xk)k≥1 dk v.a. indipendenti identicamente distribuite (iid) con valore atteso μ = E[X1] e vairanza σ²=Var[X1]>0: ∀t appartenente R limn→∞ (Xn-μ)/(σ/√n) = limn→∞ P((Xn-μ)/(σ/√n) ≤t) = ∫₍-∞ a t₎ 1/√(2π) e^-((x^2)/2)dx Oss: Xn ∼ N(μ, σ²/n)
62
**Teorema centrale del limite: Formulazione equivalente a Xn**
Sn = ∑₍k=1 a n₎ Xk da cui ricaviamo Xn(seganto) = Sn/n Quindi: * E[Sn] = nµ * Var[Sn] = nσ² TCL: Sn ∼ N(nμ, nσ²) ATTENZIONE: Xn e Sn sono circa gaussiane, indipendentemente dalla distribuzione della Xk
63
**Sn in una binomiale**
Siano Xk ∼ B(p) ∀k∈N con p∈(0,1): Sn:= ∑₍k=1 a n₎ Xk è il numero di teste che esce TCL => Se n è grande => Sn ∼ N(np, np(1-p)) POISSON => Se n è grande e p piccolo => Sn ∼ P(np) ATTENZIONE: Se np>5 e n(1-p) > 5 allora uso la gaussiana, altrimenti la poasson
64
**Valore atteso per vettori e matrice per covarianza + prop**
Sia (x1, ...,xn):Ω -> R^n un vettore aleatorio t.c. x1, ...,xn ammette valore atteso si def: E[Xvettore] = (E[x1], ..., E[xn])^T Nello stesso quadro se x1, ..., xn ammette varianza, la matrice di covarianza è (Cx)i,j = (cov(xi,xj))i,j ∀i,j: Cx= ha sulla diagonale la var[Xij] e sul resto (cov(xi,xj))i,j Prop: * Cx è (simmetrica => cov(xi, xj) = cov(xj, xi)) e semidefinita positiva * se A ∈ Mat(k,n) e b ∈ R^k => Y = Ax+b e Cy = ACA^T
65
**Vettore Gaussiano Standard + prop**
Sia un vettore aleatorio X = (X1, ...,Xn) : Ω -> R^n è gaussiana standard se X1, ..., Xn sono v.a. gaussiane standard e indipendenti tra loro Prop: * E[X] = (0, ...,0) ∈ R^n * cov[X] = matrice identità => X ∼ N(0, Id), con Id= identità * X è assolutamente continui =>comp. ass. continuo e indipendente con densità => f(x) = 1/(2π)^(n/2) e^(|x|^2/2), x ∈ R^n
66
**Vettore Gaussiano Generico + prop**
Sia un vettore aleatorio X = (X1, ...,Xn) : Ω -> R^n è gaussiana generico, Z : Ω -> R^n una matrice A ∈ Mat(n,n) e B ∈ R^n t.c. X = AZ+b Prop: * E[X] = AE[X]+b = b * Cx = cov[X] = ACzA^T = AA^T * non è detto che x sia ass. continuo * le v.a. costanti sono gaussiane secondo questa def. (le N(0,1) sono costanti) * se det(A)≠0 => X è assolutamente continua con densità => fx(x) = 1/(det(x))^(1/2) 1/(2π)^(n/2) exp([(x-b^T C^-1(x-b)]/2) * X è assolutamente continua sse è invertibile * se X : Ω -> R^n è gaussiana, L ∈ Mat(n,n) e b ∈ R^k => LX+b è gaussiana * sia X un vettore gaussiano => X1, ..., Xn sono indipendenti sse sono scorrelate
67
**Densità condizionata discreta + prop**
Ricorda => A,B eventi => P(A|B) = P(A ∩ B)/P(B) Def: Siano X,Y v.a. discrete => dato x ∈ Sx con px(X)>0 densità condizionata di y dato X=x la funzione Py|x (Y|X) := P(Y=y|X=x) = P₍X,Y₎(x,y)/P₍X₎(x) La densità condizionata di Y dato X=x è una funzione P₍Y|X₎ (-|x) : R-> [0,1] che risulta una densità discretà infatti: * P₍Y|X₎ (y|x) ≥ 0 ∀y ∈ R * ∑₍y∈Sy₎ P₍X,Y₎(x,y)/P₍X₎(x) = 1 Prop: * P₍Y,X₎ (y|x)=P₍Y|X₎ (y|x) px(x) per ogni x,y * py(y) = ∑P₍Y|X₎ (y|x)px(x) per ogni y * P₍Y|X₎ (y|x) = P₍Y|X₎ (y|x) P₍X₎ (x)/(∑P₍Y|X₎ (y|x) P₍X₎ (x)) * X e Y indipendenti sse P₍Y|X₎ (y|x) = P₍Y₎ (y)
68
**Valore atteso condizionato discreta + prop**
Siano X e Y v.a. discrete definisco il valore atteso condizionato di Y dato X=x: E[Y|X=x] = ∑₍y∈Sy₎ yP₍y₎P₍Y|X₎(y|x) per ogni x appartenento R con P₍x₎(λ) >0 E[Y|X] = g(x) Prop: * siano X e Y v.a. discrete con Y che ammette valore atteso E[Y|X] => E[Y] = E[E[Y|X]]
69
**Densità condizionata continua**
Sia (X,Y) un vett.a. a.c. e sia x∈R t.c. fx(x)>0 definiamo Densita condizionata continua di Y dato da X=x fSia (X,Y) un vett.a. a.c. e sia x∈R t.c. fx(x)>0 definiamo Densita condizionata continua di Y dato da X=x f₍Y|X₎(y|x) = f₍Y|X₎(y|x)/f₍X₎(x), y appartenente a R Prop: * ∫₋∞⁺∞ f₍Y|X₎(y|x) dy = 1/fx(x)∫₋∞⁺∞f₍Y|X₎(y|x) dy = 1 * f₍Y|X₎(y|x) =f₍Y|X₎(y|x) fx(x) * fY(y) = ∫₋∞⁺∞f₍Y|X₎(y|x) fx(x) dx (pb. tot) * f₍Y|X₎(y|x) =f₍Y|X₎(y|x) fx(x)/(∑f₍Y|X₎(y|x) fx(x)) (bayes) * X e Y sono indipendenti => f₍Y|X₎(y|x) = fY(y) per ogni y
70
**Legge condizionata Continua**
La legge condizionata di Y dato X=x è la misura di probabilità P(Y∈B | X=x) = ∫B f₍Y|X₎(y|x) dy per ogni B⊆R
71
**Valore atteso condizionato continuo**
il valore atteso condizionato di Y dato X=x è: E[Y|X=x] =∫R yf₍Y|X₎(y|x) dy noto che: E[Y|X=x] = g(x) dove g(x) = ∫R yf₍Y|X₎(y|x) dy definisco valore atteso di Y dato X=x la variabile aleatoria E[Y|X=x] = g(x) Prop: * se Y ammette valore atteso => E[Y|X] ammette valore attesso e E[Y] = E[E[Y|X]]
72
**Distribuzione Gamma + prop**
La funzione gamma di eulero: Γ : (0,∞) -> R Γ(z) = ∫0+∞ x^(z-1) e^-x dx, z ≥ 0 Una variabile aleatoria ha distribuzione gamma di parametri a>0 e λ>0 e si scrive X ∼ Γ(a, λ) se x è assolutamente continua con densità: fx(x) = λ^a / Γ(a) x^(a-1) e^(-λx) 1₍0, +∞₎ (x) => Γ(1, λ) = ε(1) Prop: * Γ(z+1) = z Γ(z) per ogni z>0 * segue che Γ(z+1) = n! per ogni n appartenente a N * Γ(1/2) = √π
73
**val. attesso e varianza della distribuzione di gamma + prop**
Funzione gen. momenti => mx(t) = E[e^tx] = (λ/(λ-t))^a Valore atteso => m'x(t) = E[x] = a/λ e m''x(t) = E[x^2] = a(a+1)/λ^2 Varianza => var[x] = E[x^2] - E[x]^2 = a/λ^2 Prop: * se X ∼ Γ(a, λ) e Y ∼ Γ(b, λ) indipendenti => X+Y ∼ Γ(a+b, λ) * se X∼ Γ(a, λ) e c > 0 => cX ∼ Γ(a, λ/c)
74
**Distribuzione chi-quadro + prop**
una variabile aleatoria X ha distribuzione chi-quadro con n gradi di libertà (n∈N+) e si scrive X~X^2(n) se X ~ Γ(n/2, 1/2) Prop: * mx(t) = [(1/2)/(1/2 - t)]^n/2 * E[x] = (n/2)/(1/2) = n * var[x] = (n/2)/(1/4) = 2n oss => per valore atteso e varianza => le curve di prima a crescere di k si spostano verso +∞ * se X~X^2(n) e Y~X^2(m) indipendenti => X+Y~X^2(n+m) * se Z~N(0,1) => Z^2~X^2(1) * se Z1, ..., Zn ~ N(0,1) inpendenti => Z1^2+...+Zn^2~X^2(n) * se Z=(Z1, ..., Zn) è vettore gaussiamo standard => |Z^2|~X^2(n)
75
**Distribuzione chi-quadro con quantili**
Se X~X^2(n) e a∈(0,1) => il quantile (di coda destro) di X di ordine a è l'ultimo numero reale (X^2)a,n > 0 t.c. a = P(X > (X^2)a,n) OSS=> per i quantili della X^2(n) NON vale la relazione di simmetria tra (X^2)a,n e (X^2)1-a,n
76
**Distribuzione di T student + prop**
una v.a. X ha distribuzione T di student con n gradi di libertà e si scrive X~t(n) se Esiste Z~N(0,1) e Cn~X^2(n) t.c. : X = Z/√(Cn/n) Prop: * X è assolutamente continua e la densità di X è simmetrica rispetto a 0 => X = Z/√(Cn/n) e -X = -Z/√(Cn/n) => dove -Z~N(0,1) * E[x] = 0
77
**Distribuzione T di student x quantili**
se X~t(n) e a∈(0,1) il quantile di X di ordine a è l'ultimo ta,n ∈ R t.c. a = P(x>ta,n) OSS=> per simmetria -ta,n = t1-a,n OSS => lim per n -> ∞ ta,n = Za dove Za è il quantile di Z ~ N(0,1)
78
**INFERENZA STATISTICA:** **1. Def. Statistica** **2. Def. Statistica parametrica** **3. Def. Statistica non parametrica** **4. Campione aleatorio estratto**
**Statistica:** Una statistica è una variabile aleatoria della forma d(X1, ...,Xn) dove d:R^n -> R^k **Statistica parametrica** Avendo F (F = distribuzione di probabilità) nota, ma non conosco i parametri => F = Fϑ, dove ϑ è il parametro ignoto **Statistica non parametrica** Non conosco ne F ne i parametri **Campione aleatorio estratto** X1, ..., Xn campione aleatroio estratto da Fϑ, ϑ ∈ Θ ⊆ R* parametri ammissibili
79
**Media campionaria + LGN + TCL**
X̅n = 1/n ∑₍k=1 a n₎ Xk è una statistica Valore atteso: E[X̅n] = E[X1] = µ Varianza: var[X̅n] = σ²/n **LGN** => P(lim per n->∞ X̅n =µ) = 1 **TCL** => X̅n ≈ N(µ, σ²/n)
80
**Varianza campionaria + prop**
X1, ..., Xn con media µ e var σ² => **varianza campionaria**: (S^2)n = 1/(n-1) ∑₍k=1 a n₎ (Xk - X̅n)^2 Oss => metto la stima della media (X̅n) al posto di µ, siccome non lo conosco e siccome ho messo la stima sono obbligato a mettere n-1 Valore Atteso => E[(S^2)n] = σ² Varianza => var[(S^2)n] = 1/n [µ4 - ((n-3)/(n-1)) σ^4] => µ4 = E[(x-µ)^4] Prop: Sia X1, ...,Xn campione gaussiano N(µ, σ²): * X̅n e (S^2)n sono indipendenti * X̅n ~ N(µ, σ²/n) per ogni n => ovvero (X̅n-µ)/σ/√n~ N(0,1) * [(n-1)-(S^2)n]/σ² ~ X^2(n-1) * (X̅n-µ)/Sn/√n ~ t(n-1)
81
**Statistica parametrica + def. caratteristica + def. stimatore**
**Statistica parametrica:** X1, ..., Xn campione aleatorio estratto da Fϑ dove ϑ∈Θ⊆R* è parametro incognito **Def. Caratteristica:** Una caratteristica della popolazione è una funzione k : Θ -> R, con ϑ ->k(ϑ) **Def. Stimatore:** Uno stimatore della caratteristica K è una statistica D^ = d(X1, ..., Xn) usata per fare inferenza su K La stima ottenuta su K(ϑ) in corrispondenza della realizzazione X1, ..., Xn del campione è d=(X1, ..., Xn) Oss => lo stimatore pre esperimento è una variabile aleatoria, post è un numero
82
**Indici bontà stimatori + caso discreto + caso continuo**
**Premessa** => D^ non deve dipendere da ϑ **Def** => Se lo stimatore D^ della cart K ammette varlore atteso => la distorsione/bias di D^ come stimatore di K è la funzione di bias: Biasϑ(D^) = E[D^] - k(ϑ), ϑ∈Θ Caso discreto => Biasϑ(D^) = ∑₍k=1 a n₎ (d(X1, ..., Xn) - k(ϑ)) π fϑ(xi) Caso continuo => Biasϑ(D^) = ∫R^n (d(X1, ..., Xn) - k(ϑ)) π fϑ(xi)
83
**Errore quadratico + prop**
Se D^ ammette momento secondo => l'errore quadratico medio di D^ come stimatore di K è: MSEϑ(D^) := E[|D^-k(ϑ)|], ϑ∈Θ Qui il caso discreto e continuo è come quello dgli indici di bontà degli stimatori **Oss** => D^ non può avere errore quadratico = 0 **Oss** => se parto da MSEϑ e provo a minimizzare MSEϑ tra tutti gli stimatori, non riesco però posso minimizzare MSE tra gli stimatori non di stato Prop: * MSEϑ(D^) = Eϑ[|D^-k(ϑ)|^2] = varϑ[D^] + |Biasϑ(D^)|^2
84
**Proprietà asintotiche degli stimatori**
Data una successione X1, X2, ... indipendente e identicamente distribuita (iid), e ∀n ∈ N, sia D^ = d(X1, ..., Xn) stimatore di k(ϑ) Le successione di stimatori ((D^)n) si dice: * asinotitcamente stabile => se lim per n->∞ Biasϑ(D^) = 0 ∀n * debolmente consistente => ∀ε > 0, lim per n->∞ P(|D^-k(ϑ)|>ε ) = 0 ∀ϑ * consistente in media quadratica => lim n->∞ MSEϑ((D^)n) = 0 ∀ϑ Oss => se (D^)n è consistente in media quadratica => è debolmente consistente [NON vale il contrario] Oss => (D^)n è consistente in media quadratica sse: * (D^)n è asintoticamente non distorto * var[(D^)n] per n->∞ tende a 0
85
**Valore atteso e varianza Media campionaria**
**Valore atteso** => E[X̅n] = µ ∀n∈N => X̅n è non distorta ∀n **Varianza** => var[X̅n] = σ²/n
86
**Valore atteso e varianza della varianza campionaria**
**Valore atteso** => E[(S^2)n] = σ² => è simmetricamente non distorata di σ² per ogni n **Varianza** => var[(S^2)n] = 1/n [µ4 - ((n-3)/(n-1)) σ^4]
87
**Metodo dei momenti**
X1, ..., Xn campioni estratti da Fϑ, ϑ=(ϑ1, ..., ϑn)∈R^k X1 ha momento di ordine k: µ1 = E[X1], µ2 = E[X2] ... Voglio costruire un sistema Ĥ1, Ĥ2, ..., Ĥk di ϑ1, ..., ϑk in questo modo: [sistema:] * 1/n ∑₍i = 1 a n₎ Xi = µ1(ϑ1, ..., ϑn) * ... * 1/n ∑₍i = 1 a n₎ (X^k)i = µk(ϑ1, ..., ϑn) Dove vedo (ϑ1, ..., ϑk) come incognite del sistema Da qui ricavo la soluzione: * ϑ1 = d1(X1, ..., Xn) * ... * ϑk = dk(X1, ..., Xn)
88
**Metodo di massima somiglianza:** **- Funzione di verosomiglianza** **- stima massimizzazione di verosomiglianza** **- stimatore di max_verosomiglianza**
Il campione è X1, ..., Xn estratto da fϑ, ϑ ∈ Θ ⊆ R* parametro incognito **funzione di verosomiglianza:** Sia (X1, ..., Xn) un relazione del campione t.c. fϑ(xi)>0 per ogni i=1,...,n allora la funzione di verosomiglianza è la funzione f : Θ -> R dato da: L(ϑ) = ∏₍i = 1 a n₎ fϑ(xi) **stima di massimizzazione di verosomiglianza:** La stima di massimizzazione di verosmiglianza di ϑ in corrispondenza della realizzazione di (X1, ..., Xn), è la quantità: tn(x1, ..., xn) := angmaxL(ϑ) => punto di massimo * caso discreto => L(ϑ) = Pϑ(X1=x1, ...,Xn=xn) * caso continuo => L(ϑ) = ∏₍i = 1 a n₎fϑ(xi) ≠Pϑ(X1=x1, ...,Xn=xn) **stimatore di max_verosomiglianza:** lo stimatore di max_verosomiglianza è: Ĥ := tn(X1, ..., Xn) => detto *MLE*
89
**Teo. Proprietà asintotiche dello stimatore di max_verosomiglianza**
Sia X1, ..., Xn campione aleatorio estratto da fϑ, sia (Ĥn)n successione di stimatori di ϑ Sia (k(Ĥn)n)n la successione di MLE di k Allora valgono sotto apparente HP. di regolarità su fϑ e Sn k: * (k(Ĥn)n)n è asintoticamente in media quadratica come stimatore di k(ϑ) ovvero: sono asintoticamente non di stato e varϑ[k(Ĥn)n] -> 0 per ogni n * Per n molto grande k(Ĥn)n è approssimativamente gaussiano N(k(ϑ), σ²(ϑ)/k) dove: σ²(ϑ) = [(k^2(ϑ))^2]/Eϑ[(∂/∂ϑ (ln(fϑ(x1))))^2]
90
**Intervalli di confidenza (I.C.):** **-intervallo di confidenza bilaterale** **-intervallo di confidenza 1-a unilaterale**
Sia X1, ..., Xn campione aleatorio estratto da Fϑ, con ϑ∈R parametro ignoto Sia k caratteristica della popolazione e a ∈ (0,1) **intervallo di confidenza bilaterale:** un intervallo di confidenza bilaterale per la caratteristica di livello 1-a è un intervallo aleatorio (T1, T2) => dove T1 e T2 sono statistiche: * T1 = t1(X1, ..., Xn) * T2 = t2(X1, ..., Xn) t.c. 1-a = Pϑ(T1 > k(ϑ) < T2) per ogni ϑ ammissibile *Oss*: * non ha senso dire K(ϑ) ∈ (t1(X1, ..., Xn), t2(X1, ..., Xn)) con prob 1-a <= non è piu una probab! * si dice invece con confidenza 1-a **intervallo di confidenza 1-a unilaterale:** Nello stesso quadro, un intervallo di confidenza 1-a unilaterale per k, è un intervallo del tipo: (T1, +∞) oppure (-∞, T2) t.c. 1-a = Pϑ(k(ϑ) > T1) oppure 1-a = Pϑ(T2 < k(ϑ))
91
**Metodo quantità pivotale**
Sia X1, ..., Xn campione aleaotorio estratto da Fϑ, con ϑ∈R parametro incognito Sia k caratteristica della popolazione e a∈(0,1) una quantità pivotale è una statistica: Qn = qn(X1, ..., Xn) t.c. la distribuzione di Qn è dipendente da ϑ Dato che FQn è indipendente da ϑ, fissato a => riesco a sceglere q1, q2 ∈ R t.c. 1-a = Pϑ(q1 < Qn < q2) per ogni ϑ Se riesco ad invertitre la disuguaglianza. => q1 < Qn < q2 -> t1(X1, ..., Xn) < k(ϑ) < t2(X1, ..., Xn)
92
**Intervalli di confidenza per media popolazione Gaussiana:** **- a vaianza nota** **- caso varianza non nota**
**Varianza nota:** X1, ..., Xn ~ N(µ, σ²0) dove µ∈R parametro ignoto (µ = ϑ) e σ²0 è noto. Fisso a ∈(0,1) X̅n ~ N(µ, σ²0/n) => X̅n-µ/σ0/√n ~ N(0, 1) per ogni quantità pivotale bilaterale => 1-a = Pµ(-z₍a/2₎ < X̅n-µ/σ0/√n < z₍a/2₎) = Pµ (X̅n - z₍a/2₎σ0/√n < µ < X̅n + z₍a/2₎σ0/√n) unilaterale => 1-a = Pµ(X̅n-µ/σ0/√n < z₍a₎) = Pµ (µ > X̅n - z₍a/2₎σ0/√n) Attenzione => con a fissato e rispetto a n -> ampiezza diminuisce; fissato n e con a che diminuisce => aumenta ampiezza **Varianza NON nota:** X1, ..., Xn ~ N(µ, σ²0) dove ϑ=(µ, σ²0) ∈R parametro ignoto e k(ϑ) = µ X̅n-µ/σ0/√n ~ N(0, 1) per ogni ϑ=(µ, σ²0) Attenzione => non posso fare i passaggi di prima, non conosco σ²0 => quindi uso (S^2)n X̅n-µ/Sn/√n ~ t(n-1) per ogni µ bilaterale => 1-a = P₍µ,σ²0₎(-z₍a/2, n-1₎ < X̅n-µ/Sn/√n < t₍a/2, n-1₎) = P₍µ,σ²0₎ (X̅n - t₍a/2, n-1₎Sn/√n < µ < X̅n + t₍a/2, n-1₎Sn/√n) unilaterale => 1-a = P₍µ,σ²0₎(X̅n-µ/Sn/√n < t₍a, n-1₎) = P₍µ,σ²0₎ (µ > X̅n - t₍a, n-1₎Sn/√n) OSS=> se posso scegliere scelgo il primo
93
**Intervalli di confidenza per varianza di campioni Gaussiana:** **- media non nota** **- media nota**
**Media NON nota:** X1, ..., Xn ~ N(µ, σ²) dove ϑ=(µ, σ²) ∈R parametro ignoto e k(ϑ) = σ² (S^2)n: stimatore di σ² (n-1)(S^2)n / σ² ~ X^2(n-1) per ogni µ,σ² bilaterale=> 1 - a = P₍µ,σ²₎(X^2₍1-a/2, n-1₎ < (n-1)(S^2)n / σ² < X^2₍a/2, n-1₎) = P₍µ,σ²₎((n-1)(S^2)n/X^2₍1-a/2, n-1₎ < σ² < (n-1)(S^2)n/X^2₍a/2, n-1₎) unilaterale=> 1 - a = P₍µ,σ²₎((n-1)(S^2)n / σ² < X^2₍a/2, n-1₎) = P₍µ,σ²₎(σ² < (n-1)(S^2)n/X^2₍a/2, n-1₎) **Media nota** X1, ..., Xn ~ N(µ, σ²) dove ϑ=σ²∈R parametro ignoto e µ è noto σ² = (S^2)0,n = 1/n ∑₍k=1 a n₎ (Xk - µ0)^2 non distorto n(S^2)0,n/σ² ~ X^2(n) Intervalli di confidenza: bilaterale => [n(S^2)0,n/(X^2)a/2,n ;n(S^2)0,n/(X^2)1-a/2,n] unilaterale => [n(S^2)0,n/(X^2)a,n ; +∞] oppure [-∞ ; n(S^2)0,n/(X^2)1-a,n] OSS => se µ0 noto conviene usare (S^2)0,n
94
**Intervalli di confidenza approssimati**
X1, ..., Xn campione aleatorio generico con media µ = ϑ incognita e varianza σ² > 0 nota e nota stimatore X̅n di µ Se n molto grande => uso teorema centrale del limite: (X̅n-µ)/σ/√n≈N(0,1) per ogni µ ∈ R
95
**Intervalli di campionamento per popolazione bernulliana**
X1, ..., Xn ~ B(p), p∈(0,1) è incognito p=E[X1] Stimatore di p := P̂n = X̅n = 1/n ∑Xk Se n è molto grande (campione molto numeroso) => teorema centrale del limite: P̂n ≈ N(p, p(1-p)/n) => normalizzo x trovare una quantità pivotale: (P̂n-p)/√(p(1-p)/n) ≈ N(0,1) per ogni p∈(0,1) => I.C per la p sarà => p ∈ (max{ 0, P̂n - Z₍a/2₎√(P̂n(1-P̂n)/n)}, min{1, P̂n + Z₍a/2₎√(P̂n(1-P̂n)/n)})
96
**Def. ipotesi statica + prop**
**IP. Statica:** Un'ipotesi statica è un'affernaziobe sul paramentro incognito della popolazione **Prop:** * H0 : ϑ ∈ Θ ⊆ R, dove Θ0⊆Θ : ipotesi nulla * H1 : ϑ ∈ Θ ⊆ R, dove Θ1⊆Θ : ipotesi alternativa * H0 ∩ H1 = ∅
97
**Def. Test di ipotesi**
un test di ipotesi è una procedura rigorosa per stabilire se una data realizzazione del campione conferma o meno l'ipotesi statistica **Obiettivo**=> non è dire se l'ipotesi è vera o falsa, ma se i dati confermano o meno
98
**Def. Ipotesi nulla**
L'ipotesi nulla Θ0 si dice: * semplice => se dire che ϑ∈H0 caratterizza Fϑ * composta=> se dire che ϑ∈H0 NON caratterizza Fϑ **ES:** H0: Θ = 1 vs H1:Θ≠1 => semplice H0: Θ ≤ 1 vs H1:Θ>1 => composta
99
**Idea per costruire un test**
* Parto dallo stimatore X̅n di ϑ => Dati: (x1, ..., xn); Stima di ϑ : X̅n * Rifiuto H0 : ϑ = 1 => se |X̅n-1| > k con k>0 soglia arbitratia => la scelgo in modo tale da avere un livello di sicurezza
100
**Def. Regione critica**
La regina critica del test è il sottoinsieme C⊆R* tale per cui rifiuto H0 sse la relazione (x1, ..., xn) ∈ C
101
**Scelta della soglia:** **- Errore di 1^a specie** **- Errore di 2^a specie** **- Livello di significabilità** **- Curva OC** **- Potenza del Test**
**Def =>** l'Errore di 1^a specie, si verifica quando rifiuto H0, quando H0 è vera **Def =>** l'Errore di 2^a specie, si verifica quando accetto H0, quando H0 è falsa Il test è impostato in modo che errore 1^a specie => più grave della 2^a Idea: Fisso a ∈ (0,1) piccolo (a=0,01, a=0,05) e costruisco regione critica Ca in modo che la prob di fare errore di 1^a specie sia ≤ a **Def =>** Dato a ∈ (0,1) il test ha livello di significabilità (almeno) a se: Pϑ((x1, ...,xn) ∈ Ca) ≤ a per ogni ϑ∈Θ0 ovvero: sup Pϑ((x1, ...,xn) ∈ Ca) ≤ a per ogni ϑ∈Θ0 **Def =>** la curva OC del test è la funzione b:Θ -> R data da b(ϑ) = Pϑ(accetto H0) = Pϑ((x1, ...,xn) ∉ Ca) **Def =>** la funzione del test è π:Θ1 -> R => π(ϑ) = 1-b(ϑ) *operativamente:* * fisso a * costruisco test significativo a * calibro n in modo da ridurre errore 2^a specie <= cosi ho test di potenza alta
102
**Test per la media: campioni gaussiani**
X1, ..., Xn iid, N(µ, (σ0)^2), con ϑ = µ appartenente a R e (σ0)^2 fissata e nota **Test Bilaterale:** H0 : µ = µ0 H1 : µ ≠ µ0 Stimatore di µ => X̅n = 1/n ∑Xk Ca={(x1, ..., xn) : |X̅n-µ0| > ka} => con ka > 0 da determinare in modo che la probabilità di errore di 1a specie è a => a = sup₍µ ∈ Θ0₎ Pµ((x1, ..., xn) ∈ Ca) = Pµ0(|X̅n-µ0| > ka) = [ X̅n ~ N(µ0, ((σ0)^2)/n ] = Pµ0(|X̅n-µ0|/σ0/√n > ka/σ0/√n) = 2 Pµ0((X̅n-µ0)/σ0/√n > ka/σ0/√n) => dove a/2 = P(Z>ka/σ0/√n) con Z ~ N(0,1) => Regione critica: Ca ={(x1, ..., xn): |X̅n-µ0|/σ0/√n > Z₍a/2₎} Calcolo P.value: |Z̄|> Z₍a/2₎ <=> φ(|Z̄|) > φ(Z₍a/2₎) = 1 - a/2 => φ(|Z̄|) > 1- a/2 => a > 2(1-φ(|Z̄|)) Curva OC: b(µ) = Pµ(accetto H0) = Pµ(|X̅n-µ0|/σ0/√n < Z₍a/2₎) = φ(Z₍a/2₎ + (µ0-µ)/σ0/√n) - φ(- Z₍a/2₎ + (µ0-µ)/σ0/√n) = 1-a Funzione potenza: Rifiuto H0 se |X̅n-µ0|/σ0/√n ≥ Z₍a/2₎ <=> µ non appartiene a ( X̅n - Z₍a/2₎/σ0/√n, X̅n + Z₍a/2₎/σ0/√n)
103
**P.value**
è una quantitò (0,1) associata ai dati t.c: 1. Per a ≥ p.value => rifiuto H0 2. Per a < p.value => accetto H0
104
**Test unilaterali e bilateriali composti per la media (camoioni gaussiani, con varianza nota)**
X1, ..., Xn campione N(µ, (σ0)^2), con (σ0)^2 > 0 nota e ϑ = µ appartenente a R incognita con: **Unilaterali:** H0 : µ ≤ µ0 H1 : µ > µ0 **Bilaterali:** H0 : µ = µ0 H1 : µ ≠ µ0 (Guarda appunti PAG. 54)
105
**Test unilaterale campioni gaussiani con varianza e valore atteso ingote**
PAG. 54 (fine pagina)
106
**Test di varianzaper campioni Gaussiani**
PAG. 55(inizio)
107
**Campioni Bernulliani bilaterali e unilaterali**
PAG. 55 (fine) e 56 (inizio)
108
**Confronto fra media µx e µy**
PAG. 56
109
**Test x confronto tra varianze**
PAG. 58
110
**Test per coppie di dati**
PAG. 58
111
**Confronto tra parametri bernulliani**
PAG. 59
112
**Test di buon adattamento**
PAG. 59
113
**Test di indipendenza**
PAG. 61