Secondo Parziale Flashcards

(53 cards)

1
Q

Teorema centrale del limite:
Teorema +
oss-> a cosa equivale?

A

Sia una successione (Xk)k≥1 dk v.a. indipendenti identicamente distribuite (iid) con valore atteso μ = E[X1] e vairanza σ²=Var[X1]>0:
∀t appartenente R limn→∞ (Xn-μ)/(σ/√n) = limn→∞ P((Xn-μ)/(σ/√n) ≤t) = ∫₍-∞ a t₎ 1/√(2π) e^-((x^2)/2)dx

Oss: Xn ∼ N(μ, σ²/n)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Teorema centrale del limite:
Formulazione equivalente a Xn

A

Sn = ∑₍k=1 a n₎ Xk da cui ricaviamo Xn(seganto) = Sn/n
Quindi:
* E[Sn] = nµ
* Var[Sn] = nσ²

TCL: Sn ∼ N(nμ, nσ²)

ATTENZIONE: Xn e Sn sono circa gaussiane, indipendentemente dalla distribuzione della Xk

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Sn in una binomiale

A

Siano Xk ∼ B(p) ∀k∈N con p∈(0,1):
Sn:= ∑₍k=1 a n₎ Xk è il numero di teste che esce

TCL => Se n è grande => Sn ∼ N(np, np(1-p))
POISSON => Se n è grande e p piccolo => Sn ∼ P(np)

ATTENZIONE:
Se np>5 e n(1-p) > 5 allora uso la gaussiana, altrimenti la poasson

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Valore atteso per vettori e matrice per covarianza + prop

A

Sia (x1, …,xn):Ω -> R^n un vettore aleatorio t.c. x1, …,xn ammette valore atteso si def: E[Xvettore] = (E[x1], …, E[xn])^T

Nello stesso quadro se x1, …, xn ammette varianza, la matrice di covarianza è (Cx)i,j = (cov(xi,xj))i,j ∀i,j:
Cx= ha sulla diagonale la var[Xij] e sul resto
(cov(xi,xj))i,j

Prop:
* Cx è (simmetrica => cov(xi, xj) = cov(xj, xi)) e semidefinita positiva
* se A ∈ Mat(k,n) e b ∈ R^k => Y = Ax+b e Cy = ACA^T

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Vettore Gaussiano Standard + prop

A

Sia un vettore aleatorio X = (X1, …,Xn) : Ω -> R^n è gaussiana standard se X1, …, Xn sono v.a. gaussiane standard e indipendenti tra loro

Prop:
* E[X] = (0, …,0) ∈ R^n
* cov[X] = matrice identità => X ∼ N(0, Id), con Id= identità
* X è assolutamente continui =>comp. ass. continuo e indipendente con densità => f(x) = 1/(2π)^(n/2) e^(|x|^2/2), x ∈ R^n

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vettore Gaussiano Generico + prop

A

Sia un vettore aleatorio X = (X1, …,Xn) : Ω -> R^n è gaussiana generico, Z : Ω -> R^n una matrice A ∈ Mat(n,n) e B ∈ R^n t.c. X = AZ+b

Prop:
* E[X] = AE[X]+b = b
* Cx = cov[X] = ACzA^T = AA^T
* non è detto che x sia ass. continuo
* le v.a. costanti sono gaussiane secondo questa def. (le N(0,1) sono costanti)
* se det(A)≠0 => X è assolutamente continua con densità => fx(x) = 1/(det(x))^(1/2) 1/(2π)^(n/2) exp([(x-b^T C^-1(x-b)]/2)
* X è assolutamente continua sse è invertibile
* se X : Ω -> R^n è gaussiana, L ∈ Mat(n,n) e b ∈ R^k => LX+b è gaussiana
* sia X un vettore gaussiano => X1, …, Xn sono indipendenti sse sono scorrelate

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Densità condizionata discreta + prop

A

Ricorda => A,B eventi => P(A|B) = P(A ∩ B)/P(B)

Def:
Siano X,Y v.a. discrete => dato x ∈ Sx con px(X)>0 densità condizionata di y dato X=x la funzione Py|x (Y|X) := P(Y=y|X=x) = P₍X,Y₎(x,y)/P₍X₎(x)
La densità condizionata di Y dato X=x è una funzione P₍Y|X₎ (-|x) : R-> [0,1] che risulta una densità discretà
infatti:
* P₍Y|X₎ (y|x) ≥ 0 ∀y ∈ R
* ∑₍y∈Sy₎ P₍X,Y₎(x,y)/P₍X₎(x) = 1

Prop:
* P₍Y,X₎ (y|x)=P₍Y|X₎ (y|x) px(x) per ogni x,y
* py(y) = ∑P₍Y|X₎ (y|x)px(x) per ogni y
* P₍Y|X₎ (y|x) = P₍Y|X₎ (y|x) P₍X₎ (x)/(∑P₍Y|X₎ (y|x) P₍X₎ (x))
* X e Y indipendenti sse P₍Y|X₎ (y|x) = P₍Y₎ (y)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Valore atteso condizionato discreta + prop

A

Siano X e Y v.a. discrete definisco il valore atteso condizionato di Y dato X=x:
E[Y|X=x] = ∑₍y∈Sy₎ yP₍y₎P₍Y|X₎(y|x) per ogni x appartenento R con P₍x₎(λ) >0
E[Y|X] = g(x)

Prop:
* siano X e Y v.a. discrete con Y che ammette valore atteso E[Y|X] => E[Y] = E[E[Y|X]]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Densità condizionata continua

A

Sia (X,Y) un vett.a. a.c. e sia x∈R t.c. fx(x)>0 definiamo Densita condizionata continua di Y dato da X=x fSia (X,Y) un vett.a. a.c. e sia x∈R t.c. fx(x)>0 definiamo Densita condizionata continua di Y dato da X=x
f₍Y|X₎(y|x) = f₍Y|X₎(y|x)/f₍X₎(x), y appartenente a R

Prop:
* ∫₋∞⁺∞ f₍Y|X₎(y|x) dy = 1/fx(x)∫₋∞⁺∞f₍Y|X₎(y|x) dy = 1
* f₍Y|X₎(y|x) =f₍Y|X₎(y|x) fx(x)
* fY(y) = ∫₋∞⁺∞f₍Y|X₎(y|x) fx(x) dx (pb. tot)
* f₍Y|X₎(y|x) =f₍Y|X₎(y|x) fx(x)/(∑f₍Y|X₎(y|x) fx(x)) (bayes)
* X e Y sono indipendenti => f₍Y|X₎(y|x) = fY(y) per ogni y

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Legge condizionata Continua

A

La legge condizionata di Y dato X=x è la misura di probabilità P(Y∈B | X=x) = ∫B f₍Y|X₎(y|x) dy per ogni B⊆R

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Valore atteso condizionato continuo

A

il valore atteso condizionato di Y dato X=x è:
E[Y|X=x] =∫R yf₍Y|X₎(y|x) dy
noto che:
E[Y|X=x] = g(x) dove g(x) = ∫R yf₍Y|X₎(y|x) dy
definisco valore atteso di Y dato X=x la variabile aleatoria E[Y|X=x] = g(x)

Prop:
* se Y ammette valore atteso => E[Y|X] ammette valore attesso e E[Y] = E[E[Y|X]]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Distribuzione Gamma + prop

A

La funzione gamma di eulero:
Γ : (0,∞) -> R
Γ(z) = ∫0+∞ x^(z-1) e^-x dx, z ≥ 0
Una variabile aleatoria ha distribuzione gamma di parametri a>0 e λ>0 e si scrive X ∼ Γ(a, λ) se x è assolutamente continua con densità:
fx(x) = λ^a / Γ(a) x^(a-1) e^(-λx) 1₍0, +∞₎ (x)
=> Γ(1, λ) = ε(1)

Prop:
* Γ(z+1) = z Γ(z) per ogni z>0
* segue che Γ(z+1) = n! per ogni n appartenente a N
* Γ(1/2) = √π

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

val. attesso e varianza della distribuzione di gamma + prop

A

Funzione gen. momenti => mx(t) = E[e^tx] = (λ/(λ-t))^a
Valore atteso => m’x(t) = E[x] = a/λ e m’‘x(t) = E[x^2] = a(a+1)/λ^2
Varianza => var[x] = E[x^2] - E[x]^2 = a/λ^2

Prop:
* se X ∼ Γ(a, λ) e Y ∼ Γ(b, λ) indipendenti => X+Y ∼ Γ(a+b, λ)
* se X∼ Γ(a, λ) e c > 0 => cX ∼ Γ(a, λ/c)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Distribuzione chi-quadro + prop

A

una variabile aleatoria X ha distribuzione chi-quadro con n gradi di libertà (n∈N+) e si scrive X~X^2(n) se X ~ Γ(n/2, 1/2)

Prop:
* mx(t) = [(1/2)/(1/2 - t)]^n/2
* E[x] = (n/2)/(1/2) = n
* var[x] = (n/2)/(1/4) = 2n
oss => per valore atteso e varianza => le curve di prima a crescere di k si spostano verso +∞
* se X~X^2(n) e Y~X^2(m) indipendenti => X+Y~X^2(n+m)
* se Z~N(0,1) => Z^2~X^2(1)
* se Z1, …, Zn ~ N(0,1) inpendenti => Z1^2+…+Zn^2~X^2(n)
* se Z=(Z1, …, Zn) è vettore gaussiamo standard => |Z^2|~X^2(n)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Distribuzione chi-quadro con quantili

A

Se X~X^2(n) e a∈(0,1) => il quantile (di coda destro) di X di ordine a è l’ultimo numero reale (X^2)a,n > 0 t.c. a = P(X > (X^2)a,n)

OSS=> per i quantili della X^2(n) NON vale la relazione di simmetria tra (X^2)a,n e (X^2)1-a,n

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Distribuzione di T student + prop

A

una v.a. X ha distribuzione T di student con n gradi di libertà e si scrive X~t(n) se Esiste Z~N(0,1) e Cn~X^2(n) t.c. :
X = Z/√(Cn/n)

Prop:
* X è assolutamente continua e la densità di X è simmetrica rispetto a 0 => X = Z/√(Cn/n) e -X = -Z/√(Cn/n) => dove -Z~N(0,1)
* E[x] = 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Distribuzione T di student x quantili

A

se X~t(n) e a∈(0,1) il quantile di X di ordine a è l’ultimo ta,n ∈ R t.c. a = P(x>ta,n)

OSS=> per simmetria -ta,n = t1-a,n
OSS => lim per n -> ∞ ta,n = Za dove Za è il quantile di Z ~ N(0,1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

INFERENZA STATISTICA:
1. Def. Statistica
2. Def. Statistica parametrica
3. Def. Statistica non parametrica
4. Campione aleatorio estratto

A

Statistica:
Una statistica è una variabile aleatoria della forma d(X1, …,Xn) dove d:R^n -> R^k
Statistica parametrica
Avendo F (F = distribuzione di probabilità) nota, ma non conosco i parametri => F = Fϑ, dove ϑ è il parametro ignoto
Statistica non parametrica
Non conosco ne F ne i parametri
Campione aleatorio estratto
X1, …, Xn campione aleatroio estratto da Fϑ, ϑ ∈ Θ ⊆ R* parametri ammissibili

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Media campionaria + LGN + TCL

A

X̅n = 1/n ∑₍k=1 a n₎ Xk è una statistica
Valore atteso:
E[X̅n] = E[X1] = µ
Varianza:
var[X̅n] = σ²/n

LGN => P(lim per n->∞ X̅n =µ) = 1
TCL => X̅n ≈ N(µ, σ²/n)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Varianza campionaria + prop

A

X1, …, Xn con media µ e var σ²
=> varianza campionaria:
(S^2)n = 1/(n-1) ∑₍k=1 a n₎ (Xk - X̅n)^2
Oss => metto la stima della media (X̅n) al posto di µ, siccome non lo conosco e siccome ho messo la stima sono obbligato a mettere n-1

Valore Atteso => E[(S^2)n] = σ²
Varianza => var[(S^2)n] = 1/n [µ4 - ((n-3)/(n-1)) σ^4] => µ4 = E[(x-µ)^4]

Prop:
Sia X1, …,Xn campione gaussiano N(µ, σ²):
* X̅n e (S^2)n sono indipendenti
* X̅n ~ N(µ, σ²/n) per ogni n => ovvero (X̅n-µ)/σ/√n~ N(0,1)
* [(n-1)-(S^2)n]/σ² ~ X^2(n-1)
* (X̅n-µ)/Sn/√n ~ t(n-1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Statistica parametrica + def. caratteristica + def. stimatore

A

Statistica parametrica:
X1, …, Xn campione aleatorio estratto da Fϑ dove ϑ∈Θ⊆R* è parametro incognito
Def. Caratteristica:
Una caratteristica della popolazione è una funzione k : Θ -> R, con ϑ ->k(ϑ)
Def. Stimatore:
Uno stimatore della caratteristica K è una statistica D^ = d(X1, …, Xn) usata per fare inferenza su K
La stima ottenuta su K(ϑ) in corrispondenza della realizzazione X1, …, Xn del campione è d=(X1, …, Xn)
Oss => lo stimatore pre esperimento è una variabile aleatoria, post è un numero

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Indici bontà stimatori + caso discreto + caso continuo

A

Premessa => D^ non deve dipendere da ϑ
Def => Se lo stimatore D^ della cart K ammette varlore atteso => la distorsione/bias di D^ come stimatore di K è la funzione di bias:
Biasϑ(D^) = E[D^] - k(ϑ), ϑ∈Θ

Caso discreto => Biasϑ(D^) = ∑₍k=1 a n₎ (d(X1, …, Xn) - k(ϑ)) π fϑ(xi)
Caso continuo => Biasϑ(D^) = ∫R^n (d(X1, …, Xn) - k(ϑ)) π fϑ(xi)

23
Q

Errore quadratico + prop

A

Se D^ ammette momento secondo => l’errore quadratico medio di D^ come stimatore di K è:
MSEϑ(D^) := E[|D^-k(ϑ)|], ϑ∈Θ

Qui il caso discreto e continuo è come quello dgli indici di bontà degli stimatori

Oss => D^ non può avere errore quadratico = 0
Oss => se parto da MSEϑ e provo a minimizzare MSEϑ tra tutti gli stimatori, non riesco però posso minimizzare MSE tra gli stimatori non di stato

Prop:
* MSEϑ(D^) = Eϑ[|D^-k(ϑ)|^2] = varϑ[D^] + |Biasϑ(D^)|^2

24
Q

Proprietà asintotiche degli stimatori

A

Data una successione X1, X2, … indipendente e identicamente distribuita (iid), e ∀n ∈ N, sia D^ = d(X1, …, Xn) stimatore di k(ϑ)

Le successione di stimatori ((D^)n) si dice:
* asinotitcamente stabile => se lim per n->∞ Biasϑ(D^) = 0 ∀n
* debolmente consistente => ∀ε > 0, lim per n->∞ P(|D^-k(ϑ)|>ε ) = 0 ∀ϑ
* consistente in media quadratica => lim n->∞ MSEϑ((D^)n) = 0 ∀ϑ

Oss => se (D^)n è consistente in media quadratica => è debolmente consistente [NON vale il contrario]

Oss => (D^)n è consistente in media quadratica sse:
* (D^)n è asintoticamente non distorto
* var[(D^)n] per n->∞ tende a 0

25
**Valore atteso e varianza Media campionaria**
**Valore atteso** => E[X̅n] = µ ∀n∈N => X̅n è non distorta ∀n **Varianza** => var[X̅n] = σ²/n
26
**Valore atteso e varianza della varianza campionaria**
**Valore atteso** => E[(S^2)n] = σ² => è simmetricamente non distorata di σ² per ogni n **Varianza** => var[(S^2)n] = 1/n [µ4 - ((n-3)/(n-1)) σ^4]
27
**Metodo dei momenti**
X1, ..., Xn campioni estratti da Fϑ, ϑ=(ϑ1, ..., ϑn)∈R^k X1 ha momento di ordine k: µ1 = E[X1], µ2 = E[X2] ... Voglio costruire un sistema Ĥ1, Ĥ2, ..., Ĥk di ϑ1, ..., ϑk in questo modo: [sistema:] * 1/n ∑₍i = 1 a n₎ Xi = µ1(ϑ1, ..., ϑn) * ... * 1/n ∑₍i = 1 a n₎ (X^k)i = µk(ϑ1, ..., ϑn) Dove vedo (ϑ1, ..., ϑk) come incognite del sistema Da qui ricavo la soluzione: * ϑ1 = d1(X1, ..., Xn) * ... * ϑk = dk(X1, ..., Xn)
28
**Metodo di massima somiglianza:** **- Funzione di verosomiglianza** **- stima massimizzazione di verosomiglianza** **- stimatore di max_verosomiglianza**
Il campione è X1, ..., Xn estratto da fϑ, ϑ ∈ Θ ⊆ R* parametro incognito **funzione di verosomiglianza:** Sia (X1, ..., Xn) un relazione del campione t.c. fϑ(xi)>0 per ogni i=1,...,n allora la funzione di verosomiglianza è la funzione f : Θ -> R dato da: L(ϑ) = ∏₍i = 1 a n₎ fϑ(xi) **stima di massimizzazione di verosomiglianza:** La stima di massimizzazione di verosmiglianza di ϑ in corrispondenza della realizzazione di (X1, ..., Xn), è la quantità: tn(x1, ..., xn) := angmaxL(ϑ) => punto di massimo * caso discreto => L(ϑ) = Pϑ(X1=x1, ...,Xn=xn) * caso continuo => L(ϑ) = ∏₍i = 1 a n₎fϑ(xi) ≠Pϑ(X1=x1, ...,Xn=xn) **stimatore di max_verosomiglianza:** lo stimatore di max_verosomiglianza è: Ĥ := tn(X1, ..., Xn) => detto *MLE*
29
**Teo. Proprietà asintotiche dello stimatore di max_verosomiglianza**
Sia X1, ..., Xn campione aleatorio estratto da fϑ, sia (Ĥn)n successione di stimatori di ϑ Sia (k(Ĥn)n)n la successione di MLE di k Allora valgono sotto apparente HP. di regolarità su fϑ e Sn k: * (k(Ĥn)n)n è asintoticamente in media quadratica come stimatore di k(ϑ) ovvero: sono asintoticamente non di stato e varϑ[k(Ĥn)n] -> 0 per ogni n * Per n molto grande k(Ĥn)n è approssimativamente gaussiano N(k(ϑ), σ²(ϑ)/k) dove: σ²(ϑ) = [(k^2(ϑ))^2]/Eϑ[(∂/∂ϑ (ln(fϑ(x1))))^2]
30
**Intervalli di confidenza (I.C.):** **-intervallo di confidenza bilaterale** **-intervallo di confidenza 1-a unilaterale**
Sia X1, ..., Xn campione aleatorio estratto da Fϑ, con ϑ∈R parametro ignoto Sia k caratteristica della popolazione e a ∈ (0,1) **intervallo di confidenza bilaterale:** un intervallo di confidenza bilaterale per la caratteristica di livello 1-a è un intervallo aleatorio (T1, T2) => dove T1 e T2 sono statistiche: * T1 = t1(X1, ..., Xn) * T2 = t2(X1, ..., Xn) t.c. 1-a = Pϑ(T1 > k(ϑ) < T2) per ogni ϑ ammissibile *Oss*: * non ha senso dire K(ϑ) ∈ (t1(X1, ..., Xn), t2(X1, ..., Xn)) con prob 1-a <= non è piu una probab! * si dice invece con confidenza 1-a **intervallo di confidenza 1-a unilaterale:** Nello stesso quadro, un intervallo di confidenza 1-a unilaterale per k, è un intervallo del tipo: (T1, +∞) oppure (-∞, T2) t.c. 1-a = Pϑ(k(ϑ) > T1) oppure 1-a = Pϑ(T2 < k(ϑ))
31
**Metodo quantità pivotale**
Sia X1, ..., Xn campione aleaotorio estratto da Fϑ, con ϑ∈R parametro incognito Sia k caratteristica della popolazione e a∈(0,1) una quantità pivotale è una statistica: Qn = qn(X1, ..., Xn) t.c. la distribuzione di Qn è dipendente da ϑ Dato che FQn è indipendente da ϑ, fissato a => riesco a sceglere q1, q2 ∈ R t.c. 1-a = Pϑ(q1 < Qn < q2) per ogni ϑ Se riesco ad invertitre la disuguaglianza. => q1 < Qn < q2 -> t1(X1, ..., Xn) < k(ϑ) < t2(X1, ..., Xn)
32
**Intervalli di confidenza per media popolazione Gaussiana:** **- a vaianza nota** **- caso varianza non nota**
**Varianza nota:** X1, ..., Xn ~ N(µ, σ²0) dove µ∈R parametro ignoto (µ = ϑ) e σ²0 è noto. Fisso a ∈(0,1) X̅n ~ N(µ, σ²0/n) => X̅n-µ/σ0/√n ~ N(0, 1) per ogni quantità pivotale bilaterale => 1-a = Pµ(-z₍a/2₎ < X̅n-µ/σ0/√n < z₍a/2₎) = Pµ (X̅n - z₍a/2₎σ0/√n < µ < X̅n + z₍a/2₎σ0/√n) unilaterale => 1-a = Pµ(X̅n-µ/σ0/√n < z₍a₎) = Pµ (µ > X̅n - z₍a/2₎σ0/√n) Attenzione => con a fissato e rispetto a n -> ampiezza diminuisce; fissato n e con a che diminuisce => aumenta ampiezza **Varianza NON nota:** X1, ..., Xn ~ N(µ, σ²0) dove ϑ=(µ, σ²0) ∈R parametro ignoto e k(ϑ) = µ X̅n-µ/σ0/√n ~ N(0, 1) per ogni ϑ=(µ, σ²0) Attenzione => non posso fare i passaggi di prima, non conosco σ²0 => quindi uso (S^2)n X̅n-µ/Sn/√n ~ t(n-1) per ogni µ bilaterale => 1-a = P₍µ,σ²0₎(-z₍a/2, n-1₎ < X̅n-µ/Sn/√n < t₍a/2, n-1₎) = P₍µ,σ²0₎ (X̅n - t₍a/2, n-1₎Sn/√n < µ < X̅n + t₍a/2, n-1₎Sn/√n) unilaterale => 1-a = P₍µ,σ²0₎(X̅n-µ/Sn/√n < t₍a, n-1₎) = P₍µ,σ²0₎ (µ > X̅n - t₍a, n-1₎Sn/√n) OSS=> se posso scegliere scelgo il primo
33
**Intervalli di confidenza per varianza di campioni Gaussiana:** **- media non nota** **- media nota**
**Media NON nota:** X1, ..., Xn ~ N(µ, σ²) dove ϑ=(µ, σ²) ∈R parametro ignoto e k(ϑ) = σ² (S^2)n: stimatore di σ² (n-1)(S^2)n / σ² ~ X^2(n-1) per ogni µ,σ² bilaterale=> 1 - a = P₍µ,σ²₎(X^2₍1-a/2, n-1₎ < (n-1)(S^2)n / σ² < X^2₍a/2, n-1₎) = P₍µ,σ²₎((n-1)(S^2)n/X^2₍1-a/2, n-1₎ < σ² < (n-1)(S^2)n/X^2₍a/2, n-1₎) unilaterale=> 1 - a = P₍µ,σ²₎((n-1)(S^2)n / σ² < X^2₍a/2, n-1₎) = P₍µ,σ²₎(σ² < (n-1)(S^2)n/X^2₍a/2, n-1₎) **Media nota** X1, ..., Xn ~ N(µ, σ²) dove ϑ=σ²∈R parametro ignoto e µ è noto σ² = (S^2)0,n = 1/n ∑₍k=1 a n₎ (Xk - µ0)^2 non distorto n(S^2)0,n/σ² ~ X^2(n) Intervalli di confidenza: bilaterale => [n(S^2)0,n/(X^2)a/2,n ;n(S^2)0,n/(X^2)1-a/2,n] unilaterale => [n(S^2)0,n/(X^2)a,n ; +∞] oppure [-∞ ; n(S^2)0,n/(X^2)1-a,n] OSS => se µ0 noto conviene usare (S^2)0,n
34
**Intervalli di confidenza approssimati**
X1, ..., Xn campione aleatorio generico con media µ = ϑ incognita e varianza σ² > 0 nota e nota stimatore X̅n di µ Se n molto grande => uso teorema centrale del limite: (X̅n-µ)/σ/√n≈N(0,1) per ogni µ ∈ R
35
**Intervalli di campionamento per popolazione bernulliana**
X1, ..., Xn ~ B(p), p∈(0,1) è incognito p=E[X1] Stimatore di p := P̂n = X̅n = 1/n ∑Xk Se n è molto grande (campione molto numeroso) => teorema centrale del limite: P̂n ≈ N(p, p(1-p)/n) => normalizzo x trovare una quantità pivotale: (P̂n-p)/√(p(1-p)/n) ≈ N(0,1) per ogni p∈(0,1) => I.C per la p sarà => p ∈ (max{ 0, P̂n - Z₍a/2₎√(P̂n(1-P̂n)/n)}, min{1, P̂n + Z₍a/2₎√(P̂n(1-P̂n)/n)})
36
**Def. ipotesi statica + prop**
**IP. Statica:** Un'ipotesi statica è un'affernaziobe sul paramentro incognito della popolazione **Prop:** * H0 : ϑ ∈ Θ ⊆ R, dove Θ0⊆Θ : ipotesi nulla * H1 : ϑ ∈ Θ ⊆ R, dove Θ1⊆Θ : ipotesi alternativa * H0 ∩ H1 = ∅
37
**Def. Test di ipotesi**
un test di ipotesi è una procedura rigorosa per stabilire se una data realizzazione del campione conferma o meno l'ipotesi statistica **Obiettivo**=> non è dire se l'ipotesi è vera o falsa, ma se i dati confermano o meno
38
**Def. Ipotesi nulla**
L'ipotesi nulla Θ0 si dice: * semplice => se dire che ϑ∈H0 caratterizza Fϑ * composta=> se dire che ϑ∈H0 NON caratterizza Fϑ **ES:** H0: Θ = 1 vs H1:Θ≠1 => semplice H0: Θ ≤ 1 vs H1:Θ>1 => composta
39
**Idea per costruire un test**
* Parto dallo stimatore X̅n di ϑ => Dati: (x1, ..., xn); Stima di ϑ : X̅n * Rifiuto H0 : ϑ = 1 => se |X̅n-1| > k con k>0 soglia arbitratia => la scelgo in modo tale da avere un livello di sicurezza
40
**Def. Regione critica**
La regina critica del test è il sottoinsieme C⊆R* tale per cui rifiuto H0 sse la relazione (x1, ..., xn) ∈ C
41
**Scelta della soglia:** **- Errore di 1^a specie** **- Errore di 2^a specie** **- Livello di significabilità** **- Curva OC** **- Potenza del Test**
**Def =>** l'Errore di 1^a specie, si verifica quando rifiuto H0, quando H0 è vera **Def =>** l'Errore di 2^a specie, si verifica quando accetto H0, quando H0 è falsa Il test è impostato in modo che errore 1^a specie => più grave della 2^a Idea: Fisso a ∈ (0,1) piccolo (a=0,01, a=0,05) e costruisco regione critica Ca in modo che la prob di fare errore di 1^a specie sia ≤ a **Def =>** Dato a ∈ (0,1) il test ha livello di significabilità (almeno) a se: Pϑ((x1, ...,xn) ∈ Ca) ≤ a per ogni ϑ∈Θ0 ovvero: sup Pϑ((x1, ...,xn) ∈ Ca) ≤ a per ogni ϑ∈Θ0 **Def =>** la curva OC del test è la funzione b:Θ -> R data da b(ϑ) = Pϑ(accetto H0) = Pϑ((x1, ...,xn) ∉ Ca) **Def =>** la funzione del test è π:Θ1 -> R => π(ϑ) = 1-b(ϑ) *operativamente:* * fisso a * costruisco test significativo a * calibro n in modo da ridurre errore 2^a specie <= cosi ho test di potenza alta
42
**Test per la media: campioni gaussiani**
X1, ..., Xn iid, N(µ, (σ0)^2), con ϑ = µ appartenente a R e (σ0)^2 fissata e nota **Test Bilaterale:** H0 : µ = µ0 H1 : µ ≠ µ0 Stimatore di µ => X̅n = 1/n ∑Xk Ca={(x1, ..., xn) : |X̅n-µ0| > ka} => con ka > 0 da determinare in modo che la probabilità di errore di 1a specie è a => a = sup₍µ ∈ Θ0₎ Pµ((x1, ..., xn) ∈ Ca) = Pµ0(|X̅n-µ0| > ka) = [ X̅n ~ N(µ0, ((σ0)^2)/n ] = Pµ0(|X̅n-µ0|/σ0/√n > ka/σ0/√n) = 2 Pµ0((X̅n-µ0)/σ0/√n > ka/σ0/√n) => dove a/2 = P(Z>ka/σ0/√n) con Z ~ N(0,1) => Regione critica: Ca ={(x1, ..., xn): |X̅n-µ0|/σ0/√n > Z₍a/2₎} Calcolo P.value: |Z̄|> Z₍a/2₎ <=> φ(|Z̄|) > φ(Z₍a/2₎) = 1 - a/2 => φ(|Z̄|) > 1- a/2 => a > 2(1-φ(|Z̄|)) Curva OC: b(µ) = Pµ(accetto H0) = Pµ(|X̅n-µ0|/σ0/√n < Z₍a/2₎) = φ(Z₍a/2₎ + (µ0-µ)/σ0/√n) - φ(- Z₍a/2₎ + (µ0-µ)/σ0/√n) = 1-a Funzione potenza: Rifiuto H0 se |X̅n-µ0|/σ0/√n ≥ Z₍a/2₎ <=> µ non appartiene a ( X̅n - Z₍a/2₎/σ0/√n, X̅n + Z₍a/2₎/σ0/√n)
43
**P.value**
è una quantitò (0,1) associata ai dati t.c: 1. Per a ≥ p.value => rifiuto H0 2. Per a < p.value => accetto H0
44
**Test unilaterali e bilateriali composti per la media (camoioni gaussiani, con varianza nota)**
X1, ..., Xn campione N(µ, (σ0)^2), con (σ0)^2 > 0 nota e ϑ = µ appartenente a R incognita con: **Unilaterali:** H0 : µ ≤ µ0 H1 : µ > µ0 **Bilaterali:** H0 : µ = µ0 H1 : µ ≠ µ0 (Guarda appunti PAG. 54)
45
**Test unilaterale campioni gaussiani con varianza e valore atteso ingote**
PAG. 54 (fine pagina)
46
**Test di varianzaper campioni Gaussiani**
PAG. 55(inizio)
47
**Campioni Bernulliani bilaterali e unilaterali**
PAG. 55 (fine) e 56 (inizio)
48
**Confronto fra media µx e µy**
PAG. 56
49
**Test x confronto tra varianze**
PAG. 58
50
**Test per coppie di dati**
PAG. 58
51
**Confronto tra parametri bernulliani**
PAG. 59
52
**Test di buon adattamento**
PAG. 59
53
**Test di indipendenza**
PAG. 61