Secondo Parziale Flashcards
(53 cards)
Teorema centrale del limite:
Teorema +
oss-> a cosa equivale?
Sia una successione (Xk)k≥1 dk v.a. indipendenti identicamente distribuite (iid) con valore atteso μ = E[X1] e vairanza σ²=Var[X1]>0:
∀t appartenente R limn→∞ (Xn-μ)/(σ/√n) = limn→∞ P((Xn-μ)/(σ/√n) ≤t) = ∫₍-∞ a t₎ 1/√(2π) e^-((x^2)/2)dx
Oss: Xn ∼ N(μ, σ²/n)
Teorema centrale del limite:
Formulazione equivalente a Xn
Sn = ∑₍k=1 a n₎ Xk da cui ricaviamo Xn(seganto) = Sn/n
Quindi:
* E[Sn] = nµ
* Var[Sn] = nσ²
TCL: Sn ∼ N(nμ, nσ²)
ATTENZIONE: Xn e Sn sono circa gaussiane, indipendentemente dalla distribuzione della Xk
Sn in una binomiale
Siano Xk ∼ B(p) ∀k∈N con p∈(0,1):
Sn:= ∑₍k=1 a n₎ Xk è il numero di teste che esce
TCL => Se n è grande => Sn ∼ N(np, np(1-p))
POISSON => Se n è grande e p piccolo => Sn ∼ P(np)
ATTENZIONE:
Se np>5 e n(1-p) > 5 allora uso la gaussiana, altrimenti la poasson
Valore atteso per vettori e matrice per covarianza + prop
Sia (x1, …,xn):Ω -> R^n un vettore aleatorio t.c. x1, …,xn ammette valore atteso si def: E[Xvettore] = (E[x1], …, E[xn])^T
Nello stesso quadro se x1, …, xn ammette varianza, la matrice di covarianza è (Cx)i,j = (cov(xi,xj))i,j ∀i,j:
Cx= ha sulla diagonale la var[Xij] e sul resto
(cov(xi,xj))i,j
Prop:
* Cx è (simmetrica => cov(xi, xj) = cov(xj, xi)) e semidefinita positiva
* se A ∈ Mat(k,n) e b ∈ R^k => Y = Ax+b e Cy = ACA^T
Vettore Gaussiano Standard + prop
Sia un vettore aleatorio X = (X1, …,Xn) : Ω -> R^n è gaussiana standard se X1, …, Xn sono v.a. gaussiane standard e indipendenti tra loro
Prop:
* E[X] = (0, …,0) ∈ R^n
* cov[X] = matrice identità => X ∼ N(0, Id), con Id= identità
* X è assolutamente continui =>comp. ass. continuo e indipendente con densità => f(x) = 1/(2π)^(n/2) e^(|x|^2/2), x ∈ R^n
Vettore Gaussiano Generico + prop
Sia un vettore aleatorio X = (X1, …,Xn) : Ω -> R^n è gaussiana generico, Z : Ω -> R^n una matrice A ∈ Mat(n,n) e B ∈ R^n t.c. X = AZ+b
Prop:
* E[X] = AE[X]+b = b
* Cx = cov[X] = ACzA^T = AA^T
* non è detto che x sia ass. continuo
* le v.a. costanti sono gaussiane secondo questa def. (le N(0,1) sono costanti)
* se det(A)≠0 => X è assolutamente continua con densità => fx(x) = 1/(det(x))^(1/2) 1/(2π)^(n/2) exp([(x-b^T C^-1(x-b)]/2)
* X è assolutamente continua sse è invertibile
* se X : Ω -> R^n è gaussiana, L ∈ Mat(n,n) e b ∈ R^k => LX+b è gaussiana
* sia X un vettore gaussiano => X1, …, Xn sono indipendenti sse sono scorrelate
Densità condizionata discreta + prop
Ricorda => A,B eventi => P(A|B) = P(A ∩ B)/P(B)
Def:
Siano X,Y v.a. discrete => dato x ∈ Sx con px(X)>0 densità condizionata di y dato X=x la funzione Py|x (Y|X) := P(Y=y|X=x) = P₍X,Y₎(x,y)/P₍X₎(x)
La densità condizionata di Y dato X=x è una funzione P₍Y|X₎ (-|x) : R-> [0,1] che risulta una densità discretà
infatti:
* P₍Y|X₎ (y|x) ≥ 0 ∀y ∈ R
* ∑₍y∈Sy₎ P₍X,Y₎(x,y)/P₍X₎(x) = 1
Prop:
* P₍Y,X₎ (y|x)=P₍Y|X₎ (y|x) px(x) per ogni x,y
* py(y) = ∑P₍Y|X₎ (y|x)px(x) per ogni y
* P₍Y|X₎ (y|x) = P₍Y|X₎ (y|x) P₍X₎ (x)/(∑P₍Y|X₎ (y|x) P₍X₎ (x))
* X e Y indipendenti sse P₍Y|X₎ (y|x) = P₍Y₎ (y)
Valore atteso condizionato discreta + prop
Siano X e Y v.a. discrete definisco il valore atteso condizionato di Y dato X=x:
E[Y|X=x] = ∑₍y∈Sy₎ yP₍y₎P₍Y|X₎(y|x) per ogni x appartenento R con P₍x₎(λ) >0
E[Y|X] = g(x)
Prop:
* siano X e Y v.a. discrete con Y che ammette valore atteso E[Y|X] => E[Y] = E[E[Y|X]]
Densità condizionata continua
Sia (X,Y) un vett.a. a.c. e sia x∈R t.c. fx(x)>0 definiamo Densita condizionata continua di Y dato da X=x fSia (X,Y) un vett.a. a.c. e sia x∈R t.c. fx(x)>0 definiamo Densita condizionata continua di Y dato da X=x
f₍Y|X₎(y|x) = f₍Y|X₎(y|x)/f₍X₎(x), y appartenente a R
Prop:
* ∫₋∞⁺∞ f₍Y|X₎(y|x) dy = 1/fx(x)∫₋∞⁺∞f₍Y|X₎(y|x) dy = 1
* f₍Y|X₎(y|x) =f₍Y|X₎(y|x) fx(x)
* fY(y) = ∫₋∞⁺∞f₍Y|X₎(y|x) fx(x) dx (pb. tot)
* f₍Y|X₎(y|x) =f₍Y|X₎(y|x) fx(x)/(∑f₍Y|X₎(y|x) fx(x)) (bayes)
* X e Y sono indipendenti => f₍Y|X₎(y|x) = fY(y) per ogni y
Legge condizionata Continua
La legge condizionata di Y dato X=x è la misura di probabilità P(Y∈B | X=x) = ∫B f₍Y|X₎(y|x) dy per ogni B⊆R
Valore atteso condizionato continuo
il valore atteso condizionato di Y dato X=x è:
E[Y|X=x] =∫R yf₍Y|X₎(y|x) dy
noto che:
E[Y|X=x] = g(x) dove g(x) = ∫R yf₍Y|X₎(y|x) dy
definisco valore atteso di Y dato X=x la variabile aleatoria E[Y|X=x] = g(x)
Prop:
* se Y ammette valore atteso => E[Y|X] ammette valore attesso e E[Y] = E[E[Y|X]]
Distribuzione Gamma + prop
La funzione gamma di eulero:
Γ : (0,∞) -> R
Γ(z) = ∫0+∞ x^(z-1) e^-x dx, z ≥ 0
Una variabile aleatoria ha distribuzione gamma di parametri a>0 e λ>0 e si scrive X ∼ Γ(a, λ) se x è assolutamente continua con densità:
fx(x) = λ^a / Γ(a) x^(a-1) e^(-λx) 1₍0, +∞₎ (x)
=> Γ(1, λ) = ε(1)
Prop:
* Γ(z+1) = z Γ(z) per ogni z>0
* segue che Γ(z+1) = n! per ogni n appartenente a N
* Γ(1/2) = √π
val. attesso e varianza della distribuzione di gamma + prop
Funzione gen. momenti => mx(t) = E[e^tx] = (λ/(λ-t))^a
Valore atteso => m’x(t) = E[x] = a/λ e m’‘x(t) = E[x^2] = a(a+1)/λ^2
Varianza => var[x] = E[x^2] - E[x]^2 = a/λ^2
Prop:
* se X ∼ Γ(a, λ) e Y ∼ Γ(b, λ) indipendenti => X+Y ∼ Γ(a+b, λ)
* se X∼ Γ(a, λ) e c > 0 => cX ∼ Γ(a, λ/c)
Distribuzione chi-quadro + prop
una variabile aleatoria X ha distribuzione chi-quadro con n gradi di libertà (n∈N+) e si scrive X~X^2(n) se X ~ Γ(n/2, 1/2)
Prop:
* mx(t) = [(1/2)/(1/2 - t)]^n/2
* E[x] = (n/2)/(1/2) = n
* var[x] = (n/2)/(1/4) = 2n
oss => per valore atteso e varianza => le curve di prima a crescere di k si spostano verso +∞
* se X~X^2(n) e Y~X^2(m) indipendenti => X+Y~X^2(n+m)
* se Z~N(0,1) => Z^2~X^2(1)
* se Z1, …, Zn ~ N(0,1) inpendenti => Z1^2+…+Zn^2~X^2(n)
* se Z=(Z1, …, Zn) è vettore gaussiamo standard => |Z^2|~X^2(n)
Distribuzione chi-quadro con quantili
Se X~X^2(n) e a∈(0,1) => il quantile (di coda destro) di X di ordine a è l’ultimo numero reale (X^2)a,n > 0 t.c. a = P(X > (X^2)a,n)
OSS=> per i quantili della X^2(n) NON vale la relazione di simmetria tra (X^2)a,n e (X^2)1-a,n
Distribuzione di T student + prop
una v.a. X ha distribuzione T di student con n gradi di libertà e si scrive X~t(n) se Esiste Z~N(0,1) e Cn~X^2(n) t.c. :
X = Z/√(Cn/n)
Prop:
* X è assolutamente continua e la densità di X è simmetrica rispetto a 0 => X = Z/√(Cn/n) e -X = -Z/√(Cn/n) => dove -Z~N(0,1)
* E[x] = 0
Distribuzione T di student x quantili
se X~t(n) e a∈(0,1) il quantile di X di ordine a è l’ultimo ta,n ∈ R t.c. a = P(x>ta,n)
OSS=> per simmetria -ta,n = t1-a,n
OSS => lim per n -> ∞ ta,n = Za dove Za è il quantile di Z ~ N(0,1)
INFERENZA STATISTICA:
1. Def. Statistica
2. Def. Statistica parametrica
3. Def. Statistica non parametrica
4. Campione aleatorio estratto
Statistica:
Una statistica è una variabile aleatoria della forma d(X1, …,Xn) dove d:R^n -> R^k
Statistica parametrica
Avendo F (F = distribuzione di probabilità) nota, ma non conosco i parametri => F = Fϑ, dove ϑ è il parametro ignoto
Statistica non parametrica
Non conosco ne F ne i parametri
Campione aleatorio estratto
X1, …, Xn campione aleatroio estratto da Fϑ, ϑ ∈ Θ ⊆ R* parametri ammissibili
Media campionaria + LGN + TCL
X̅n = 1/n ∑₍k=1 a n₎ Xk è una statistica
Valore atteso:
E[X̅n] = E[X1] = µ
Varianza:
var[X̅n] = σ²/n
LGN => P(lim per n->∞ X̅n =µ) = 1
TCL => X̅n ≈ N(µ, σ²/n)
Varianza campionaria + prop
X1, …, Xn con media µ e var σ²
=> varianza campionaria:
(S^2)n = 1/(n-1) ∑₍k=1 a n₎ (Xk - X̅n)^2
Oss => metto la stima della media (X̅n) al posto di µ, siccome non lo conosco e siccome ho messo la stima sono obbligato a mettere n-1
Valore Atteso => E[(S^2)n] = σ²
Varianza => var[(S^2)n] = 1/n [µ4 - ((n-3)/(n-1)) σ^4] => µ4 = E[(x-µ)^4]
Prop:
Sia X1, …,Xn campione gaussiano N(µ, σ²):
* X̅n e (S^2)n sono indipendenti
* X̅n ~ N(µ, σ²/n) per ogni n => ovvero (X̅n-µ)/σ/√n~ N(0,1)
* [(n-1)-(S^2)n]/σ² ~ X^2(n-1)
* (X̅n-µ)/Sn/√n ~ t(n-1)
Statistica parametrica + def. caratteristica + def. stimatore
Statistica parametrica:
X1, …, Xn campione aleatorio estratto da Fϑ dove ϑ∈Θ⊆R* è parametro incognito
Def. Caratteristica:
Una caratteristica della popolazione è una funzione k : Θ -> R, con ϑ ->k(ϑ)
Def. Stimatore:
Uno stimatore della caratteristica K è una statistica D^ = d(X1, …, Xn) usata per fare inferenza su K
La stima ottenuta su K(ϑ) in corrispondenza della realizzazione X1, …, Xn del campione è d=(X1, …, Xn)
Oss => lo stimatore pre esperimento è una variabile aleatoria, post è un numero
Indici bontà stimatori + caso discreto + caso continuo
Premessa => D^ non deve dipendere da ϑ
Def => Se lo stimatore D^ della cart K ammette varlore atteso => la distorsione/bias di D^ come stimatore di K è la funzione di bias:
Biasϑ(D^) = E[D^] - k(ϑ), ϑ∈Θ
Caso discreto => Biasϑ(D^) = ∑₍k=1 a n₎ (d(X1, …, Xn) - k(ϑ)) π fϑ(xi)
Caso continuo => Biasϑ(D^) = ∫R^n (d(X1, …, Xn) - k(ϑ)) π fϑ(xi)
Errore quadratico + prop
Se D^ ammette momento secondo => l’errore quadratico medio di D^ come stimatore di K è:
MSEϑ(D^) := E[|D^-k(ϑ)|], ϑ∈Θ
Qui il caso discreto e continuo è come quello dgli indici di bontà degli stimatori
Oss => D^ non può avere errore quadratico = 0
Oss => se parto da MSEϑ e provo a minimizzare MSEϑ tra tutti gli stimatori, non riesco però posso minimizzare MSE tra gli stimatori non di stato
Prop:
* MSEϑ(D^) = Eϑ[|D^-k(ϑ)|^2] = varϑ[D^] + |Biasϑ(D^)|^2
Proprietà asintotiche degli stimatori
Data una successione X1, X2, … indipendente e identicamente distribuita (iid), e ∀n ∈ N, sia D^ = d(X1, …, Xn) stimatore di k(ϑ)
Le successione di stimatori ((D^)n) si dice:
* asinotitcamente stabile => se lim per n->∞ Biasϑ(D^) = 0 ∀n
* debolmente consistente => ∀ε > 0, lim per n->∞ P(|D^-k(ϑ)|>ε ) = 0 ∀ϑ
* consistente in media quadratica => lim n->∞ MSEϑ((D^)n) = 0 ∀ϑ
Oss => se (D^)n è consistente in media quadratica => è debolmente consistente [NON vale il contrario]
Oss => (D^)n è consistente in media quadratica sse:
* (D^)n è asintoticamente non distorto
* var[(D^)n] per n->∞ tende a 0