Proba đŸ’žđŸ˜ŽđŸ€“đŸ€˜đŸŒ Flashcards Preview

Maths > Proba đŸ’žđŸ˜ŽđŸ€“đŸ€˜đŸŒ > Flashcards

Flashcards in Proba đŸ’žđŸ˜ŽđŸ€“đŸ€˜đŸŒ Deck (74)
Loading flashcards...
1
Q

Definition - Ă©venement

A

Un evenement est une propriĂ©tĂ© portant sur le resultat d’une experience aleatoire

2
Q

Definition - Evenement élémentaire

A

On appelle eenement elementaire tt singleton inclu dans ♎

3
Q

Definition - evenement contraire, conjonction, disjonction

A

Si A est un evenement, son evenement contraire est son complementaire. On le notera _A et on ne nommera “non A”. Si A et B sont deux evenements, on def les elements “A et B” et “A ou B” correspondant respectivement a AInterB et AUB

4
Q

L’evenemet impossible

A

L’ensemble vide

5
Q

Definition - Evenement incombatible

A

Deux evenements sont incompatibles s’ils sont disjoints

6
Q

Définition - Probabilité

A

Une probabilitr sur un univers fini ♎ est une application P de P(♎) dans [0,1] telle que P(♎)=1 et pour toutes parties disjointes A et B
P(AUB)=P(A)+P(B)
On dit alors que le couple (♎,P) est un univers probabilisĂ© fini

7
Q

Propriétés des probabilités

A

1/ pt evenement A, P(_A)=1-P(A)
2/ pt A1,
,An deux a deux incompatibles : P(UAi)=som(1,n)P(Ai)
3/ pt A et B : P(AUB)=P(A)+P(B)-P(AInterB)
4/ P est une application croisdante (Pour l’ordre d’inclusion dans P(♎) et l’ordre usuel dans [0,1] ie pt A,B: ACB implique P(A) inf P(B)
5/ P(Ø)=0

8
Q

Definition - Systeme complet d’evenement

A

On appelle systeme complet d’evenements tt ensemble d’evenements deux a deux incompatibles dont la reunion est egale a ♎

9
Q

Formule des probabilités totales

A

Soit A1,
,An un systeme complet d’evenements, pt evenement B : P(B) = som(1,n) P(BInterAi)

10
Q

Probabilité uniforme

A

On appelle proba uniforme sur ♎ la proba telle que tout evenement elementaire ait une proba de 1/card(♎)

Donc si P est la proba uniforme et A un evenement, on a P(A)=card(A)/card(♎)

11
Q

Definition - Probabilité conditionnelles

A

Soit A et B deux evenements. On suppose aue P(B) sup 0, (on dira que l’on peut conditionner par B). On appelle probabilitĂ© (conditionnelle) de A sachant B et onnote PB(A) ou P(A|B) le reel P(AinterB)/P(B)

12
Q

On ne confondra pas

A

La probabilité que A se realise sachant que B est realisé et la probabilité que les evenements A et B se realisent

13
Q

Formule des probabilités composées

A

Soit A1,
,An des evenements tq P(A1inter
interAn-1)diff 0
On a P(A1inter
interAn)=P(A1)P(A2|A1)P(A3|A1interA2)
P(An|A1inter
interAn-1)

14
Q

Premiere formule de Bayes

A

Si A et B sont deux evenements tq P(A) sup 0 et P(B) sup 0 alors
P(A|B)=P(B|A)P(A)/P(B)

Cette formule est interessente dans la mesure ou elle permet de “remonter le temps”

15
Q

Seconde formule de Bayes

A

Si (Ai) est un systeme complet d’evenements de probabilitĂ©s non nulles et si B est un evenement de probabilitĂ© non nulle, alors
P(Aj|B)=P(BinterAj)P(Aj)/som(1,n)P(BinterAi)P(Ai)

16
Q

Definition - couple d’evenements independants

A

Soit (A,B) un couple d’evenements. On dit que (A,B) est un couple d’evenements independants (ou que A et B) sont independants si P(AinterB)=P(A)P(B)

17
Q

Independance de deux evenements

A
  • A et B sont independants ssi _A et B sont independants
  • il n’y a donc pas de lien entre independance et incompatibilitĂ©. Cependant deux evenements incompatibles sont independants ssi l’un (au moins) est de probabilitĂ© nulle
  • Si par exemple P(B)diff0 alrs l’independance de A et B equivaut a ce que P(A|B)=P(A) cela signifie que la realisation (ou non) de de B n’influe en rien sur celle de A
18
Q

Definition - Independance de n evenements

A

Soit (A1,
,An) une famille de n evenements. On dit que (A1,
,An) est une famille d’evenements (mutuellement) independants (ou que les evenements A1,
,An) sont (mutuellement) independants si pour toute partie I de [|1,n|] P(Inter i€I Ai) = prod (i€I) P(Ai)

Pb si il existe j tq P(Aj)=0 d’ou les parties

19
Q

Definition - Variable aleatoire discrĂšte

A

Etant donnés un ensemble E un un espace probabilisé (Oméga,A,P), une variable aléatoire discrÚte (en abréré v.a ou v.a.d) définit sur Oméga est une application X de Oméga dans E telle que :
-X(Oméga) soit fini ou dénombrable
-Pour tout x de X(OmĂ©ga), X-1({x}) appartient a A. L’évĂ©nement X-1({x}) sera notĂ© (X=x)
Lorsque E = R on dit que la variable aléatoire est réel
On a : (X=x)=X-1({x})={w de Oméga, X(w)=x}
X confĂšre naturellement a E une structure d’espace probabilisĂ©

20
Q

Definition - Support et atome

A

On appelle support de X son image X(♎). Les evenements x du support tels que P(X=x)sup0 dont appelĂ©s atomes de la variable aleatoire X

21
Q

Definition - Loi d’une variable aleatoire

A
Pour tout x de X(Oméga) notons : 
px  = P(X-1({x}))=P({wdeOméga, X(w)=x})
La famille (px)xdeX(Oméga) définit une probabilité Px sur X(Oméga) appelé loi de la variable aléatoire X. On dit que X suit la loi de Px. En fait, on étend sans difficulté cette proba sur (E,P(E)) en posant pour toute partie A de E. Px(A)=P({w de Oméga, X(w) appartient a A}) = Px(AnW(Oméga)) on notera X~Y lorsque X et Y suivent la meme loi, et X~L lorsque X suit L
22
Q

Rq sur Px

A

L’application Px (qui est une proba sur X(♎) ou meme sur E) est determinĂ©r par la donnĂ©e des P(X=x) ou x est ds X(♎) (qui forme un SCE)
Recuproquement pour tte donnĂ©e d’un ensemble fini {x1,
,xn} de cardinal n et de reels {p1,
,pn} positifs ou nuls de somme 1 il existe une variable aleatoire de support {x1,
,xn} et de loi donnĂ©e par P(X=xi) = pi pour i de [|1,n|]

23
Q

Definition- image d’une variable aleatoire par une fonction

A

Etant donné une fonction f:E dans F , foX est une variable aleatoire a valeurs dans F notée f(X)

Dans ce contexte, la loi associĂ© a f(X) est Pf(X) : P(F) dans [0,1] qui a A associe P(X€ f^-1 (A))

24
Q

Definition - Loi uniforme

A

On dit que X suit une loi uniforme sur un ensemble fini {x1,
,xn} de card n di Px(xk) = 1/n pt k

25
Q

Definition - loi de Bernouilli

A

On dit que X suit la loi de Bernouilli de parametre p € [0,1] si elle est de support {0,1}, que P(X=1)=p et P(X=0)=1-p cette loi est notĂ©e B(p)

26
Q

Definition - Loi binomiale

A

On dit que X suit la loi binomiale de parametre n de N* et p de [0,1] si son support est [|0,n|] et si pt k de [|0,n|] P(X=k)=(k parmi n) p^k (1-p)^n-k
O note B(p,n) cette loi

27
Q

Definition - Loi conjointe, loi marginales de (X,Y)

A

On appelle loi conjointe de (X,Y) et on note P(x,y) l’application donnĂ© par :
Pt(x,y) de ExF Px,y(x,y)=P(X=x et Y=y)
Px et Py dont appelés lois marginales de (X,Y)
La loi marginale de X est obtenue en sommant les colonne (ou les lignes) du tableau des lois marginales.
(Loi marginales ne donnent pas les loi conjointes car on a m+n Ă©quations pour mn inconnues)

28
Q

Definition - loi conditionnelle de Y sachant (X=x)

A

Soit x de X(♎) on suppose P(X=x) sup 0. On appelle loi conditionnelle de Y sachant X=x l’application donnĂ©e par P(Y=y|X=x) = P(X=x et Y=y)/P(X=x) = P(X,Y)(x,y)/PX(x)

29
Q

Definition - Couple de variables aléatoires indépendantes

A

On dit que les variables X et Y sont independantes si pour tout (x,y) de X(♎)xY(♎)
P((X,Y)=(x,y)) = P(X=x)P(Y=y)

30
Q

Definition - variables aleatoires mutuellement indépendantes

A

On dit que les variables aleatoires X1,
,Xn sont mutuellement independantes si pour tout (xi) € X1(♎)x
xXn(♎) on a :
P(X1=x1, 
 , Xn=xn) = prod (1,n)P(Xi=xi)
On dit que les va Xi ou i de I sont mutuellement indépendantes si pour toute partie finie F de I, les va Xi, ideF, le sont.
Dans le cas ou toutes ces variables aleatoires soit en outre de meme loi, on dira que ce sont des variables aleatoires independantes identiquement distribuées

31
Q

Variable mutuellement independantes

A

Si X1,
,Xn sont des VAMI alors pt (A1,
,An) de prod (1,n)P(Xi(♎)) les evenemets (Xi€Ai) sont mutuellements independants

32
Q

Fonctions de variables independantes

A

Si X et Y sont independant, alors les variables aleatoires f(X) et g(Y) le sont aussi

33
Q

Definition - Univers

A

L’endemble des issues, resultats possibles, realisation, d’une experience aleatoire est appelĂ© univers

34
Q

Definition - Esperance

A

On appelle esperance (ou moyenne) de X et on note E(X) le reel E(X) = som(1,n)xiP(X=xi) la variable aleatoire X est dite centrée si son esperance est nulle
En fait, l’esperance ne depend que de la loi que X suit, on aurait pu parler d’esperance d’une loi mais ca n’est pas ce que l’usage a retenu.
E(X) s’interprete comme la moyenne des valeurs prises par X pondĂ©rĂ©es par leurs probabilitĂ©s d’apparition. Dans le cad d’une variable aleatoire equidistribuĂ©, la moyenne qu’on connait

35
Q

PropriĂ©tĂ© de l’esperance

A

1/ linearitĂ©, l’esperance est une forme lineaire et l’ensemble L1(OmĂ©ga,R) des va admettant une espĂ©rance est un R espace vectoriel.
2/ positivité : si X sup 0 alors E(X) sup 0
3/croissance : l’esperence est une fonction croissante ie si X inf Y alors E(X) inf E(Y)
4/ |E(X)| inf E(|X|)
5) si |Z| inf X alors Z est d’espĂ©rance finie

36
Q

Formule de transfert

A

soit X une variable aleatoire definie sur ♎ a valeurs dans E. Et f une fonction definie sur X(♎) a valeurs dans R. On a alors E(f(X)) = som (xâ‚Źâ™Žïž) f(x)P(X=x)

37
Q

Inegalité de Markov

A

Pour tt epsilon sup 0

On a P(|X|supepsilon) inf E(|X|)/epsilon

38
Q

Esperance d’un produit de VA independantes

A

On suppose ici que X et Y sont independantes, on a alors :

E(XY)=E(X)E(Y)

39
Q

Definition - Moment d’une VAR

A

Pt k de N. Si X^k admet une espĂ©rance finie, alors on appelle moment d’ordre k de X le reel E(X^k)

40
Q

Definition -Variance , ecart-type

A

Lorsque X admet un moment d’ordre 2, on appelle variance de X et on note V(X) le reel positif E((X-E(X))^2) on appelle ecart type de X et on note sigma(X) le reel positif (V(X))^1/2 on dit que X est reduite si elle est de variance 1
La variance est un indicateur de dispersion, et E et V n’ont pas la meme dimension, si X en m, alors E en m et V en mÂČ

41
Q

Formule pour la variance

A

1/ formule de Koenig V(X)=E(X^2) - E(X)^2

2/ pt reels a et b, V(aX+b) = a^2V(X)

42
Q

Definition - VA centrée reduite associée a une VA

A

On suppose que sigma (X) sup 0 et que X admet un moment d’ordre 2. La variable aleatoire (X-E(X))/sigma(X) est alors appelĂ© variable aleatoire centrĂ©e reduite associĂ© a X

43
Q

Inegalité de Bienaymé-Tchebychev

A

Soit epsilon sup 0, on a P((|X-E(X)|) sup epsilon) inf V(X)/epsilon^2

44
Q

Definition - Covariance

A

On appelle covariance fe X et de Y et onnote Cov (X,Y) le scalaire E((X-E(X))(Y-E(Y))

Cov(X,X)=V(X)

45
Q

Formule de covariance

A

On a Cov(X,Y)=E(XY)-E(X)E(Y)

46
Q

Variance d’une somme

A

1/V(X+Y)=V(X)+V(Y)+2cov(X,Y)

2/ en particulier si X et Y sont independantes V(X+Y)=V(X)+V(Y)

47
Q

Dans le cas particulier ou X est une va réelle, pour tout réelle x, nous noterons respectivement (X sup x), (X inf stricte x) etc ..

A

(Xsupx) est noté X-1([x;+8[) ie {w de Oméga tq X(w) sup x}

(X inf stricte x) est noté X-1(]-8;x[) ie {w de Oméga tq X(w inf stricte x}

48
Q

Deux va de meme loi ne sons pas tjrs Ă©gales

A

Si on modĂ©lise le lancer de deux dĂ©s Ă©quilibrĂ©s en travaillant sur OmĂ©ga = [|1;6|]ÂČ par des va X : OmĂ©ga dans [|1;6|] et Y:OmĂ©ga dans [|1;6|] alors ces deux va suivent la meme loi mais ne sont pas Ă©gale.
(X=1) sera diff de (Y=1), ils auront en commun uniquement (1,1)

49
Q

La donnée pertinente consiste en la donnée conjointe de

A

1) L’ensemble des valeurs prisent par X

2) Pour chacunes de ces valeurs x, de la mesure de l’ensemble de ses antĂ©cĂ©dents, autrement dit de P(X=x)

50
Q

On utilisera sans trop de considération théorique les notation

A

X+Y ( si un addition est def dans E), XY (si la multiplication est def dans E) f(X) ou f est une fonction de source E. et mĂȘme X=Y
D’ailleurs, (X=Y)={w de Omega tq X(w)=Y(w)}

51
Q

Dans quel cas les lois marginales permettent de retrouver les lois conjointes ?
Equivalence a propos de l’indĂ©pendance de deux vars

A

Dans le cas ou X et Y sont indépendantes.
X et Y sont indépendantes ssi pt A,B appartenant a P(E)xP(F), P((X,Y) appartient a AxB) = P(XappartientA)P(YappartientB)
Lorsque X et Y sont a valeurs dans des ensembles finis, X et Y sont indépendants ssi la matrice des loi conjointes est de rg 1.

52
Q

ThĂ©orĂšme d’existence d’espace probabilisĂ©

A

Soitn pour n de N, une probabilité Ln, sur un ensemble Epsilonn. Il existe alors un espace probabilisé (Oméga, A, P) et une suite (Xn)ndeN de va mutuellement indépendantes tq pour tout ndeN, Xn aille de Oméga dans Epsilonn et suive la loi Ln.

53
Q

Loi hypergéométrique : supposons avoir N boules dans une urne, m blanches et N-m noires.
On considÚre la va X donnant le nombre de boules blanches tirées aprÚs n tirages sans remise, ou n est fixé (et n inf N). pt k de [|0,n|] P(X=k) =

A

Par un dénombrement, P(X=k)= [k parmi m) (n-k parmi N-m)] / (n parmi N)
cette loi est la loi hypergéométrique de paramÚtre p=m/N

54
Q

Définition - Loi géométrique

A

Soit p dans ]0;1[. On dit que X de Oméga dans N* suit une loi géo de paramÚtre p notée G(p) si pt k de N*, P(X=k)=(1-p)^k-1 p
C’est la loi qui donne le rang du premier succes dans une suite d’épreuves de bernouilli mutuellement indĂ©pendantes de paramĂštre p.

55
Q

šProposition - Caractérisation des loi géométriques comme lois sans mémoire.

A

Une va a valeurs dans N* est sans mémoire ie vérifie :
pt (k,n) de N*ÂČ, P(X sup st (n+k) | X sup st n) = P(X sup st k)
ssi elle suit une loi géométrique

56
Q

DĂ©finition de la loi de Poisson

A

Soit @ dans R+*, on dit que X de Oméga dans N sui la loi de poisson de paramÚtre @ noté P(@) si pour tout n de N, P(X=n)= exp (-@) @^n/n!

57
Q

Proposition : Approximation de la loi de binomiale par la loi de Poisson

A

Si, pour tout n, Xn ~ B(n,pn) et si (n pn) converge vers @ sup st 0 alors : pt k de N, P(Xn=k) tend(n,8) exp(-@)@^k/k!

58
Q

Interprétation de la loi de poisson comme la loi des événements rares

A

EN fait, la loi de Poisson fournit une bonne modĂ©lisation du nombre d’évĂ©nements rares : nombre d’accidents sur une portion de route, nombre d’erreurs typographique dans une page, etc.. En effet, supposons qu’on Ă©tudie un phĂ©nomĂšne dont vĂ©rifiant :
1) Les observations dans des intervalles disjoints sont indépendantes.
2) La loi du nombre d’observations dans un intervalle de temps donnĂ©e dĂ©pend de la durĂ©e de cet intervalle
3) Lorsque la durĂ©e de l’intervalle d’observation tend vers 0, la probabilitĂ© d’observer 2 fois au moins le phĂ©nomĂšne est nĂ©gligeable devant celle d’en observer exactement 1.
On peut alrs montrer que le nbr d’observations ds un intervalle de tps donnĂ© suit une Loi de Poisson

59
Q

DĂ©finition - EspĂ©rance d’une va rĂ©elle positive

A

Si X est une variable alĂ©atoire Ă  valeurs dans R+, l’espĂ©rance de C est la somme ds [0;+8[ de la famille (xP(X=x))xdeX(OmĂ©ga). On la note E(X) de sorte que :
E(X)= som(xdeX(Oméga) xP(X=x)
On dira que X admet une espérance finie si E(X) inf stricte +8

60
Q

DĂ©finition - Variable alĂ©atoire d’espĂ©rance finie

A

Si X est une var, on dira que X est d’espĂ©rance finie, ou que X admet une espĂ©rance (finie) si la famille (xP(X=x))xdeX(OmĂ©ga) est sommable. Ds ce cas la somme de cette familles est l’espĂ©rance de X notĂ©e E(X)
La va X est centrée si son espérance est nulle.
En fait, l’espĂ©rance de X ne dĂ©pend que de la loi que X suit

61
Q

Exemple : espérance classique

A

SI X ~ B(p) alors E(X) = p
Si X~ B(n,p) alors E(X)=np
Si X~ G(p) alors E(x)=1/p
Si X~P(@) alors E(X)=@

62
Q

Proposition - Va admettant un moment d’ordre 2

A

L’ensemble L2(OmĂ©ga,R) des var dĂ©finies sur OmĂ©ga admettant un moment d’ordre 2 est un R espace vectoriel/

63
Q

Proposition - Moment d’ordre 2 et espĂ©rance

A

Si une variable alĂ©atoire X admet un moment d’ordre 2, elle est d’espĂ©rance finie.

64
Q

Variances classiques

A

Si X~B(p) alors V(x) = p(1-p)
Si X~B(n,p) alors V(X)=np(1-p)
Si X~G(p) alors V(X)=(1-p)/pÂČ
Si X~P(@) alros V(X)=@

65
Q

Proposition - Inégalité de Cauchy-Schwartz probabiliste

A

Si X et Y admettent chacune un moment d’ordre 2, alors XY est d’espĂ©rance finie et E(XY)ÂČinf E(XÂČ)E(YÂČ)

66
Q

ThéorÚme : Loi faible des grands nombres

A

Si (Xn) nsup 0 est une suite de variables alĂ©atoires deux a deux indĂ©pendantes de mĂȘme loi et admettant un moment d’ordre 2, alors si Sn=som(1,n)Xk et m = E(X1) on a P(|Sn/n-m| sup epsilon ) tend (n,8) 0

Vous devez savoir retrouver pour epsilon sup 0, l’inĂ©galitĂ© :
P( | Sn/n - m| sup epsilon) inf sigmaÂČ/nepsilonÂČ ou sigma est l’écart type commune des Xk

67
Q

Définition - Fonction génératrice

A

On appelle fonction génératrice de X et on note Gx la fonction donnée par : Gx(t) = def= E(t^X)=som(0,8)P(X=n)t^n

68
Q

Remarque a propos de la fonction génératrice

A

On remarque que Gx est définie en 1 et que GX(1)=1

La série entiÚre définissant Gx est de rayon supérieur ou égale a 1 et converge normalement sur le disque unité fermé

69
Q

Que dire de p(A) si A B et C trois événements équiprobables vérifient P(AnBnC)=0 ?

A

P(AnBnC)=0 donc P(_AU_BU_C)=1 inf p(_A)+P(_B)+P(_C) =3P(_A) donc P(_A) sup 1/3 et P(A)inf 2/3

70
Q

Proposition - Fonction gĂ©nĂ©ratrice d’une somme finie de v.a.i a valeurs naturelles

A

Si (Xi)ide[|1,n|] est une famille de v.a.i a valeurs dans N.
alors G X1+
+Xn = GX1
GXn

71
Q

Proposition - Utilisation de la fonction génératrice dans le cas de RCV plus grand que 1

A

On suppose que le rayon de convergence de somP(X=n)t^n est strictement plus grand que 1.
La variable aléatoire X admet alors un moment à tout ordre, et pour tout k de N.
E(X(X-1)
(X-(k-1))) = GX^(k)(1)

72
Q

Proposition - Moment d’ordre 1 et 2

A

(1) La variable alĂ©atoire X est d’espĂ©rance finie ssi GX est dĂ©rivable en 1. On a alors E(X)=GX’(1)
(2) La variable alĂ©atoire X admet un second moment ssi GX est deux fois dĂ©rivable en 1. On a alors E(X(X-1))=GX’‘(1)

73
Q

Si GX est deux fois dérivable en 1

A

ALors X admet une variance et V(X) = GX’‘(1) + GX’(1) - GX’(1)ÂČ

Vous devez officiellement savoir retrouver cette expression de la variance, mais il serait nuisible de l’apprendre par cƓur : elle se retrouve immĂ©diatement a partir de la proposition prĂ©cĂ©dente.

74
Q

Exemple : Fonction génératrice

Remarque

A

Si X~B(p) alors GX(t) = (pt+q)
Si X~B(n,p) alors GX(t) = (pt+q)^n
Si X~G(p) alors GX(t)= pt/(1-qt)
Si X~P(@) alors GX(t)=exp (@(t-1))

On peut remarquer que ds tous ces cas classiques, le RC est strictement plus grand que 1, donc que la proposition 2.b suffit pour faire le lien entre les moments de X et sa fonction génératrice.