Proba 💞😎🤓🤘🏼 Flashcards Preview

Maths > Proba 💞😎🤓🤘🏼 > Flashcards

Flashcards in Proba 💞😎🤓🤘🏼 Deck (74):
1

Definition - évenement

Un evenement est une propriété portant sur le resultat d'une experience aleatoire

2

Definition - Evenement élémentaire

On appelle eenement elementaire tt singleton inclu dans ♎️

3

Definition - evenement contraire, conjonction, disjonction

Si A est un evenement, son evenement contraire est son complementaire. On le notera _A et on ne nommera "non A". Si A et B sont deux evenements, on def les elements "A et B" et "A ou B" correspondant respectivement a AInterB et AUB

4

L'evenemet impossible

L'ensemble vide

5

Definition - Evenement incombatible

Deux evenements sont incompatibles s'ils sont disjoints

6

Définition - Probabilité

Une probabilitr sur un univers fini ♎️ est une application P de P(♎️) dans [0,1] telle que P(♎️)=1 et pour toutes parties disjointes A et B
P(AUB)=P(A)+P(B)
On dit alors que le couple (♎️,P) est un univers probabilisé fini

7

Propriétés des probabilités

1/ pt evenement A, P(_A)=1-P(A)
2/ pt A1,...,An deux a deux incompatibles : P(UAi)=som(1,n)P(Ai)
3/ pt A et B : P(AUB)=P(A)+P(B)-P(AInterB)
4/ P est une application croisdante (Pour l'ordre d'inclusion dans P(♎️) et l'ordre usuel dans [0,1] ie pt A,B: ACB implique P(A) inf P(B)
5/ P(Ø)=0

8

Definition - Systeme complet d'evenement

On appelle systeme complet d'evenements tt ensemble d'evenements deux a deux incompatibles dont la reunion est egale a ♎️

9

Formule des probabilités totales

Soit A1,...,An un systeme complet d'evenements, pt evenement B : P(B) = som(1,n) P(BInterAi)

10

Probabilité uniforme

On appelle proba uniforme sur ♎️ la proba telle que tout evenement elementaire ait une proba de 1/card(♎️)

Donc si P est la proba uniforme et A un evenement, on a P(A)=card(A)/card(♎️)

11

Definition - Probabilité conditionnelles

Soit A et B deux evenements. On suppose aue P(B) sup 0, (on dira que l'on peut conditionner par B). On appelle probabilité (conditionnelle) de A sachant B et onnote PB(A) ou P(A|B) le reel P(AinterB)/P(B)

12

On ne confondra pas

La probabilité que A se realise sachant que B est realisé et la probabilité que les evenements A et B se realisent

13

Formule des probabilités composées

Soit A1,...,An des evenements tq P(A1inter...interAn-1)diff 0
On a P(A1inter...interAn)=P(A1)P(A2|A1)P(A3|A1interA2)...P(An|A1inter...interAn-1)

14

Premiere formule de Bayes

Si A et B sont deux evenements tq P(A) sup 0 et P(B) sup 0 alors
P(A|B)=P(B|A)P(A)/P(B)

Cette formule est interessente dans la mesure ou elle permet de "remonter le temps"

15

Seconde formule de Bayes

Si (Ai) est un systeme complet d'evenements de probabilités non nulles et si B est un evenement de probabilité non nulle, alors
P(Aj|B)=P(BinterAj)P(Aj)/som(1,n)P(BinterAi)P(Ai)

16

Definition - couple d'evenements independants

Soit (A,B) un couple d'evenements. On dit que (A,B) est un couple d'evenements independants (ou que A et B) sont independants si P(AinterB)=P(A)P(B)

17

Independance de deux evenements

-A et B sont independants ssi _A et B sont independants
-il n'y a donc pas de lien entre independance et incompatibilité. Cependant deux evenements incompatibles sont independants ssi l'un (au moins) est de probabilité nulle
-Si par exemple P(B)diff0 alrs l'independance de A et B equivaut a ce que P(A|B)=P(A) cela signifie que la realisation (ou non) de de B n'influe en rien sur celle de A

18

Definition - Independance de n evenements

Soit (A1,...,An) une famille de n evenements. On dit que (A1,...,An) est une famille d'evenements (mutuellement) independants (ou que les evenements A1,...,An) sont (mutuellement) independants si pour toute partie I de [|1,n|] P(Inter i€I Ai) = prod (i€I) P(Ai)

Pb si il existe j tq P(Aj)=0 d'ou les parties

19

Definition - Variable aleatoire discrète

Etant donnés un ensemble E un un espace probabilisé (Oméga,A,P), une variable aléatoire discrète (en abréré v.a ou v.a.d) définit sur Oméga est une application X de Oméga dans E telle que :
-X(Oméga) soit fini ou dénombrable
-Pour tout x de X(Oméga), X-1({x}) appartient a A. L'événement X-1({x}) sera noté (X=x)
Lorsque E = R on dit que la variable aléatoire est réel
On a : (X=x)=X-1({x})={w de Oméga, X(w)=x}
X confère naturellement a E une structure d'espace probabilisé

20

Definition - Support et atome

On appelle support de X son image X(♎️). Les evenements x du support tels que P(X=x)sup0 dont appelés atomes de la variable aleatoire X

21

Definition - Loi d'une variable aleatoire

Pour tout x de X(Oméga) notons :
px = P(X-1({x}))=P({wdeOméga, X(w)=x})
La famille (px)xdeX(Oméga) définit une probabilité Px sur X(Oméga) appelé loi de la variable aléatoire X. On dit que X suit la loi de Px. En fait, on étend sans difficulté cette proba sur (E,P(E)) en posant pour toute partie A de E. Px(A)=P({w de Oméga, X(w) appartient a A}) = Px(AnW(Oméga)) on notera X~Y lorsque X et Y suivent la meme loi, et X~L lorsque X suit L

22

Rq sur Px

L'application Px (qui est une proba sur X(♎️) ou meme sur E) est determinér par la donnée des P(X=x) ou x est ds X(♎️) (qui forme un SCE)
Recuproquement pour tte donnée d'un ensemble fini {x1,...,xn} de cardinal n et de reels {p1,...,pn} positifs ou nuls de somme 1 il existe une variable aleatoire de support {x1,...,xn} et de loi donnée par P(X=xi) = pi pour i de [|1,n|]

23

Definition- image d'une variable aleatoire par une fonction

Etant donné une fonction f:E dans F , foX est une variable aleatoire a valeurs dans F notée f(X)

Dans ce contexte, la loi associé a f(X) est Pf(X) : P(F) dans [0,1] qui a A associe P(X€ f^-1 (A))

24

Definition - Loi uniforme

On dit que X suit une loi uniforme sur un ensemble fini {x1,...,xn} de card n di Px(xk) = 1/n pt k

25

Definition - loi de Bernouilli

On dit que X suit la loi de Bernouilli de parametre p € [0,1] si elle est de support {0,1}, que P(X=1)=p et P(X=0)=1-p cette loi est notée B(p)

26

Definition - Loi binomiale

On dit que X suit la loi binomiale de parametre n de N* et p de [0,1] si son support est [|0,n|] et si pt k de [|0,n|] P(X=k)=(k parmi n) p^k (1-p)^n-k
O note B(p,n) cette loi

27

Definition - Loi conjointe, loi marginales de (X,Y)

On appelle loi conjointe de (X,Y) et on note P(x,y) l'application donné par :
Pt(x,y) de ExF Px,y(x,y)=P(X=x et Y=y)
Px et Py dont appelés lois marginales de (X,Y)
La loi marginale de X est obtenue en sommant les colonne (ou les lignes) du tableau des lois marginales.
(Loi marginales ne donnent pas les loi conjointes car on a m+n équations pour mn inconnues)

28

Definition - loi conditionnelle de Y sachant (X=x)

Soit x de X(♎️) on suppose P(X=x) sup 0. On appelle loi conditionnelle de Y sachant X=x l'application donnée par P(Y=y|X=x) = P(X=x et Y=y)/P(X=x) = P(X,Y)(x,y)/PX(x)

29

Definition - Couple de variables aléatoires indépendantes

On dit que les variables X et Y sont independantes si pour tout (x,y) de X(♎)xY(️♎️)
P((X,Y)=(x,y)) = P(X=x)P(Y=y)

30

Definition - variables aleatoires mutuellement indépendantes

On dit que les variables aleatoires X1,...,Xn sont mutuellement independantes si pour tout (xi) € X1(♎️)x...xXn(♎️) on a :
P(X1=x1, ... , Xn=xn) = prod (1,n)P(Xi=xi)
On dit que les va Xi ou i de I sont mutuellement indépendantes si pour toute partie finie F de I, les va Xi, ideF, le sont.
Dans le cas ou toutes ces variables aleatoires soit en outre de meme loi, on dira que ce sont des variables aleatoires independantes identiquement distribuées

31

Variable mutuellement independantes

Si X1,...,Xn sont des VAMI alors pt (A1,...,An) de prod (1,n)P(Xi(♎️)) les evenemets (Xi€Ai) sont mutuellements independants

32

Fonctions de variables independantes

Si X et Y sont independant, alors les variables aleatoires f(X) et g(Y) le sont aussi

33

Definition - Univers

L'endemble des issues, resultats possibles, realisation, d'une experience aleatoire est appelé univers

34

Definition - Esperance

On appelle esperance (ou moyenne) de X et on note E(X) le reel E(X) = som(1,n)xiP(X=xi) la variable aleatoire X est dite centrée si son esperance est nulle
En fait, l'esperance ne depend que de la loi que X suit, on aurait pu parler d'esperance d'une loi mais ca n'est pas ce que l'usage a retenu.
E(X) s'interprete comme la moyenne des valeurs prises par X pondérées par leurs probabilités d'apparition. Dans le cad d'une variable aleatoire equidistribué, la moyenne qu'on connait

35

Propriété de l'esperance

1/ linearité, l'esperance est une forme lineaire et l'ensemble L1(Oméga,R) des va admettant une espérance est un R espace vectoriel.
2/ positivité : si X sup 0 alors E(X) sup 0
3/croissance : l'esperence est une fonction croissante ie si X inf Y alors E(X) inf E(Y)
4/ |E(X)| inf E(|X|)
5) si |Z| inf X alors Z est d'espérance finie

36

Formule de transfert

soit X une variable aleatoire definie sur ♎️ a valeurs dans E. Et f une fonction definie sur X(♎️) a valeurs dans R. On a alors E(f(X)) = som (x€♎️) f(x)P(X=x)

37

Inegalité de Markov

Pour tt epsilon sup 0
On a P(|X|supepsilon) inf E(|X|)/epsilon

38

Esperance d'un produit de VA independantes

On suppose ici que X et Y sont independantes, on a alors :
E(XY)=E(X)E(Y)

39

Definition - Moment d'une VAR

Pt k de N. Si X^k admet une espérance finie, alors on appelle moment d'ordre k de X le reel E(X^k)

40

Definition -Variance , ecart-type

Lorsque X admet un moment d'ordre 2, on appelle variance de X et on note V(X) le reel positif E((X-E(X))^2) on appelle ecart type de X et on note sigma(X) le reel positif (V(X))^1/2 on dit que X est reduite si elle est de variance 1
La variance est un indicateur de dispersion, et E et V n'ont pas la meme dimension, si X en m, alors E en m et V en m²

41

Formule pour la variance

1/ formule de Koenig V(X)=E(X^2) - E(X)^2
2/ pt reels a et b, V(aX+b) = a^2V(X)

42

Definition - VA centrée reduite associée a une VA

On suppose que sigma (X) sup 0 et que X admet un moment d'ordre 2. La variable aleatoire (X-E(X))/sigma(X) est alors appelé variable aleatoire centrée reduite associé a X

43

Inegalité de Bienaymé-Tchebychev

Soit epsilon sup 0, on a P((|X-E(X)|) sup epsilon) inf V(X)/epsilon^2

44

Definition - Covariance

On appelle covariance fe X et de Y et onnote Cov (X,Y) le scalaire E((X-E(X))(Y-E(Y))

Cov(X,X)=V(X)

45

Formule de covariance

On a Cov(X,Y)=E(XY)-E(X)E(Y)

46

Variance d'une somme

1/V(X+Y)=V(X)+V(Y)+2cov(X,Y)
2/ en particulier si X et Y sont independantes V(X+Y)=V(X)+V(Y)

47

Dans le cas particulier ou X est une va réelle, pour tout réelle x, nous noterons respectivement (X sup x), (X inf stricte x) etc ..

(Xsupx) est noté X-1([x;+8[) ie {w de Oméga tq X(w) sup x}
(X inf stricte x) est noté X-1(]-8;x[) ie {w de Oméga tq X(w inf stricte x}

48

Deux va de meme loi ne sons pas tjrs égales

Si on modélise le lancer de deux dés équilibrés en travaillant sur Oméga = [|1;6|]² par des va X : Oméga dans [|1;6|] et Y:Oméga dans [|1;6|] alors ces deux va suivent la meme loi mais ne sont pas égale.
(X=1) sera diff de (Y=1), ils auront en commun uniquement (1,1)

49

La donnée pertinente consiste en la donnée conjointe de

1) L'ensemble des valeurs prisent par X
2) Pour chacunes de ces valeurs x, de la mesure de l'ensemble de ses antécédents, autrement dit de P(X=x)

50

On utilisera sans trop de considération théorique les notation

X+Y ( si un addition est def dans E), XY (si la multiplication est def dans E) f(X) ou f est une fonction de source E. et même X=Y
D'ailleurs, (X=Y)={w de Omega tq X(w)=Y(w)}

51

Dans quel cas les lois marginales permettent de retrouver les lois conjointes ?
Equivalence a propos de l'indépendance de deux vars

Dans le cas ou X et Y sont indépendantes.
X et Y sont indépendantes ssi pt A,B appartenant a P(E)xP(F), P((X,Y) appartient a AxB) = P(XappartientA)P(YappartientB)
Lorsque X et Y sont a valeurs dans des ensembles finis, X et Y sont indépendants ssi la matrice des loi conjointes est de rg 1.

52

Théorème d'existence d'espace probabilisé

Soitn pour n de N, une probabilité Ln, sur un ensemble Epsilonn. Il existe alors un espace probabilisé (Oméga, A, P) et une suite (Xn)ndeN de va mutuellement indépendantes tq pour tout ndeN, Xn aille de Oméga dans Epsilonn et suive la loi Ln.

53

Loi hypergéométrique : supposons avoir N boules dans une urne, m blanches et N-m noires.
On considère la va X donnant le nombre de boules blanches tirées après n tirages sans remise, ou n est fixé (et n inf N). pt k de [|0,n|] P(X=k) =

Par un dénombrement, P(X=k)= [k parmi m) (n-k parmi N-m)] / (n parmi N)
cette loi est la loi hypergéométrique de paramètre p=m/N

54

Définition - Loi géométrique

Soit p dans ]0;1[. On dit que X de Oméga dans N* suit une loi géo de paramètre p notée G(p) si pt k de N*, P(X=k)=(1-p)^k-1 p
C'est la loi qui donne le rang du premier succes dans une suite d'épreuves de bernouilli mutuellement indépendantes de paramètre p.

55

¨Proposition - Caractérisation des loi géométriques comme lois sans mémoire.

Une va a valeurs dans N* est sans mémoire ie vérifie :
pt (k,n) de N*², P(X sup st (n+k) | X sup st n) = P(X sup st k)
ssi elle suit une loi géométrique

56

Définition de la loi de Poisson

Soit @ dans R+*, on dit que X de Oméga dans N sui la loi de poisson de paramètre @ noté P(@) si pour tout n de N, P(X=n)= exp (-@) @^n/n!

57

Proposition : Approximation de la loi de binomiale par la loi de Poisson

Si, pour tout n, Xn ~ B(n,pn) et si (n pn) converge vers @ sup st 0 alors : pt k de N, P(Xn=k) tend(n,8) exp(-@)@^k/k!

58

Interprétation de la loi de poisson comme la loi des événements rares

EN fait, la loi de Poisson fournit une bonne modélisation du nombre d'événements rares : nombre d'accidents sur une portion de route, nombre d'erreurs typographique dans une page, etc.. En effet, supposons qu'on étudie un phénomène dont vérifiant :
1) Les observations dans des intervalles disjoints sont indépendantes.
2) La loi du nombre d'observations dans un intervalle de temps donnée dépend de la durée de cet intervalle
3) Lorsque la durée de l'intervalle d'observation tend vers 0, la probabilité d'observer 2 fois au moins le phénomène est négligeable devant celle d'en observer exactement 1.
On peut alrs montrer que le nbr d'observations ds un intervalle de tps donné suit une Loi de Poisson

59

Définition - Espérance d'une va réelle positive

Si X est une variable aléatoire à valeurs dans R+, l'espérance de C est la somme ds [0;+8[ de la famille (xP(X=x))xdeX(Oméga). On la note E(X) de sorte que :
E(X)= som(xdeX(Oméga) xP(X=x)
On dira que X admet une espérance finie si E(X) inf stricte +8

60

Définition - Variable aléatoire d'espérance finie

Si X est une var, on dira que X est d'espérance finie, ou que X admet une espérance (finie) si la famille (xP(X=x))xdeX(Oméga) est sommable. Ds ce cas la somme de cette familles est l'espérance de X notée E(X)
La va X est centrée si son espérance est nulle.
En fait, l'espérance de X ne dépend que de la loi que X suit

61

Exemple : espérance classique

SI X ~ B(p) alors E(X) = p
Si X~ B(n,p) alors E(X)=np
Si X~ G(p) alors E(x)=1/p
Si X~P(@) alors E(X)=@

62

Proposition - Va admettant un moment d'ordre 2

L'ensemble L2(Oméga,R) des var définies sur Oméga admettant un moment d'ordre 2 est un R espace vectoriel/

63

Proposition - Moment d'ordre 2 et espérance

Si une variable aléatoire X admet un moment d'ordre 2, elle est d'espérance finie.

64

Variances classiques

Si X~B(p) alors V(x) = p(1-p)
Si X~B(n,p) alors V(X)=np(1-p)
Si X~G(p) alors V(X)=(1-p)/p²
Si X~P(@) alros V(X)=@

65

Proposition - Inégalité de Cauchy-Schwartz probabiliste

Si X et Y admettent chacune un moment d'ordre 2, alors XY est d'espérance finie et E(XY)²inf E(X²)E(Y²)

66

Théorème : Loi faible des grands nombres

Si (Xn) nsup 0 est une suite de variables aléatoires deux a deux indépendantes de même loi et admettant un moment d'ordre 2, alors si Sn=som(1,n)Xk et m = E(X1) on a P(|Sn/n-m| sup epsilon ) tend (n,8) 0

Vous devez savoir retrouver pour epsilon sup 0, l'inégalité :
P( | Sn/n - m| sup epsilon) inf sigma²/nepsilon² ou sigma est l'écart type commune des Xk

67

Définition - Fonction génératrice

On appelle fonction génératrice de X et on note Gx la fonction donnée par : Gx(t) = def= E(t^X)=som(0,8)P(X=n)t^n

68

Remarque a propos de la fonction génératrice

On remarque que Gx est définie en 1 et que GX(1)=1
La série entière définissant Gx est de rayon supérieur ou égale a 1 et converge normalement sur le disque unité fermé

69

Que dire de p(A) si A B et C trois événements équiprobables vérifient P(AnBnC)=0 ?

P(AnBnC)=0 donc P(_AU_BU_C)=1 inf p(_A)+P(_B)+P(_C) =3P(_A) donc P(_A) sup 1/3 et P(A)inf 2/3

70

Proposition - Fonction génératrice d'une somme finie de v.a.i a valeurs naturelles

Si (Xi)ide[|1,n|] est une famille de v.a.i a valeurs dans N.
alors G X1+...+Xn = GX1...GXn

71

Proposition - Utilisation de la fonction génératrice dans le cas de RCV plus grand que 1

On suppose que le rayon de convergence de somP(X=n)t^n est strictement plus grand que 1.
La variable aléatoire X admet alors un moment à tout ordre, et pour tout k de N.
E(X(X-1)...(X-(k-1))) = GX^(k)(1)

72

Proposition - Moment d'ordre 1 et 2

(1) La variable aléatoire X est d'espérance finie ssi GX est dérivable en 1. On a alors E(X)=GX'(1)
(2) La variable aléatoire X admet un second moment ssi GX est deux fois dérivable en 1. On a alors E(X(X-1))=GX''(1)

73

Si GX est deux fois dérivable en 1

ALors X admet une variance et V(X) = GX''(1) + GX'(1) - GX'(1)²

Vous devez officiellement savoir retrouver cette expression de la variance, mais il serait nuisible de l'apprendre par cœur : elle se retrouve immédiatement a partir de la proposition précédente.

74

Exemple : Fonction génératrice

Remarque

Si X~B(p) alors GX(t) = (pt+q)
Si X~B(n,p) alors GX(t) = (pt+q)^n
Si X~G(p) alors GX(t)= pt/(1-qt)
Si X~P(@) alors GX(t)=exp (@(t-1))

On peut remarquer que ds tous ces cas classiques, le RC est strictement plus grand que 1, donc que la proposition 2.b suffit pour faire le lien entre les moments de X et sa fonction génératrice.