Proba 💞😎🤓🤘🏼 Flashcards

1
Q

Definition - évenement

A

Un evenement est une propriété portant sur le resultat d’une experience aleatoire

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Definition - Evenement élémentaire

A

On appelle eenement elementaire tt singleton inclu dans ♎️

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Definition - evenement contraire, conjonction, disjonction

A

Si A est un evenement, son evenement contraire est son complementaire. On le notera _A et on ne nommera “non A”. Si A et B sont deux evenements, on def les elements “A et B” et “A ou B” correspondant respectivement a AInterB et AUB

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

L’evenemet impossible

A

L’ensemble vide

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Definition - Evenement incombatible

A

Deux evenements sont incompatibles s’ils sont disjoints

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Définition - Probabilité

A

Une probabilitr sur un univers fini ♎️ est une application P de P(♎️) dans [0,1] telle que P(♎️)=1 et pour toutes parties disjointes A et B
P(AUB)=P(A)+P(B)
On dit alors que le couple (♎️,P) est un univers probabilisé fini

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Propriétés des probabilités

A

1/ pt evenement A, P(_A)=1-P(A)
2/ pt A1,…,An deux a deux incompatibles : P(UAi)=som(1,n)P(Ai)
3/ pt A et B : P(AUB)=P(A)+P(B)-P(AInterB)
4/ P est une application croisdante (Pour l’ordre d’inclusion dans P(♎️) et l’ordre usuel dans [0,1] ie pt A,B: ACB implique P(A) inf P(B)
5/ P(Ø)=0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Definition - Systeme complet d’evenement

A

On appelle systeme complet d’evenements tt ensemble d’evenements deux a deux incompatibles dont la reunion est egale a ♎️

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Formule des probabilités totales

A

Soit A1,…,An un systeme complet d’evenements, pt evenement B : P(B) = som(1,n) P(BInterAi)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Probabilité uniforme

A

On appelle proba uniforme sur ♎️ la proba telle que tout evenement elementaire ait une proba de 1/card(♎️)

Donc si P est la proba uniforme et A un evenement, on a P(A)=card(A)/card(♎️)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Definition - Probabilité conditionnelles

A

Soit A et B deux evenements. On suppose aue P(B) sup 0, (on dira que l’on peut conditionner par B). On appelle probabilité (conditionnelle) de A sachant B et onnote PB(A) ou P(A|B) le reel P(AinterB)/P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

On ne confondra pas

A

La probabilité que A se realise sachant que B est realisé et la probabilité que les evenements A et B se realisent

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Formule des probabilités composées

A

Soit A1,…,An des evenements tq P(A1inter…interAn-1)diff 0
On a P(A1inter…interAn)=P(A1)P(A2|A1)P(A3|A1interA2)…P(An|A1inter…interAn-1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Premiere formule de Bayes

A

Si A et B sont deux evenements tq P(A) sup 0 et P(B) sup 0 alors
P(A|B)=P(B|A)P(A)/P(B)

Cette formule est interessente dans la mesure ou elle permet de “remonter le temps”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Seconde formule de Bayes

A

Si (Ai) est un systeme complet d’evenements de probabilités non nulles et si B est un evenement de probabilité non nulle, alors
P(Aj|B)=P(BinterAj)P(Aj)/som(1,n)P(BinterAi)P(Ai)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Definition - couple d’evenements independants

A

Soit (A,B) un couple d’evenements. On dit que (A,B) est un couple d’evenements independants (ou que A et B) sont independants si P(AinterB)=P(A)P(B)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Independance de deux evenements

A
  • A et B sont independants ssi _A et B sont independants
  • il n’y a donc pas de lien entre independance et incompatibilité. Cependant deux evenements incompatibles sont independants ssi l’un (au moins) est de probabilité nulle
  • Si par exemple P(B)diff0 alrs l’independance de A et B equivaut a ce que P(A|B)=P(A) cela signifie que la realisation (ou non) de de B n’influe en rien sur celle de A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Definition - Independance de n evenements

A

Soit (A1,…,An) une famille de n evenements. On dit que (A1,…,An) est une famille d’evenements (mutuellement) independants (ou que les evenements A1,…,An) sont (mutuellement) independants si pour toute partie I de [|1,n|] P(Inter i€I Ai) = prod (i€I) P(Ai)

Pb si il existe j tq P(Aj)=0 d’ou les parties

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Definition - Variable aleatoire discrète

A

Etant donnés un ensemble E un un espace probabilisé (Oméga,A,P), une variable aléatoire discrète (en abréré v.a ou v.a.d) définit sur Oméga est une application X de Oméga dans E telle que :
-X(Oméga) soit fini ou dénombrable
-Pour tout x de X(Oméga), X-1({x}) appartient a A. L’événement X-1({x}) sera noté (X=x)
Lorsque E = R on dit que la variable aléatoire est réel
On a : (X=x)=X-1({x})={w de Oméga, X(w)=x}
X confère naturellement a E une structure d’espace probabilisé

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Definition - Support et atome

A

On appelle support de X son image X(♎️). Les evenements x du support tels que P(X=x)sup0 dont appelés atomes de la variable aleatoire X

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Definition - Loi d’une variable aleatoire

A
Pour tout x de X(Oméga) notons : 
px  = P(X-1({x}))=P({wdeOméga, X(w)=x})
La famille (px)xdeX(Oméga) définit une probabilité Px sur X(Oméga) appelé loi de la variable aléatoire X. On dit que X suit la loi de Px. En fait, on étend sans difficulté cette proba sur (E,P(E)) en posant pour toute partie A de E. Px(A)=P({w de Oméga, X(w) appartient a A}) = Px(AnW(Oméga)) on notera X~Y lorsque X et Y suivent la meme loi, et X~L lorsque X suit L
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Rq sur Px

A

L’application Px (qui est une proba sur X(♎️) ou meme sur E) est determinér par la donnée des P(X=x) ou x est ds X(♎️) (qui forme un SCE)
Recuproquement pour tte donnée d’un ensemble fini {x1,…,xn} de cardinal n et de reels {p1,…,pn} positifs ou nuls de somme 1 il existe une variable aleatoire de support {x1,…,xn} et de loi donnée par P(X=xi) = pi pour i de [|1,n|]

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Definition- image d’une variable aleatoire par une fonction

A

Etant donné une fonction f:E dans F , foX est une variable aleatoire a valeurs dans F notée f(X)

Dans ce contexte, la loi associé a f(X) est Pf(X) : P(F) dans [0,1] qui a A associe P(X€ f^-1 (A))

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Definition - Loi uniforme

A

On dit que X suit une loi uniforme sur un ensemble fini {x1,…,xn} de card n di Px(xk) = 1/n pt k

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Definition - loi de Bernouilli
On dit que X suit la loi de Bernouilli de parametre p € [0,1] si elle est de support {0,1}, que P(X=1)=p et P(X=0)=1-p cette loi est notée B(p)
26
Definition - Loi binomiale
On dit que X suit la loi binomiale de parametre n de N* et p de [0,1] si son support est [|0,n|] et si pt k de [|0,n|] P(X=k)=(k parmi n) p^k (1-p)^n-k O note B(p,n) cette loi
27
Definition - Loi conjointe, loi marginales de (X,Y)
On appelle loi conjointe de (X,Y) et on note P(x,y) l'application donné par : Pt(x,y) de ExF Px,y(x,y)=P(X=x et Y=y) Px et Py dont appelés lois marginales de (X,Y) La loi marginale de X est obtenue en sommant les colonne (ou les lignes) du tableau des lois marginales. (Loi marginales ne donnent pas les loi conjointes car on a m+n équations pour mn inconnues)
28
Definition - loi conditionnelle de Y sachant (X=x)
Soit x de X(♎️) on suppose P(X=x) sup 0. On appelle loi conditionnelle de Y sachant X=x l'application donnée par P(Y=y|X=x) = P(X=x et Y=y)/P(X=x) = P(X,Y)(x,y)/PX(x)
29
Definition - Couple de variables aléatoires indépendantes
On dit que les variables X et Y sont independantes si pour tout (x,y) de X(♎)xY(️♎️) P((X,Y)=(x,y)) = P(X=x)P(Y=y)
30
Definition - variables aleatoires mutuellement indépendantes
On dit que les variables aleatoires X1,...,Xn sont mutuellement independantes si pour tout (xi) € X1(♎️)x...xXn(♎️) on a : P(X1=x1, ... , Xn=xn) = prod (1,n)P(Xi=xi) On dit que les va Xi ou i de I sont mutuellement indépendantes si pour toute partie finie F de I, les va Xi, ideF, le sont. Dans le cas ou toutes ces variables aleatoires soit en outre de meme loi, on dira que ce sont des variables aleatoires independantes identiquement distribuées
31
Variable mutuellement independantes
Si X1,...,Xn sont des VAMI alors pt (A1,...,An) de prod (1,n)P(Xi(♎️)) les evenemets (Xi€Ai) sont mutuellements independants
32
Fonctions de variables independantes
Si X et Y sont independant, alors les variables aleatoires f(X) et g(Y) le sont aussi
33
Definition - Univers
L'endemble des issues, resultats possibles, realisation, d'une experience aleatoire est appelé univers
34
Definition - Esperance
On appelle esperance (ou moyenne) de X et on note E(X) le reel E(X) = som(1,n)xiP(X=xi) la variable aleatoire X est dite centrée si son esperance est nulle En fait, l'esperance ne depend que de la loi que X suit, on aurait pu parler d'esperance d'une loi mais ca n'est pas ce que l'usage a retenu. E(X) s'interprete comme la moyenne des valeurs prises par X pondérées par leurs probabilités d'apparition. Dans le cad d'une variable aleatoire equidistribué, la moyenne qu'on connait
35
Propriété de l'esperance
1/ linearité, l'esperance est une forme lineaire et l'ensemble L1(Oméga,R) des va admettant une espérance est un R espace vectoriel. 2/ positivité : si X sup 0 alors E(X) sup 0 3/croissance : l'esperence est une fonction croissante ie si X inf Y alors E(X) inf E(Y) 4/ |E(X)| inf E(|X|) 5) si |Z| inf X alors Z est d'espérance finie
36
Formule de transfert
soit X une variable aleatoire definie sur ♎️ a valeurs dans E. Et f une fonction definie sur X(♎️) a valeurs dans R. On a alors E(f(X)) = som (x€♎️) f(x)P(X=x)
37
Inegalité de Markov
Pour tt epsilon sup 0 | On a P(|X|supepsilon) inf E(|X|)/epsilon
38
Esperance d'un produit de VA independantes
On suppose ici que X et Y sont independantes, on a alors : | E(XY)=E(X)E(Y)
39
Definition - Moment d'une VAR
Pt k de N. Si X^k admet une espérance finie, alors on appelle moment d'ordre k de X le reel E(X^k)
40
Definition -Variance , ecart-type
Lorsque X admet un moment d'ordre 2, on appelle variance de X et on note V(X) le reel positif E((X-E(X))^2) on appelle ecart type de X et on note sigma(X) le reel positif (V(X))^1/2 on dit que X est reduite si elle est de variance 1 La variance est un indicateur de dispersion, et E et V n'ont pas la meme dimension, si X en m, alors E en m et V en m²
41
Formule pour la variance
1/ formule de Koenig V(X)=E(X^2) - E(X)^2 | 2/ pt reels a et b, V(aX+b) = a^2V(X)
42
Definition - VA centrée reduite associée a une VA
On suppose que sigma (X) sup 0 et que X admet un moment d'ordre 2. La variable aleatoire (X-E(X))/sigma(X) est alors appelé variable aleatoire centrée reduite associé a X
43
Inegalité de Bienaymé-Tchebychev
Soit epsilon sup 0, on a P((|X-E(X)|) sup epsilon) inf V(X)/epsilon^2
44
Definition - Covariance
On appelle covariance fe X et de Y et onnote Cov (X,Y) le scalaire E((X-E(X))(Y-E(Y)) Cov(X,X)=V(X)
45
Formule de covariance
On a Cov(X,Y)=E(XY)-E(X)E(Y)
46
Variance d'une somme
1/V(X+Y)=V(X)+V(Y)+2cov(X,Y) | 2/ en particulier si X et Y sont independantes V(X+Y)=V(X)+V(Y)
47
Dans le cas particulier ou X est une va réelle, pour tout réelle x, nous noterons respectivement (X sup x), (X inf stricte x) etc ..
(Xsupx) est noté X-1([x;+8[) ie {w de Oméga tq X(w) sup x} | (X inf stricte x) est noté X-1(]-8;x[) ie {w de Oméga tq X(w inf stricte x}
48
Deux va de meme loi ne sons pas tjrs égales
Si on modélise le lancer de deux dés équilibrés en travaillant sur Oméga = [|1;6|]² par des va X : Oméga dans [|1;6|] et Y:Oméga dans [|1;6|] alors ces deux va suivent la meme loi mais ne sont pas égale. (X=1) sera diff de (Y=1), ils auront en commun uniquement (1,1)
49
La donnée pertinente consiste en la donnée conjointe de
1) L'ensemble des valeurs prisent par X | 2) Pour chacunes de ces valeurs x, de la mesure de l'ensemble de ses antécédents, autrement dit de P(X=x)
50
On utilisera sans trop de considération théorique les notation
X+Y ( si un addition est def dans E), XY (si la multiplication est def dans E) f(X) ou f est une fonction de source E. et même X=Y D'ailleurs, (X=Y)={w de Omega tq X(w)=Y(w)}
51
Dans quel cas les lois marginales permettent de retrouver les lois conjointes ? Equivalence a propos de l'indépendance de deux vars
Dans le cas ou X et Y sont indépendantes. X et Y sont indépendantes ssi pt A,B appartenant a P(E)xP(F), P((X,Y) appartient a AxB) = P(XappartientA)P(YappartientB) Lorsque X et Y sont a valeurs dans des ensembles finis, X et Y sont indépendants ssi la matrice des loi conjointes est de rg 1.
52
Théorème d'existence d'espace probabilisé
Soitn pour n de N, une probabilité Ln, sur un ensemble Epsilonn. Il existe alors un espace probabilisé (Oméga, A, P) et une suite (Xn)ndeN de va mutuellement indépendantes tq pour tout ndeN, Xn aille de Oméga dans Epsilonn et suive la loi Ln.
53
Loi hypergéométrique : supposons avoir N boules dans une urne, m blanches et N-m noires. On considère la va X donnant le nombre de boules blanches tirées après n tirages sans remise, ou n est fixé (et n inf N). pt k de [|0,n|] P(X=k) =
Par un dénombrement, P(X=k)= [k parmi m) (n-k parmi N-m)] / (n parmi N) cette loi est la loi hypergéométrique de paramètre p=m/N
54
Définition - Loi géométrique
Soit p dans ]0;1[. On dit que X de Oméga dans N* suit une loi géo de paramètre p notée G(p) si pt k de N*, P(X=k)=(1-p)^k-1 p C'est la loi qui donne le rang du premier succes dans une suite d'épreuves de bernouilli mutuellement indépendantes de paramètre p.
55
¨Proposition - Caractérisation des loi géométriques comme lois sans mémoire.
Une va a valeurs dans N* est sans mémoire ie vérifie : pt (k,n) de N*², P(X sup st (n+k) | X sup st n) = P(X sup st k) ssi elle suit une loi géométrique
56
Définition de la loi de Poisson
Soit @ dans R+*, on dit que X de Oméga dans N sui la loi de poisson de paramètre @ noté P(@) si pour tout n de N, P(X=n)= exp (-@) @^n/n!
57
Proposition : Approximation de la loi de binomiale par la loi de Poisson
Si, pour tout n, Xn ~ B(n,pn) et si (n pn) converge vers @ sup st 0 alors : pt k de N, P(Xn=k) tend(n,8) exp(-@)@^k/k!
58
Interprétation de la loi de poisson comme la loi des événements rares
EN fait, la loi de Poisson fournit une bonne modélisation du nombre d'événements rares : nombre d'accidents sur une portion de route, nombre d'erreurs typographique dans une page, etc.. En effet, supposons qu'on étudie un phénomène dont vérifiant : 1) Les observations dans des intervalles disjoints sont indépendantes. 2) La loi du nombre d'observations dans un intervalle de temps donnée dépend de la durée de cet intervalle 3) Lorsque la durée de l'intervalle d'observation tend vers 0, la probabilité d'observer 2 fois au moins le phénomène est négligeable devant celle d'en observer exactement 1. On peut alrs montrer que le nbr d'observations ds un intervalle de tps donné suit une Loi de Poisson
59
Définition - Espérance d'une va réelle positive
Si X est une variable aléatoire à valeurs dans R+, l'espérance de C est la somme ds [0;+8[ de la famille (xP(X=x))xdeX(Oméga). On la note E(X) de sorte que : E(X)= som(xdeX(Oméga) xP(X=x) On dira que X admet une espérance finie si E(X) inf stricte +8
60
Définition - Variable aléatoire d'espérance finie
Si X est une var, on dira que X est d'espérance finie, ou que X admet une espérance (finie) si la famille (xP(X=x))xdeX(Oméga) est sommable. Ds ce cas la somme de cette familles est l'espérance de X notée E(X) La va X est centrée si son espérance est nulle. En fait, l'espérance de X ne dépend que de la loi que X suit
61
Exemple : espérance classique
SI X ~ B(p) alors E(X) = p Si X~ B(n,p) alors E(X)=np Si X~ G(p) alors E(x)=1/p Si X~P(@) alors E(X)=@
62
Proposition - Va admettant un moment d'ordre 2
L'ensemble L2(Oméga,R) des var définies sur Oméga admettant un moment d'ordre 2 est un R espace vectoriel/
63
Proposition - Moment d'ordre 2 et espérance
Si une variable aléatoire X admet un moment d'ordre 2, elle est d'espérance finie.
64
Variances classiques
Si X~B(p) alors V(x) = p(1-p) Si X~B(n,p) alors V(X)=np(1-p) Si X~G(p) alors V(X)=(1-p)/p² Si X~P(@) alros V(X)=@
65
Proposition - Inégalité de Cauchy-Schwartz probabiliste
Si X et Y admettent chacune un moment d'ordre 2, alors XY est d'espérance finie et E(XY)²inf E(X²)E(Y²)
66
Théorème : Loi faible des grands nombres
Si (Xn) nsup 0 est une suite de variables aléatoires deux a deux indépendantes de même loi et admettant un moment d'ordre 2, alors si Sn=som(1,n)Xk et m = E(X1) on a P(|Sn/n-m| sup epsilon ) tend (n,8) 0 Vous devez savoir retrouver pour epsilon sup 0, l'inégalité : P( | Sn/n - m| sup epsilon) inf sigma²/nepsilon² ou sigma est l'écart type commune des Xk
67
Définition - Fonction génératrice
On appelle fonction génératrice de X et on note Gx la fonction donnée par : Gx(t) = def= E(t^X)=som(0,8)P(X=n)t^n
68
Remarque a propos de la fonction génératrice
On remarque que Gx est définie en 1 et que GX(1)=1 | La série entière définissant Gx est de rayon supérieur ou égale a 1 et converge normalement sur le disque unité fermé
69
Que dire de p(A) si A B et C trois événements équiprobables vérifient P(AnBnC)=0 ?
P(AnBnC)=0 donc P(_AU_BU_C)=1 inf p(_A)+P(_B)+P(_C) =3P(_A) donc P(_A) sup 1/3 et P(A)inf 2/3
70
Proposition - Fonction génératrice d'une somme finie de v.a.i a valeurs naturelles
Si (Xi)ide[|1,n|] est une famille de v.a.i a valeurs dans N. alors G X1+...+Xn = GX1...GXn
71
Proposition - Utilisation de la fonction génératrice dans le cas de RCV plus grand que 1
On suppose que le rayon de convergence de somP(X=n)t^n est strictement plus grand que 1. La variable aléatoire X admet alors un moment à tout ordre, et pour tout k de N. E(X(X-1)...(X-(k-1))) = GX^(k)(1)
72
Proposition - Moment d'ordre 1 et 2
(1) La variable aléatoire X est d'espérance finie ssi GX est dérivable en 1. On a alors E(X)=GX'(1) (2) La variable aléatoire X admet un second moment ssi GX est deux fois dérivable en 1. On a alors E(X(X-1))=GX''(1)
73
Si GX est deux fois dérivable en 1
ALors X admet une variance et V(X) = GX''(1) + GX'(1) - GX'(1)² Vous devez officiellement savoir retrouver cette expression de la variance, mais il serait nuisible de l'apprendre par cœur : elle se retrouve immédiatement a partir de la proposition précédente.
74
Exemple : Fonction génératrice Remarque
Si X~B(p) alors GX(t) = (pt+q) Si X~B(n,p) alors GX(t) = (pt+q)^n Si X~G(p) alors GX(t)= pt/(1-qt) Si X~P(@) alors GX(t)=exp (@(t-1)) On peut remarquer que ds tous ces cas classiques, le RC est strictement plus grand que 1, donc que la proposition 2.b suffit pour faire le lien entre les moments de X et sa fonction génératrice.