Diapo 9 Flashcards Preview

Stats > Diapo 9 > Flashcards

Flashcards in Diapo 9 Deck (15):
1

Quelles sont les prémisses du test?

Les groupes sont indépendants et tirés au hasard de leur population respective. Il n’y a ni relation entre les observations à l’intérieur d’un groupe, ni relation entre les observations entre les groupes. Les valeurs des populations sont normalement distribuées. Les variances des populations sont égales : si la taille des groupes est très inégale, il faut vérifier l’égalité des variances, si oui, utiliser d’autres tests comme le Test Brown-Forsythe ou le Welch Robust F et il est aussi possible d’utiliser les tests de comparaisons multiples qui ne demandent pas la prémisse d’égalité des variances.

2

Qu’est-ce que la distribution F?

La distribution F est calculée mathématiquement. Elle est utilisée lorsque l’on veut tester une hypothèse concernant la variance d’une population. Le théorème central limite ne fonctionne pas avec la variance, la distribution des variances n’étant pas normale. La distribution F représente le rapport entre les deux indices de variabilité et est indexée par deux degrés de liberté (inter et intra-groupes). Le test F se souscrit à la loi de Gauss. Plus l’échantillon grossit, plus la variance du groupe se rapproche de la variance réelle.

3

Qu’est-ce que le test de comparaisons multiples?

Le test d’analyse de variance renseigne sur une chose : l’hypothèse nulle est rejetée ou non, il ne dit pas ou se situe la ou les différences. Pour cela, il faut effectuer d’autres tests pour savoir entre quels groupes se trouvent cette ou ces différences. Ces tests sont appelés post-hoc ou tests a posteriori. Ils indiquent quels groupes se distinguent.

4

Pourquoi ne pas faire une série de tests t pour comparer chaque groupe entre eux?

Parce qu’il y aurait plusieurs comparaisons pairées à effectuer! Lorsque l’on effectue plusieurs tests de comparaisons sur les mêmes moyennes, on augmente les probabilités de trouver un résultat significatif uniquement par la chance même si les moyennes sont identiques dans la population. Ceci est ce qu’on appelle le problème des comparaisons multiples.

5

Comment remédier au problème des comparaisons multiples?

On utilise souvent une correction basée sur le nombre de comparaisons à effectuer. Plus il y a de comparaisons, plus le seuil de signification minimal devra être bas. Idéalement on ne devrait observer que les comparaisons qui sont d’intérêt.

6

Qu’est-ce que la correction de Bonferonni?

L’une des corrections les plus simples, car elle ajuste le degré de signification en divisant 0,05 par le nombre de comparaisons à effectuer.

7

Qu’est-ce que la logique anova?

L’analyse de la variance repose sur une décomposition de la variabilité totale entre les scores en une variabilité causée par le facteur étudié et une variabilité causée par les autres facteurs non mesurées ou Erreur. Avec anova, le terme de variance devient carré moyen. On utilise anova quand on a trois échantillons, trois sous-groupes. Les individus d’un échantillon ne peuvent pas se retrouver dans un autre échantillon.

8

Quelles sont les deux parties du carré moyen?

Le numérateur = carré moyen et dénominateur = degré de liberté. La variabilité due à l’ensemble des facteurs non contrôlés est estimée par la variance à l’intérieur du groupe. CME = somme des variances des observations divisées par le nombre des groupes à comparer.

9

Comment calculer rapidement anova?

Calculer la moyenne et le total de chaque échantillon. Calculer aussi la moyenne et le total des trois échantillons qui est donc le grand total et la moyenne de l’ensemble. Calculer le facteur de correction (FC) qui est la somme de tous les scores, puis cette somme est mise au carré et ensuite la somme est divisée par le nombre total des observations. FC sera utilisé pour le calcul de SS total et SS groupe. Calculer la somme des carrés (SCtotal) = la somme de toutes les valeurs mises au carré moins le FC. Calculer la somme des carrés du groupe. La SC groupe mesure la variabilité dans le groupe. C’est la somme des totaux au carré de chaque groupe divisé par l’effectif du groupe. Calculer la somme des carrés des erreurs. Calculer les différents degrés de liberté pour chaque somme des carrés. Calculer CM groupe et CM erreur. Les CM s’obtiennent en divisant les SC par leurs degrés de liberté respectifs. Il n’est pas nécessaire de calculer le CM total. Calculer la statistique F. cette statistique nous aidera à tester H0. On l’obtient en divisant le carré moyen groupe par le carré moyen erreur. Trouver la valeur critique dans la table F. calculer le CM groupe et le CM erreur. Calculer le F observé. Trouver la valeur critique dans la table.

10

Quelle est la logique du test en F?

La statistique F correspond au rapport de la variance expliquée sur la variance d’erreur. Plus la valeur de F est grande, plus on croit que les deux variables sont associées. On conclut que la relation existe dans la population lorsque la valeur de F (selon l’hypothèse que les deux variables sont indépendantes) est trop improbable, plus précisément lorsque la probabilité d’observer une telle valeur est inférieure à 0,05 (règle de la valeur p).

11

Qu’est-ce que l’homogénéité des variances (Test de Levene)?

Avant d’examiner les résultats de l’anova, il importe de vérifier la prémisse d’égalité des variances avec le test de Levene. La première colonne donne la statistique proprement dite : cette statistique est examinée à la lumière de deux degrés de liberté. Le premier est calculé à partir du nombre de groupes moins 1. Le deuxième est calculé à partir du nombre de sujets moins le nombre de groupes. La dernière colonne indique si le test est significatif ou non. Le seuil de signification est toujours fixé à p < 0,05. Si les variables sont considérées semblables, cela permet de passer à l’interprétation de l’anova.

12

Comment faire l’interprétation du tableau anova?

Le tableau anova présente l’effet inter-groupes (effet dû à la variable catégorielle) et l’effet intra-groupes (effet de la variation dans chacun des groupes). Il présente également le total des deux effets pour la somme des carrés et les degrés de liberté. Les degrés de liberté sont les mêmes que pour le test d’homogénéité des variances. La moyenne des carrés est calculée pour les deux effets en divisant la somme des carrés par le degré de liberté associé. La statistique F est le rapport de la somme des carrés moyens inter et intra-groupes. Enfin, la dernière colonne indique que la probabilité de retrouver cette valeur de F lorsque l’hypothèse nulle est vraie est plus petite que 0,0005, soit moins de 0,05%.

13

Qu’est-ce que la colonne de la somme indique?

Pour la variabilité inter-groupes, la sommation de l’écart de chaque moyenne de groupe par rapport à la moyenne totale au carré multipliée par le nombre de sujets. Pour la variabilité intra-groupes, la variance (écart-type au carré) de chaque groupe multipliée par le nombre de sujets de ce groupe moins un.

14

Qu’est-ce que l’interprétation du tableau ad hoc?

Le tableau de comparaisons multiples comprend plusieurs résultats, mais est relativement simple à interpréter. La première colonne comprend chaque groupe comparé et la deuxième présente les groupes comparés avec celui de la première colonne. Dans la colonne Différence de moyennes, on observe les différences entre les groupes suivies par l’erreur-type et le degré de signification associés à cette comparaison. SPSS indique par un astérisque les différences de moyennes qui sont significative. Comme on le remarque, plusieurs comparaisons sont répétitives dans la mesure où on teste chaque groupe par rapport aux autres. Des répétitions sont inévitables. Dans l’exemple, on constate que plusieurs groupes se distinguent. Il n’existe aucune autre différence de moyenne qui dépasse le seuil de signification.

15

Quelle est la taille de l’effet?

Nous pouvons déterminer la proportion de la variance expliquée par la variable indépendante (variable de groupe). En extrayant la racine carrée de ce rapport, on obtient la valeur de R (r). La statistique r indique que la différence entre les groupes se situe entre l’effet de petite et de moyenne taille.