Informations

Qu'est-ce que cela signifie qu'il y ait plus de variance au sein des groupes qu'entre les groupes dans le QI ?

Qu'est-ce que cela signifie qu'il y ait plus de variance au sein des groupes qu'entre les groupes dans le QI ?

Je regardais une courte vidéo YouTube qui commente la validité du QI. Cette vidéo contient l'affirmation suivante (verbatim) :

"Vous ne savez rien de l'intelligence d'une personne sur la base de sa couleur de peau. C'est juste un fait. Il y a beaucoup plus de variance entre les individus dans n'importe quel groupe racial qu'il n'y en a entre les groupes… "

C'était peu de temps après qu'il a déclaré qu'il existe de réelles différences dans le QI moyen des différentes races.

Je trouve la déclaration audacieuse déroutante et je ne sais pas comment l'interpréter. Je comprends ce que signifie la variance lorsque je discute un seul distribution de probabilité cependant, mon apprentissage ne s'est jamais étendu à la variance entre répartitions. Quelqu'un pourrait-il expliquer comment cela se fait et, plus important encore, pourquoi cette mesure justifie la première affirmation (non en gras) ?


"Vous ne savez rien de l'intelligence d'une personne sur la base de sa couleur de peau. C'est juste un fait. Il y a beaucoup plus de variance entre les individus dans n'importe quel groupe racial qu'il n'y en a entre les groupes… "

Les deux premières phrases sont fausses. La dernière phrase est vraie. Il est vraisemblablement motivé par l'idée que nous ne devrions pas inférer les propriétés d'un groupe à l'individu, en particulier lorsqu'une telle inférence entraînera une discrimination.

Point de vue empirique : En tant que point empirique, les différences raciales et nationales dans les résultats des tests d'intelligence sont bien établies dans la littérature (pour une revue, voir https://en.wikipedia.org/wiki/Intelligence:_Knowns_and_Unknowns). Il existe de nombreux débats sur ce que cela signifie (c'est-à-dire, dans quelle mesure cela reflète-t-il les différences génétiques par rapport aux conditions environnementales ? De quelle manière les tests de QI standard ne parviennent-ils pas à mesurer les aspects de l'intelligence qui pourraient être intéressants ? Dans quelle mesure les différences diminuent-elles avec la réduction des inégalités et l'amélioration des conditions de vie ? etc.). Mais en tant que point empirique, j'ai souvent vu des études avec plusieurs milliers de personnes trouver des différences entre les groupes raciaux à proximité d'un écart type. Selon les règles empiriques conventionnelles, il s'agit d'une grande différence.

Point de vue statistique : Si les groupes diffèrent sur une variable, vous pouvez utiliser la connaissance de l'appartenance au groupe pour améliorer votre prédiction sur cette variable. Par exemple, l'occupation prédit le revenu. Si je sais que quelqu'un est médecin, je peux prédire qu'il gagne plus d'argent que les autres. Au fur et à mesure que les différences de groupe s'agrandissent, l'amélioration de la prédiction fournie par la connaissance de l'appartenance au groupe le sera également.

Voici un exemple où les groupes diffèrent d'un écart type (c'est-à-dire qu'un groupe a un QI moyen de 100 et l'autre un QI moyen de 85) :

# Créer des données : 2 groupes différant par 1 SD > group1 <- data.frame(group = 1, iq = rnorm(1000, Mean = 100, sd = 15)) > group2 <- data.frame(group = 2, iq = rnorm(1000, moyenne = 85, sd = 15)) > x <- rbind(group1, group2) > > summary(lm(iq ~ group, x)) Appel : lm(formula = iq ~ group, data = x ) Résidus : Min 1Q Médiane 3Q Max -47,168 -10,344 0,013 10,132 52,188 Coefficients : Estimation Std. Erreur valeur t Pr(>|t|) (Interception) 114,344 1,064 107,46 <2e-16 *** groupe -14,279 0,673 -21,22 <2e-16 *** --- Signif. codes : 0 '***' 0,001 '**' 0,01 '*' 0,05 '.' 0,1"1 Erreur standard résiduelle : 15,05 sur 1998 degrés de liberté R-carré multiple : 0,1839, R-carré ajusté : 0,1835 Statistique F : 450,2 sur 1 et 1998, valeur p : < 2,2e-16

J'ai ensuite effectué une régression multiple. Le R au carré représente le pourcentage de variance expliqué par groupe (c'est-à-dire 18,4 %). Ainsi, la variance intra-groupe est de 100 % - 18,4 % = 81,6 %. C'est donc le fondement de la revendication. Ainsi, une estimation possible basée sur la littérature est que la variance au sein du groupe est environ quatre fois plus grande que la variance entre les groupes. Bien entendu, les chiffres exacts dépendraient des groupes comparés et de la littérature empirique utilisée pour former l'estimation.

Cela soulève la question de savoir à quel point les différences entre les groupes doivent être importantes avant de pouvoir dire que « vous savez quelque chose sur une personne en fonction de son appartenance à un groupe ». Vraisemblablement, une telle inférence est partiellement basée sur des questions pratiques et éthiques liées à une généralisation excessive. En général, les différences de groupe doivent être extrêmement importantes (peut-être 2 ou 3 écarts types) avant que le chevauchement entre les distributions de groupe ne devienne petit.

Perspective juridique/éthique : Plus important encore, la généralisation des groupes aux individus est illégale dans de nombreux contextes. Par exemple, de nombreux pays ont une législation qui vise à empêcher l'utilisation de l'âge, de la race, du sexe, de la religion, etc. comme base pour prendre des décisions en matière d'emploi, d'éducation et autres. Ainsi, même si l'appartenance à ces catégories est prédictive de quelque chose de pertinent, il est interdit aux décideurs d'utiliser cette information. Au contraire, s'ils veulent, par exemple, utiliser les scores d'intelligence pour influencer les décisions d'embauche, alors ils doivent réellement mesurer l'intelligence, plutôt que de s'appuyer sur une méta-analyse qui montre que le groupe auquel appartient le candidat a tendance à obtenir un score plus élevé ou plus bas.

Il existe de nombreuses bonnes raisons pour lesquelles un tel régime juridique est éthique et souhaitable. D'un point de vue pratique, la mesure sera de loin supérieure si vous mesurez réellement la chose d'intérêt plutôt que de la déduire de l'appartenance à un groupe. De plus, dans de nombreux cas, les gens fondent leurs croyances sur les différences de groupe sur des stéréotypes sans fondement empirique. Mais plus important encore, elle réduit la perpétuation des inégalités sociales. Il met l'accent sur les aptitudes, les compétences et les capacités de l'individu.


Dans la vidéo, il discute de certains travaux de Charles Murray (je ne sais pas si vous les connaissez bien). En tout cas, le point principal de votre confusion vient de la différence entre présence et Taille. Le Dr Harris admet qu'il existe des valeurs de QI différentielles entre les races : il est (présence) une différence. Le suivi immédiat, cependant, est que le Taille de cette différence est pâle par rapport à la variabilité avec le groupe, indiquant qu'aucune conclusion pratique ne peut être tirée.

Pour un exemple idiot (et ne laissez aucun groupe terrestre de côté), considérez les martiens et les plutons (pauvre Pluton… ) : les martiens peuvent avoir un QI légèrement supérieur à celui des plutons, mais la variabilité au sein de chaque groupe est beaucoup plus élevée que la différence entre les groupes. Tout l'argument du Dr Harris est que, en rencontrant un pluton aléatoire et un martien aléatoire, vous n'avez pratiquement aucune idée lequel d'entre eux sera le plus intelligent, même si nous savons que les martiens ont tendance à être plus intelligents. Une jolie image illustre les deux groupes ci-dessous.

J'espère que ça aide! Message à emporter de la vidéo est que même s'il existe de petites différences entre les races en termes de QI, elles ne devraient pas jouer un rôle dans le jugement de quelqu'un sur une autre personne en raison de la immensément une plus grande variabilité du QI au sein d'une race donnée (il existe des plutons super intelligents et des plutons super stupides, tout comme il y a des martiens super intelligents et des martiens super stupides : vous ne saurez pas à qui vous parlez jusqu'à ce que vous ayez réellement parlé à eux).

Graphique codé en R :

boxplot(cbind(Plutons = rnorm(1000, moyenne=100, sd=15), Martiens = rnorm(1000, moyenne=102, sd=15)))

Différence entre la variance de la population et la variance de l'échantillon

La principale différence entre la variance de la population et la variance de l'échantillon concerne le calcul de la variance. La variance est calculée en cinq étapes. La moyenne est d'abord calculée, puis nous calculons les écarts par rapport à la moyenne, et troisièmement les écarts sont au carré, quatrièmement les écarts au carré sont additionnés et enfin cette somme est divisée par le nombre d'éléments pour lesquels la variance est calculée. Donc variance= (xi-x-)/n. Où xi = ième. Nombre, x- = moyenne et n = nombre d'éléments.

Maintenant, lorsque la variance doit être calculée à partir de données de population, n est égal au nombre d'éléments. Ainsi, si la variance de la pression artérielle de toutes les 1000 personnes doit être calculée à partir des données sur la pression artérielle de toutes les 1000 personnes, alors n = 1000. Cependant, lorsque la variance est calculée à partir des données de l'échantillon, 1 doit être déduit de n avant de diviser la somme des écarts au carré. Ainsi, dans l'exemple ci-dessus, si les données d'échantillon ont 100 éléments, le dénominateur serait 100 – 1 = 99.

Pour cette raison, la valeur de la variance calculée à partir des données d'échantillon est supérieure à la valeur qui aurait pu être trouvée en utilisant des données de population. La logique consiste à compenser notre manque d'information sur les données démographiques. Il est impossible de découvrir la variance des hauteurs chez les êtres humains, pour notre manque absolu d'informations sur les hauteurs de tous les êtres humains vivants, sans parler de l'avenir. Même si nous prenons un exemple modéré, comme les données démographiques sur la taille de tous les hommes vivants aux États-Unis, cela est physiquement possible, mais le coût et le temps impliqués dans cela iraient à l'encontre du but de son calcul. C'est la raison pour laquelle des échantillons de données sont prélevés pour la plupart des fins statistiques, et cela s'accompagne d'un manque d'informations sur la majorité des données. Afin de compenser cela, la valeur de la variance et l'écart type, qui est la racine carrée de la variance, sont plus élevés dans le cas des données d'échantillon que la variance des données de population.

Cela agit comme un bouclier automatique pour les analystes et les décideurs. La logique s'applique aux décisions sur la budgétisation des immobilisations, les finances personnelles et commerciales, la construction, la gestion du trafic et de nombreux domaines applicables. Cela aide la partie prenante à être du bon côté lors de la prise de décision ou pour d'autres déductions.

Sommaire: La variance de la population fait référence à la valeur de la variance calculée à partir des données de la population, et la variance de l'échantillon est la variance calculée à partir des données de l'échantillon. En raison de cette valeur de dénominateur dans la formule de la variance dans le cas des données d'échantillon est « n-1 », et il est « n » pour les données de population. En conséquence, la variance et l'écart-type dérivés des données d'échantillon sont plus élevés que ceux trouvés à partir des données de population.


Test T, ANOVA et ANCOVA

Concepts de base

Les étudiants t test (également appelé test T) est utilisé pour comparer les moyennes entre deux groupes et il n'y a pas besoin de comparaisons multiples comme unique P est observée, tandis que l'ANOVA est utilisée pour comparer les moyennes entre trois groupes ou plus.[4,5] Dans l'ANOVA, le premier obtient une valeur commune P valeur. Un important P valeur du test ANOVA indique pour au moins une paire, entre laquelle la différence moyenne était statistiquement significative.[6] Pour identifier cette ou ces paires significatives, un test post-hoc (comparaisons multiples) est utilisé. Dans le test ANOVA, lorsqu'au moins une covariable (variable continue) est ajustée pour éliminer l'effet de confusion du résultat appelé ANCOVA. Le test ANOVA (test F) est appelé 𠇊nalyse de la variance” plutôt que 𠇊nalyse des moyennes” car les inférences sur les moyennes sont faites en analysant la variance.[7,8,9]

Étapes du test d'hypothèse

Construction d'hypothèses

Comme les autres tests, il existe deux types d'hypothèses hypothèse nulle et hypothèse alternative. L'hypothèse alternative suppose qu'il existe une différence statistiquement significative entre les moyennes, tandis que l'hypothèse nulle suppose qu'il n'existe aucune différence statistiquement significative entre les moyennes.

Calcul des statistiques de test

Dans ces tests, la première étape consiste à calculer les statistiques du test (appelée valeur t dans le t test et valeur F dans le test ANOVA) également appelée valeur calculée. Il est calculé après avoir mis les entrées (à partir des échantillons) dans la formule de test statistique. Chez l'étudiant t test, la valeur t calculée est le rapport de la différence moyenne et de l'erreur standard, alors que dans le test ANOVA, la valeur F calculée est le rapport de la variabilité entre les groupes avec la variabilité des observations au sein des groupes.[1,4]

Valeur tabulée

Au degré de liberté des observations données et au niveau souhaité de confiance (généralement au test bilatéral, qui est plus puissant que le test unilatéral), la valeur tabulée correspondante du test T ou du test F est sélectionnée (à partir du tableau statistique ).[1,4]

Comparaison de la valeur calculée avec la valeur tabulée et l'hypothèse nulle

Si la valeur calculée est supérieure à la valeur tabulée, rejetez l'hypothèse nulle où l'hypothèse nulle indique que les moyennes sont statistiquement identiques entre les groupes. [1,4] À mesure que la taille de l'échantillon augmente, le degré de liberté correspondant augmente également. Pour un niveau de confiance donné, un degré de liberté plus élevé a une valeur tabulée plus faible. C'est la raison pour laquelle, lorsque la taille de l'échantillon augmente, son niveau de signification s'améliore également (c'est-à-dire, P la valeur diminue).

Test T

C'est l'une des techniques statistiques les plus utilisées pour tester si la différence moyenne entre deux groupes est statistiquement significative. L'hypothèse nulle a déclaré que les deux moyennes sont statistiquement égales, tandis que l'hypothèse alternative a déclaré que les deux moyennes ne sont pas statistiquement égales, c'est-à-dire qu'elles sont statistiquement différentes l'une de l'autre. [1,3,7] Les tests T sont de trois types, c'est-à-dire un échantillon. t test, échantillons indépendants t test et échantillons appariés t test.

Test t à un échantillon

Le test t à un échantillon est une procédure statistique utilisée pour déterminer si la valeur moyenne d'un échantillon est statistiquement identique ou différente de la valeur moyenne de sa population parente à partir de laquelle l'échantillon a été tiré. Pour appliquer ce test, la moyenne, l'écart type (SD), la taille de l'échantillon (variable de test) et la moyenne de la population ou la valeur moyenne hypothétique (valeur de test) sont utilisés. L'échantillon doit être à variable continue et normalement distribué.[1,9,10,11] Un échantillon t test est utilisé lorsque la taille de l'échantillon est 㰰. Dans le cas où la taille de l'échantillon est � utilisé pour préférer un test z d'échantillon à un échantillon t test bien que pour un test z échantillon, la population SD doit être connue. Si la population SD n'est pas connue, un échantillon t Le test peut être utilisé pour n'importe quelle taille d'échantillon. Dans un échantillon de test Z, la valeur tabulée est la valeur z (au lieu de la valeur t dans un échantillon t test). Pour appliquer ce test via un logiciel statistique populaire, c'est-à-dire un logiciel statistique pour les sciences sociales (SPSS), l'option peut être trouvée dans le menu suivant [Analyser – comparer les moyens – un échantillon t test].

Exemple: À partir du tableau 1, l'IMC (moyenne ± SD) a été donné de 24,45 ± 2,19, alors que la moyenne de la population a été supposée être de 25,5. Un échantillon t le test a indiqué que la différence moyenne entre la moyenne de l'échantillon et la moyenne de la population était statistiquement significativement différente l'une de l'autre (P = 0.045).

Test t d'échantillons indépendants

L'indépendant t test, également appelé non apparié t est un test statistique inférentiel qui détermine s'il existe une différence statistiquement significative entre les moyennes de deux groupes non liés (indépendants) ?

Pour appliquer ce test, une variable continue normalement distribuée (variable de test) et une variable catégorielle à deux catégories (variable de regroupement) sont utilisées. Une moyenne supplémentaire, l'écart-type et le nombre d'observations du groupe 1 et du groupe 2 seraient utilisés pour calculer le niveau de signification. Dans cette procédure, le premier niveau de signification du test de Levene est calculé et lorsqu'il est non significatif (P > 0,05), variances égales sinon (P < 0,05), des variances inégales sont supposées entre les groupes et selon P la valeur est sélectionnée pour les échantillons indépendants t test.[1,10,11,12] Dans SPSS [Analyser – comparer les moyennes – échantillons indépendants t test].

Exemple: D'après le tableau 1 , IMC moyen de l'homme (m = 10) et femelle (m = 10) étaient de 24,80 ± 2,20 et 24,10 ± 2,23, respectivement. Le test de Levene (p = 0,832) a indiqué que les variances entre les groupes étaient statistiquement égales. A variances égales supposées, échantillons indépendants t test (p = 0,489) a indiqué que l'IMC moyen des hommes et des femmes était statistiquement égal.

Test t d'échantillons appariés

Les échantillons appariés t test, parfois appelé les échantillons dépendants t-test, est utilisé pour déterminer si le changement de moyenne entre deux observations appariées est statistiquement significatif ? Dans ce test, les mêmes sujets sont mesurés à deux moments ou observés par deux méthodes différentes.[4] Pour appliquer ce test, des variables appariées (observations pré-post des mêmes sujets) sont utilisées, les variables appariées devant être continues et normalement distribuées. Une moyenne et un écart-type supplémentaires des différences appariées et de la taille de l'échantillon (c'est-à-dire le nombre de paires) seraient utilisés pour calculer le niveau de signification. t test].

Exemple: D'après le tableau 1, la PAD des 20 patients (moyenne ± SD) à l'inclusion, 30 min et les différences appariées (différence entre les lignes de base et 30 min) étaient de 79,55 ± 4,87, 83,90 ± 5,58 et 4,35 &# x000b1 4.16. Échantillons appariés t le test a indiqué que la différence moyenne des observations appariées de PAD entre la ligne de base et 30 min était statistiquement significative (P < 0,001).

Test ANOVA (test F)

Une technique statistique utilisée pour comparer les moyennes entre trois groupes ou plus est connue sous le nom de test ANOVA ou F. Il est important que l'ANOVA soit une statistique de test omnibus. Son important P La valeur indique qu'il existe au moins une paire dans laquelle la différence moyenne est statistiquement significative. Pour déterminer les paires spécifiques, post-hoc des tests (comparaisons multiples) sont utilisés. Il existe différents tests ANOVA, et leurs objectifs varient d'un test à l'autre. Il existe deux principaux types d'ANOVA, à savoir l'ANOVA à sens unique et l'ANOVA à mesures répétées à sens unique. First est utilisé pour les observations indépendantes et plus tard pour les observations dépendantes. Lorsqu'il est utilisé, une variable indépendante catégorielle appelée ANOVA à un facteur, alors que pour deux variables indépendantes catégorielles appelées ANOVA à deux facteurs. Lorsqu'on utilise au moins une covariable pour ajuster avec la variable dépendante, l'ANOVA devient ANCOVA.[1,11,14]

Test post-hoc (comparaisons multiples) : Post-hoc tests (comparaisons multiples par paire) utilisés pour déterminer la ou les paires significatives après que l'ANOVA a été jugée significative. Avant d'appliquer le test post-hoc (facteurs entre sujets), il faut d'abord tester l'homogénéité des variances entre les groupes (test de Levene). Si les écarts sont homogènes (P ≥ 0,05), sélectionnez n'importe quelle méthode de comparaison multiple parmi la différence la moins significative (LSD), Bonferroni, Tukey's, etc.[15,16] Si les variances ne sont pas homogènes (P < 0,05), utilisé pour sélectionner n'importe quelle méthode de comparaison multiple parmi Games-Howell, Tamhane's T2, etc.[15,16] Bonferroni est une bonne méthode pour des variances égales, alors que Le T2 de Tamhane pour des variances inégales, car les deux calculent le niveau de signification en contrôlant le taux d'erreur. De même, pour les mesures répétées ANOVA (RMA) (dans les facteurs intra-sujets), sélectionnez n'importe quelle méthode parmi LSD, Boneferroni, Sidak bien que Bonferroni puisse être un meilleur choix. Le niveau de signification de chacune des méthodes de comparaison multiple varie des autres méthodes, chacune étant utilisée pour une situation particulière.

ANOVA à sens unique

L'ANOVA à une voie est une extension d'échantillons indépendants t test (dans des échantillons indépendants t test utilisé pour comparer les moyennes entre deux groupes indépendants, alors que dans l'ANOVA à un facteur, les moyennes sont comparées entre trois groupes indépendants ou plus). Un important P La valeur de ce test fait référence au test de comparaisons multiples pour identifier la ou les paires significatives.[17] Dans ce test, une variable dépendante continue et une variable indépendante catégorielle sont utilisées, la variable catégorielle comportant au moins trois catégories. Dans SPSS [Analyser𠄼omparer signifie–one-way ANOVA].

Exemple: A partir du tableau 1, 20 PAD de patients (à 30 min) sont données. Un test ANOVA à un facteur a été utilisé pour comparer la PAD moyenne dans trois groupes d'âge (variable indépendante), qui s'est avérée statistiquement significative (p = 0,002). Le test de Levene pour l'homogénéité était insignifiant (p = 0,231), par conséquent, le test de Bonferroni a été utilisé pour des comparaisons multiples, qui ont montré que la PAD était significativement différente entre deux paires, c'est-à-dire le groupe d'âge de 㰰 à 30� et 㰰 à 㹐 (P < 0,05) mais insignifiant entre une paire, c'est-à-dire 30� à 㹐 (P > 0,05).

ANOVA bidirectionnelle

L'ANOVA à deux facteurs est une extension de l'ANOVA à un facteur [Dans l'ANOVA à un facteur, une seule variable indépendante, alors que dans l'ANOVA à deux facteurs, deux variables indépendantes sont utilisées]. L'objectif principal d'une ANOVA à deux facteurs est de comprendre s'il existe une interrelation entre deux variables indépendantes sur une variable dépendante.[18] Dans ce test, une variable dépendante continue (à peu près normalement distribuée) et deux variables indépendantes catégorielles sont utilisées. Dans SPSS [Analyser –Modèle linéaire général –Univariée].

Exemple: A partir du tableau 1, 20 PAD de patients (à 30 min) sont données. Un test ANOVA à deux facteurs a été utilisé pour comparer la PAD moyenne entre les tranches d'âge (variable indépendante_1) et le sexe (variable indépendante_2), ce qui indiquait qu'il n'y avait pas d'interaction significative de la PAD avec les tranches d'âge et le sexe (tests d'effets inter-sujets sur l'âge groupes*genre P = 0,626) avec une taille d'effet (Eta au carré partiel) de 0,065. Le résultat a également montré qu'il y avait une différence significative dans les moyennes marginales estimées (moyenne ajustée) de la PAD entre les groupes d'âge (P = 0,005) mais non significatif en genre (P = 0,662), où le sexe et les groupes d'âge ont été ajustés.

ANOVA unidirectionnelle à mesures répétées

L'ANOVA des mesures répétées (RMA) est l'extension de la paire t test. La RMA est également appelée ANOVA intra-sujets ou ANOVA pour les échantillons appariés. La conception à mesures répétées est une conception de recherche qui implique plusieurs mesures de la même variable prises sur les mêmes sujets ou des sujets appariés, soit dans des conditions différentes, soit sur plus de deux périodes. (En échantillons appariés t test, comparait les moyennes entre deux groupes dépendants, alors que dans le RMA, comparait les moyennes entre trois groupes dépendants ou plus). Avant de calculer le niveau de signification, le test de Mauchly est utilisé pour évaluer l'homogénéité de la variance (également appelée sphéricité) au sein de toutes les paires possibles. Lorsque P la valeur du test de Mauchly est insignifiante (P ≥ 0,05), des variances égales sont supposées et P la valeur de RMA serait tirée du test supposé de sphéricité (tests des effets intra-sujets). Dans le cas où les variances ne sont pas homogènes (test de Mauchly : P < 0,05), la valeur epsilon (ε) (qui montre le départ de la sphéricité, 1 montre la sphéricité parfaite) décide de la méthode statistique à calculer P valeur pour le RMA. Lorsque ε𢙐.75 Huynh-Feldt tandis que pour ε< 0,75, la méthode de Greenhouse-Geisser (méthode univariée) ou le lambda de Wilks (méthode multivariée) est utilisé pour calculer P valeur pour la RMA.[19] Lorsque le RMA est significatif, la comparaison par paire contient plusieurs paires t des tests avec une correction de Bonferroni sont utilisés.[20] Dans SPSS [Analyser –Modèle linéaire général – ANOVA de mesures répétées].

Exemple: D'après le tableau 1, la PAD de 20 patients était au départ (79,55 ± 4,87), à 30 min (83,90 ± 5,58) et à 60 min (79,25 ± 5,68). Le test de sphéricité de Mauchly a indiqué que les variances étaient égales (P = 0,099) entre les paires. Les tests RMA (c'est-à-dire les effets intra-sujets) ont été évalués à l'aide du test de sphéricité supposéeP valeur = 0,001), ce qui indiquait que le changement de la PAD au fil du temps était statistiquement significatif. Les comparaisons multiples de Bonferroni ont indiqué que la différence moyenne était statistiquement significative entre DBP_B/l à DBP_30 min et DBP_30 min à DBP_60 min (P < 0,05) mais non significatif entre DBP_B/l à DBP_60 min (P > 0,05).

ANOVA à mesures répétées dans les deux sens

L'ANOVA à mesures répétées bidirectionnelles est une combinaison de facteurs inter-sujets et intra-sujets. Une RMA bidirectionnelle (également appelée RMA à deux facteurs ou “Mixed ANOVA”) est une extension de la RMA unidirectionnelle [Dans la RMA unidirectionnelle, utilisez une variable dépendante sous des observations répétées (normalement distribuées) variable continue) et une variable indépendante catégorielle (c'est-à-dire des points dans le temps), alors que dans la RMA bidirectionnelle, une variable indépendante catégorielle supplémentaire est utilisée]. L'objectif principal de la RMA bidirectionnelle est de comprendre s'il existe une interaction entre ces deux variables indépendantes catégorielles sur la variable dépendante (variable continue). La distribution de la variable dépendante dans chaque combinaison des groupes apparentés devrait être approximativement normalement distribuée.[21] Dans SPSS [Analyze–General Linear Model – Repeated Measures], où la deuxième variable indépendante sera incluse comme facteur entre les sujets.

Exemple: D'après le tableau 1, la PAD de 20 patients était au départ (79,55 ± 4,87), à 30 min (83,90 ± 5,58) et à 60 min (79,25 ± 5,68). Le test de sphéricité de Mauchly (P = 0,138) a indiqué que les variances étaient égales entre les paires. Les tests RMA bidirectionnels pour l'interaction (c. P valeur = 0,214), ce qui indiquait qu'il n'y avait pas d'interaction du sexe avec le temps et que le changement associé de la PAD au fil du temps était statistiquement insignifiant.

ANCOVA à sens unique

L'ANCOVA à un facteur est une extension de l'ANOVA à un facteur [Dans l'ANOVA à un facteur, n'ajustez pas la covariable, alors que dans l'ANCOVA à un facteur, ajustez au moins une covariable]. Ainsi, les tests ANCOVA à sens unique déterminent si la variable indépendante influence toujours la variable dépendante après que l'influence de la ou des covariables a été supprimée (c'est-à-dire ajustée). Dans ce test, une variable dépendante continue, une variable indépendante catégorielle et au moins une covariable continue pour supprimer son effet/ajustement sont utilisées. [8,22] Dans SPSS [Analyze - General Linear Model – Univariate].

Exemple: A partir du tableau 1, 20 PAD de patients à 30 min sont données. Le test ANCOVA unidirectionnel a été utilisé pour comparer la PAD moyenne dans trois groupes d'âge (variable indépendante) après ajustement de l'effet de la PAD initiale, qui s'est avérée statistiquement significative (P = 0,021). Comme le test de Levene pour l'homogénéité était insignifiant (P = 0,601), le test de Bonferroni résultant a été utilisé pour des comparaisons multiples, qui ont montré que la PAD était significativement différente entre une paire, c'est-à-dire le groupe d'âge de 㰰 à 㹐 (P = 0,031) et insignifiant entre deux paires de repos, c'est-à-dire 㰰 à 30� et 30� à 㹐 (P > 0,05).

Mesures répétées à sens unique ANOCOVA

Mesures répétées unidirectionnelles ANCOVA est l'extension de la RMA unidirectionnelle. [Dans la RMA unidirectionnelle, nous n'ajustons pas la covariable, alors que dans l'ANCOVA à mesures répétées unidirectionnelles, nous ajustons au moins une covariable]. Ainsi, l'ANCOVA des mesures répétées à sens unique est utilisée pour tester si les moyennes sont toujours statistiquement égales ou différentes après ajustement de l'effet de la ou des covariables.[23,24] Dans SPSS [Analyze –General Linear Model – Repeated Mesures ANOVA].

Exemple: D'après le tableau 1, la PAD de 20 patients était au départ (79,55 ± 4,87), à 30 min (83,90 ± 5,58) et à 60 min (79,25 ± 5,68). Le test de sphéricité de Mauchly a indiqué que les variances étaient égales (P = 0,093) entre les paires. Les tests RMA (c. P = 0,011), ce qui indiquait que le changement de la PAD au fil du temps était statistiquement significatif après ajustement de l'IMC. Les comparaisons multiples de Bonferroni ont indiqué que la différence moyenne était statistiquement significative entre DBP_B/l à DBP_30 min et DBP_30 min à DBP_60 min mais non significative entre DBP_B/l à DBP_60 min après ajustement de l'IMC.


Foire aux questions sur la variance

La variabilité est le plus souvent mesurée à l'aide des statistiques descriptives suivantes :

  • Varier: la différence entre les valeurs les plus élevées et les plus basses
  • Gamme interquartile: l'étendue de la moitié médiane d'une distribution
  • Écart-type: distance moyenne de la moyenne
  • Variance: moyenne des distances au carré à partir de la moyenne

La variance est la moyenne des carrés des écarts par rapport à la moyenne, tandis que l'écart type est la racine carrée de ce nombre. Les deux mesures reflètent la variabilité d'une distribution, mais leurs unités diffèrent :

  • L'écart type est exprimé dans les mêmes unités que les valeurs d'origine (par exemple, minutes ou mètres).
  • La variance est exprimée en unités beaucoup plus grandes (par exemple, mètres carrés).

Bien que les unités de variance soient plus difficiles à comprendre intuitivement, la variance est importante dans les tests statistiques.

Les tests statistiques tels que les tests de variance ou l'analyse de la variance (ANOVA) utilisent la variance de l'échantillon pour évaluer les différences de groupe de populations. Ils utilisent les variances des échantillons pour évaluer si les populations dont ils proviennent diffèrent significativement les unes des autres.

L'homoscédasticité, ou homogénéité des variances, est une hypothèse de variances égales ou similaires dans différents groupes comparés.

Il s'agit d'une hypothèse importante des tests statistiques paramétriques car ils sont sensibles à toute dissemblance. Des écarts inégaux dans les échantillons entraînent des résultats de test biaisés et faussés.


Comprendre les hypothèses de l'ANOVA

Comme d'autres types de tests statistiques, ANOVA compare les moyennes de différents groupes et vous montre s'il existe des différences statistiques entre les moyennes. L'ANOVA est classée comme statistique de test omnibus. Cela signifie qu'il ne peut pas vous dire quels groupes spécifiques étaient statistiquement significativement différents les uns des autres, seulement qu'au moins deux des groupes l'étaient.

Il est important de se rappeler que la principale question de recherche de l'ANOVA est de savoir si les moyennes de l'échantillon proviennent de populations différentes. L'ANOVA repose sur deux hypothèses :

  1. Quelle que soit la technique de collecte des données, les observations au sein de chaque population échantillonnée sont normalement distribuées.
  2. La population échantillonnée a une variance commune de s2.

Analyser les différences entre les groupes

Des tests statistiques peuvent être utilisés pour analyser les différences dans les scores de deux ou plusieurs groupes. Les tests statistiques suivants sont couramment utilisés pour analyser les différences entre les groupes :

Test T

Un test t est utilisé pour déterminer si les scores de deux groupes diffèrent sur une seule variable. Un test t est conçu pour tester les différences de scores moyens. Par exemple, vous pouvez utiliser un test t pour déterminer si la capacité d'écriture diffère entre les élèves de deux classes.

Noter: Un test t n'est approprié que lorsque l'on regarde jumelé Les données. Il est utile pour analyser les scores de deux groupes de participants sur une variable particulière ou pour analyser les scores d'un seul groupe de participants sur deux variables.

Test T des paires appariées

Ce type de test t pourrait être utilisé pour déterminer si les scores des mêmes participants à une étude diffèrent dans différentes conditions. Par exemple, ce type de test t pourrait être utilisé pour déterminer si les gens écrivent de meilleurs essais après prendre un cours d'écriture qu'eux avant prendre le cours d'écriture.

Noter: Un test t n'est approprié que lorsque l'on regarde jumelé Les données. Il est utile pour analyser les scores de deux groupes de participants sur une variable particulière ou pour analyser les scores d'un seul groupe de participants sur deux variables.

Analyse de variance (ANOVA)

L'ANOVA (analyse de la variance) est un test statistique qui prend une seule décision globale quant à savoir si une différence significative est présente entre trois moyennes d'échantillon ou plus (Levin 484). Une ANOVA est similaire à un test t. Cependant, l'ANOVA peut également tester plusieurs groupes pour voir s'ils diffèrent sur une ou plusieurs variables. L'ANOVA peut être utilisée pour tester les différences entre les groupes et au sein des groupes. Il existe deux types d'ANOVA :

ANOVA à un facteur : Ceci teste un ou plusieurs groupes pour déterminer s'il existe des différences sur un Célibataire ensemble de partitions. Par exemple, une ANOVA à sens unique pourrait déterminer si les étudiants de première année, les étudiants de deuxième année, les juniors et les seniors différaient dans leur capacité de lecture.

ANOVA multiple (MANOVA) : Ceci teste un ou plusieurs groupes pour déterminer s'il y a des différences sur deux ou plus variables. Par exemple, une MANOVA pourrait déterminer si les étudiants de première année, les étudiants de deuxième année, les juniors et les seniors différaient en termes de capacité de lecture et si ces différences étaient reflétées par le sexe. Dans ce cas, un chercheur pourrait déterminer (1) si la capacité de lecture différait selon les niveaux de classe, (2) si la capacité de lecture différait selon le sexe, et (3) s'il y avait une interaction entre le niveau de classe et le sexe.


Comparaison des moyennes entre deux groupes : réalisation d'un test T à deux échantillons à l'aide de SPSS

Un guide étape par étape, clair et concis pour effectuer un test T à deux échantillons à l'aide de SPSS.

Quand utilisons-nous le test T à deux échantillons ?
Le test T à deux échantillons est également connu sous le nom de Test T indépendant ou test T inter-sujets. Nous effectuons ce test lorsque nous voulons comparer la moyenne de deux échantillons différents.

Exemple de scénario
Comparaison des scores moyens à un test de statistiques entre des étudiants en psychologie et des étudiants en droit

Dans cet exemple, notre hypothèse nulle est qu'il n'y a pas de différence entre le score moyen des étudiants en psychologie et des étudiants en droit. Notre hypothèse alternative est qu'il existe une différence entre le score moyen des étudiants en psychologie et celui des étudiants en droit. L'ensemble de données peut être obtenu ici.

Dans les données, la première colonne correspond aux résultats des tests pour tous les élèves et la deuxième colonne correspond aux variables de regroupement. Ici, « p » est pour les étudiants en psychologie et « l » pour les étudiants en droit.

Étape 1
Sélectionnez "Analyser -> Comparer les moyennes -> Test T pour échantillons indépendants".

Étape 2
Dans la liste de gauche, sélectionnez la variable « Test_scores » comme « Variable(s) de test » et la variable « Étudiants » comme variable de regroupement.

Après avoir sélectionné la variable de regroupement, cliquez sur "Définir les groupes". Une nouvelle fenêtre apparaît. Entrez « p » comme groupe 1 et « l » comme groupe 2.

Cliquez sur « Continuer ». La fenêtre disparaît maintenant. Cliquez maintenant sur « OK ».

Étape 3
Les résultats apparaissent maintenant dans la fenêtre « Sortie ».

Étape 4
Nous pouvons maintenant interpréter le résultat.

Ici, vous voyez qu'il y a deux résultats de deux tests t différents, l'un supposant une variance égale et l'autre une variance inégale. Le résultat à utiliser dépend du résultat du test de Levene. Comme à partir de A, la valeur p du test de Levene est de 0,591, nous pouvons supposer que la variance de deux groupes est la même. (Si la valeur p du test de Levene est inférieure à 0,05, nous devons utiliser le résultat « Variance inégale ») De B, puisque la valeur p est de 0,001, nous rejetons l'hypothèse nulle et concluons qu'il existe une différence entre la moyenne score des étudiants en psychologie et des étudiants en droit à un niveau de signification de 5 %.

Choisir le test statistique approprié pour répondre à vos questions de recherche est un art qui nécessite des années pour se perfectionner. Avec des années d'expérience, je peux m'occuper de tous les aspects statistiques de votre étude et vous pouvez consacrer plus de temps à vos questions de recherche de fond.

Une fois que vous décidez d'utilisermon service, vous pouvez vous attendre au plus haut degré d'engagement pour la réussite de vos études.

N'hésitez pas à nous contacter pour vos demandes. Je suis sûr que je peux vous aider à résoudre vos problèmes :)


Tests statistiques : lequel utiliser ?

Publié le 28 janvier 2020 par Rebecca Bevans. Révisé le 28 décembre 2020.

Les tests statistiques sont utilisés dans les tests d'hypothèses. Ils peuvent être utilisés pour :

  • déterminer si une variable prédictive a une relation statistiquement significative avec une variable de résultat.
  • Estimer la différence entre deux groupes ou plus.

Les tests statistiques supposent une hypothèse nulle d'absence de relation ou de différence entre les groupes. Ensuite, ils déterminent si les données observées se situent en dehors de la plage de valeurs prédites par l'hypothèse nulle.

Si vous savez déjà à quels types de variables vous avez affaire, vous pouvez utiliser l'organigramme pour choisir le bon test statistique pour vos données.


Statistiques 3XE3

a) Les données que nous avons saisies dans SPSS sont différentes des données collectées.

b) Nous concluons qu'il n'y a pas d'effet dans la population alors qu'en fait il y en a.

c) Nous concluons que la statistique de test est significative alors qu'en fait elle ne l'est pas.

a) Il y aura une relation significative entre le nombre de tasses de café bues au cours des 4 dernières heures et la fréquence cardiaque.

b) Il n'y aura aucune relation entre la fréquence cardiaque et le nombre de tasses de café bues au cours des 4 dernières heures.

c) Les personnes qui boivent plus de tasses de café auront un rythme cardiaque considérablement plus bas.

a) Les personnes qui mangent du saumon auront un teint plus éclatant que celles qui n'en mangent pas.

b) Les personnes qui mangent du saumon auront un teint similaire à celles qui n'en mangent pas.

c) Manger du saumon ne prédit pas l'éclat de la peau.

a) Les variables estiment le centre de la distribution.

b) Les variables sont estimées à partir des données et sont (généralement) des constantes censées représenter une vérité fondamentale sur les relations dans le modèle.

c) Les variables sont des construits mesurés qui varient selon les entités de l'échantillon.

a) Les paramètres sont des construits mesurés qui varient selon les entités de l'échantillon.

b) Un paramètre nous indique dans quelle mesure la moyenne représente les données de l'échantillon.

c) Les paramètres sont estimés à partir des données et sont (généralement) des constructions censées représenter une vérité fondamentale sur les relations entre les variables du modèle.

a) Non, vous ne pouvez pas, car la limite inférieure de l'intervalle de confiance est 0,131, ce qui est inférieur à 0,30, et donc la vraie corrélation pourrait être inférieure à 0,30.

b) Oui, vous le pouvez, car le coefficient de corrélation est de 0,5 (ce qui est supérieur à 0,30) et se situe dans les limites de l'intervalle de confiance.

c) Non, vous ne pouvez pas, car la taille de l'échantillon était trop petite.

a) Il n'est pas affecté par les valeurs aberrantes.

b) Il vous donne une mesure de la mesure dans laquelle votre paramètre d'échantillon représente la valeur de la population.

c) Il nous indique la valeur précise de la variance au sein de la population.

d) Il n'est pas affecté par la distribution des scores.

a) A moins de pouvoir pour trouver un effet.

b) A plus de pouvoir pour trouver un effet.

c) A la même quantité de puissance, les données sont simplement collectées différemment.

Rétroaction : lorsque les mêmes participants sont utilisés dans plusieurs conditions, la variance non systématique (souvent appelée variance d'erreur) est considérablement réduite, ce qui facilite la détection de toute variance systématique.

(Indice : les valeurs positives de kurtosis indiquent trop de scores dans les queues de la distribution et que la distribution est trop pointue, tandis que les valeurs négatives indiquent trop peu de scores dans les queues et que la distribution est assez plate).

a) Il y a une erreur dans votre calcul.

b) Une distribution pointue et à queue lourde

c) Une distribution plate et à queue lourde

d) Une distribution plate et en queue légère

Rétroaction : plus la valeur est éloignée de zéro, plus il est probable que les données ne soient pas distribuées normalement.

b) Uniquement si vous avez utilisé un plan à mesures indépendantes.

d) Uniquement si vous disposez d'un échantillon de grande taille.

a) Si les scores sont normalement distribués.

b) Si les scores sont indépendants.

c) Si les moyennes des groupes sont égales.

d) Si les variances de groupe diffèrent.

a) Effectuez une corrélation partielle pour examiner la relation entre le QI et le revenu annuel tout en éliminant l'effet de l'éthique du travail.

b) Effectuez une corrélation partielle pour examiner la relation entre l'éthique du travail et le revenu annuel en éliminant l'effet du QI.

c) Effectuer une corrélation semi-partielle pour examiner la relation entre le QI et le revenu annuel tout en éliminant partiellement l'effet de l'éthique du travail.

d) Effectuer une corrélation semi-partielle pour examiner la relation entre le QI et l'éthique du travail tout en éliminant partiellement l'effet du revenu annuel.

Rétroaction : la corrélation partielle dégrade l'effet que la troisième variable a sur les deux variables de la corrélation.


Qu'est-ce que cela signifie qu'il y ait plus de variance au sein des groupes qu'entre les groupes dans le QI ? - Psychologie

Utilisation de SPSS pour l'analyse unidirectionnelle de la variance

Ce didacticiel vous montrera comment utiliser SPSS version 12 pour effectuer une analyse de variance unidirectionnelle entre sujets et les tests post-hoc associés.

  • Téléchargement de l'ensemble de données de classe standard (cliquez sur le lien et enregistrez le fichier de données)
  • Démarrage de SPSS (cliquez sur Démarrer | Programmes | SPSS pour Windows | SPSS 12.0 pour Windows)
  • Chargement de l'ensemble de données standard

L'analyse unidirectionnelle de la variance (ANOVA) est un test statistique inférentiel qui vous permet de tester si l'une de plusieurs moyennes est différente les unes des autres. Il suppose que la variable dépendante a une échelle d'intervalle ou de rapport, mais il est souvent également utilisé avec des données à l'échelle ordinale.

  1. Écrivez l'hypothèse nulle :
    H 0 : µ Mathématiques = µ Anglais = µ Arts visuels = µ Histoire
    Où µ représente le GPA moyen.
  2. Écrivez l'hypothèse alternative :
    H 1 : pas H 0
    (Rappelez-vous que l'hypothèse alternative doit être mutuellement exclusive et exhaustive de l'hypothèse nulle.)
  3. Spécifiez le niveau &alpha : &alpha = .05
  4. Déterminez le test statistique à effectuer : dans ce cas, la GPA est approximativement proportionnelle, et nous avons plusieurs (4) groupes, donc l'ANOVA entre les sujets est appropriée.
  5. Calculez la statistique appropriée :

SPSS suppose que la variable indépendante (techniquement une variable quasi-indépendante dans ce cas) est représentée numériquement. Dans l'exemple d'ensemble de données, MAJOR est une chaîne. Nous devons donc d'abord convertir MAJOR d'une variable chaîne en une variable numérique. Consultez le didacticiel sur la transformation d'une variable pour savoir comment procéder. Nous devons recoder automatiquement la variable MAJOR en une variable appelée MAJORNUM.

Une fois que vous avez recodé la variable indépendante, vous êtes prêt à effectuer l'ANOVA. Cliquez sur Analyser | Comparer Moyens | ANOVA à un facteur :

La boîte de dialogue ANOVA à un facteur apparaît :

Dans la liste de gauche, cliquez sur la variable qui correspond à votre variable dépendante (celle qui a été mesurée). Déplacez-la dans la liste dépendante en cliquant sur le bouton flèche du haut. Dans cet exemple, le GPA est la variable que nous avons enregistrée, nous cliquons donc dessus et sur le bouton flèche du haut :

Sélectionnez maintenant la variable (quasi) indépendante dans la liste de gauche et cliquez dessus. Déplacez-le dans la zone Facteur en cliquant sur le bouton fléché du bas. Dans cet exemple, la variable quasi-indépendante est la variable recodée ci-dessus, MAJORNUM :

Cliquez sur le bouton Post Hoc pour spécifier le type de comparaison multiple que vous souhaitez effectuer. La boîte de dialogue Post Hoc apparaît :

Consultez votre manuel de statistiques pour décider quel test post-hoc vous convient. Dans cet exemple, j'utiliserai un test post-hoc conservateur, le test de Tukey. Cliquez dans la case à côté de Tukey (pas Tukey's-b) :

Cliquez sur le bouton Continuer pour revenir à la boîte de dialogue ANOVA à un facteur. Cliquez sur le bouton Options dans la boîte de dialogue ANOVA à un facteur. La boîte de dialogue Options ANOVA à un facteur apparaît :

Cliquez dans la case à cocher à gauche de Descriptives (pour obtenir des statistiques descriptives), Homogénéité de la variance (pour obtenir un test de l'hypothèse d'homogénéité de la variance) et Means plot (pour obtenir un graphique des moyennes des conditions.):

Cliquez sur le bouton Continuer pour revenir à la boîte de dialogue ANOVA à un facteur. Dans la boîte de dialogue One Way ANOVA, cliquez sur le bouton OK pour effectuer l'analyse de la variance. La fenêtre de sortie SPSS apparaîtra. La sortie se compose de six sections principales. Tout d'abord, la section descriptive apparaît :

Pour chaque variable dépendante (par exemple GPA), la sortie descriptive donne la taille de l'échantillon, la moyenne, l'écart type, le minimum, le maximum, l'erreur standard et l'intervalle de confiance pour chaque niveau de la variable (quasi) indépendante. Dans cet exemple, 7 personnes ont répondu qu'elles feraient une majeure en mathématiques si elles ne pouvaient pas être une majeure en psychologie, et leur moyenne cumulative était de 3,144, avec un écart type de 0,496. Il y avait 16 personnes qui seraient une majeure en anglais si elles ne pouvaient pas être une majeure en psychologie, et leur moyenne pondérée cumulative était de 2,937 avec un écart type de 0,5788.

Le test d'homogénéité des variances teste en sortie H 0 : &sigma 2 Math = &sigma 2 Anglais = &sigma 2 Art = &sigma 2 Histoire . Il s'agit d'une hypothèse importante faite par l'analyse de la variance. Pour interpréter cette sortie, regardez la colonne intitulée Sig. C'est la valeur p. Si la valeur p est inférieure ou égale à votre niveau &alpha pour ce test, alors vous pouvez rejeter le H 0 que les variances sont égales. Si la valeur p est supérieure au niveau &alpha pour ce test, alors nous ne rejetons pas H 0, ce qui augmente notre confiance dans le fait que les variances sont égales et que l'hypothèse d'homogénéité de la variance a été satisfaite. La valeur p est .402. Comme la valeur p est supérieure au niveau &alpha, nous ne rejetons pas H 0, ce qui implique qu'il y a peu de preuves que les variances ne sont pas égales et que l'hypothèse d'homogénéité de la variance peut être raisonnablement satisfaite.

La sortie ANOVA nous donne le tableau récapitulatif de l'analyse de la variance. Il y a six colonnes dans la sortie :

ColonneLa description
Sans étiquette (Source de la variance)La première colonne décrit chaque ligne du tableau récapitulatif ANOVA. Il nous indique que la première ligne correspond à l'estimation de la variance entre les groupes (l'estimation qui mesure l'effet et l'erreur). L'estimation de la variance entre les groupes forme le numérateur du rapport F. La deuxième ligne correspond à l'estimation de la variance intra-groupe (l'estimation de l'erreur). L'estimation de la variance à l'intérieur des groupes forme le dénominateur du rapport F. La dernière ligne décrit la variabilité totale des données.
Somme des carrésLa colonne Somme des carrés donne la somme des carrés pour chacune des estimations de la variance. La somme des carrés correspond au numérateur du rapport de variance.
dfLa troisième colonne donne les degrés de liberté pour chaque estimation de la variance.

Les degrés de liberté pour l'estimation de la variance entre les groupes sont donnés par le nombre de niveaux du IV - 1. Dans cet exemple, il y a quatre niveaux du quasi-IV, donc il y a 4 - 1 = 3 degrés de liberté pour l'estimation de la variance entre les groupes.

Les degrés de liberté pour l'estimation de la variance intra-groupes sont calculés en soustrayant un du nombre de personnes dans chaque condition/catégorie et en additionnant les conditions/catégories. Dans cet exemple, il y a 2 personnes dans la catégorie Math, donc cette catégorie a 7 - 1 = 6 degrés de liberté. Il y a 16 personnes dans la catégorie anglaise, donc cette catégorie a 16 - 1 = 15 degrés de liberté. Pour l'art, il y a 15 - 1 = 14 degrés de liberté. Pour l'histoire il y a 7 - 1 = 6 degrés de liberté. En additionnant les dfs ensemble, nous trouvons qu'il y a 6 + 15 + 14 + 6 = 41 degrés de liberté pour l'estimation de la variance intra-groupes. La dernière ligne donne le nombre total de degrés de liberté qui est donné par le nombre total de scores - 1. Il y a 45 scores, donc il y a 44 degrés de liberté au total.

Carré moyenLa quatrième colonne donne les estimations de la variance (les carrés moyens). Chaque carré moyen est calculé en divisant la somme des carrés par ses degrés de liberté.

MS Entre-groupes = SS Entre-groupes / df Entre-groupes
MS intra-groupes = SS intra-groupes / df intra-groupes

FLa cinquième colonne donne le rapport F. Il est calculé en divisant le carré moyen entre les groupes par le carré moyen intra-groupe.
F = MS inter-groupes / MS intra-groupes
Sig.La dernière colonne donne la signification du rapport F. C'est la valeur p. Si la valeur p est inférieure ou égale à votre niveau &alpha, alors vous pouvez rejeter H 0 que toutes les moyennes sont égales. Dans cet exemple, la valeur p est de 0,511, ce qui est supérieur au niveau &alpha, nous ne pouvons donc pas rejeter H 0 . Autrement dit, il n'y a pas suffisamment de preuves pour affirmer que certains des moyens peuvent être différents les uns des autres.

Nous écririons le rapport F comme suit : F(3, 41) = 0.781, p = .511, MME Erreur = 0,292, &alpha = 0,05.

Le 3 correspond aux degrés de liberté entre les groupes, 41 correspond aux degrés de liberté intra-groupe, 0,781 correspond au rapport F de la colonne F, et 0,511 correspond à la valeur du Sig. colonne (la valeur p), et 0,292 est l'estimation quadratique moyenne de la variance à l'intérieur des groupes.

Lorsque le rapport F est statistiquement significatif, nous devons examiner la sortie des comparaisons multiples. Même si notre ratio F n'est pas statistiquement significatif, nous examinerons les comparaisons multiples pour voir comment elles sont interprétées.

La sortie Comparaisons multiples donne les résultats des tests Post-Hoc que vous avez demandés. Dans cet exemple, j'ai demandé des comparaisons multiples à Tukey, de sorte que la sortie reflète ce choix. Différentes personnes ont des opinions différentes sur le moment d'examiner la sortie des comparaisons multiples. L'une des opinions dominantes est que le résultat de la comparaison multiple n'est significatif que si le rapport F global est statistiquement significatif. Dans cet exemple, ce n'est pas statistiquement significatif, donc techniquement, je ne devrais pas vérifier la sortie des comparaisons multiples.

La sortie comprend une ligne distincte pour chaque niveau de la variable indépendante. Dans cet exemple, il y a quatre rangées correspondant aux quatre niveaux du quasi-IV. Considérons la première ligne, celle dont la majeure est égale à l'art. Il y a trois sous-lignes dans cette ligne. Chaque sous-rangée correspond à l'un des autres niveaux du quasi-IV. Ainsi, il y a trois comparaisons décrites dans cette ligne :

ComparaisonH 0 H1
Art contre anglaisH 0 : µ Art = µ Anglais H 1 : µ Art &ne µ Anglais
Art contre histoireH 0 : µ Art = µ Histoire H 1 : µ Art &ne µ Histoire
Art contre mathématiquesH 0 : µ Art = µ Mathématiques H 1 : µ Art &ne µ Mathématiques

La deuxième colonne de la sortie donne la différence entre les moyennes. Dans cet exemple, la différence entre la moyenne cumulative des personnes qui seraient des majeures en art et celles qui seraient des majeures en anglais est de 0,2532. La troisième colonne donne l'erreur standard de la moyenne. La quatrième colonne est la valeur p pour la comparaison multiple. Dans cet exemple, la valeur p pour comparer les GPA des personnes qui seraient des majeures en art avec celles qui seraient des majeures en anglais est de 0,565, ce qui signifie qu'il est peu probable que ces moyennes soient différentes (comme on peut s'y attendre étant donné que la différence (0,2532 ) est petit.) Si les valeurs p sont inférieures ou égales au niveau &alpha, alors vous pouvez rejeter le H 0 correspondant. Dans cet exemple, la valeur p est de 0,565, ce qui est supérieur au niveau &alpha de 0,05, nous ne rejetons donc pas H 0 que le GPA moyen des personnes qui seraient des majors en art est différent du GPA moyen des personnes qui seraient des majors en anglais. Les deux dernières colonnes vous donnent l'intervalle de confiance à 95 %.

La partie suivante de la sortie SPSS (illustrée ci-dessus) résume les résultats de la procédure de comparaisons multiples. Il y a souvent plusieurs colonnes de sous-ensemble dans cette section de la sortie. Les moyennes répertoriées dans chaque colonne de sous-ensemble ne sont pas statistiquement différentes les unes des autres de manière fiable. Dans cet exemple, les quatre moyennes sont répertoriées dans une seule colonne de sous-ensemble, de sorte qu'aucune des moyennes ne diffère de manière fiable des autres moyennes. Cela ne veut pas dire que les moyens ne sont pas différents les uns des autres, mais seulement que nous n'avons pas observé de différence entre les moyens. Ceci est cohérent avec le fait que nous n'avons pas rejeté l'hypothèse nulle de l'ANOVA.

La dernière partie de la sortie SPSS est un graphique montrant la variable dépendante (GPA) sur l'axe Y et la variable (quasi) indépendante (autre majeure) sur l'axe X :

Étant donné que la variable quasi-indépendante est nominalement mise à l'échelle, le graphique devrait vraiment être un graphique à barres. Double-cliquez sur le tracé pour appeler l'éditeur de graphiques SPSS :

Dans l'éditeur de graphiques, cliquez sur l'un des points de données :

Dans l'éditeur de graphique, sélectionnez Graphique | Changer le type d'élément de données | Barre simple :

Le nouveau graphique à barres apparaît sous l'éditeur :

Apportez d'autres modifications au graphique à barres que vous souhaitez. (Consultez le didacticiel sur l'édition de graphiques si vous ne savez pas comment effectuer des modifications.)


ANOVA à 1 voie - au sein des sujets

Exemple 3. ANOVA intra-sujets unidirectionnelle

Cinq sujets sont invités à mémoriser une liste de mots. Les mots de cette liste sont de trois types : les mots positifs, les mots négatifs et les mots neutres. Leurs données de rappel par type de mot sont présentées à l'annexe III. Notez qu'il existe un seul facteur (Valence) avec trois niveaux (négatif, neutre et positif). De plus, il existe également un facteur aléatoire Sujet . Créez un fichier de données ex3 qui contient ces données. Encore une fois, il est important que chaque observation apparaisse sur une ligne individuelle ! Notez que ce n'est pas la façon standard de penser aux données. L'exemple 6 montrera comment transformer les données de la table de données standard dans ce formulaire.

Étant donné que Valence est croisé avec le facteur aléatoire Subject (c'est-à-dire que chaque sujet voit les trois types de mots), vous devez spécifier le terme d'erreur pour Valence , qui dans ce cas est Subject by Valence . Pour ce faire, ajoutez le termeError(Subject/Valence) au facteur Valence , comme indiqué ci-dessus. La sortie ressemblera à :

L'analyse des facteurs inter-sujets apparaîtra en premier (il n'y en a pas dans ce cas), suivie des facteurs intra-sujets. Notez que la valeur p pour Valence est affichée en notation exponentielle, cela se produit lorsque la valeur p est extrêmement faible, comme c'est le cas dans ce cas (environ 0,00000018).


Foire aux questions sur la variance

La variabilité est le plus souvent mesurée à l'aide des statistiques descriptives suivantes :

  • Varier: la différence entre les valeurs les plus élevées et les plus basses
  • Gamme interquartile: l'étendue de la moitié médiane d'une distribution
  • Écart-type: distance moyenne de la moyenne
  • Variance: moyenne des distances au carré à partir de la moyenne

La variance est la moyenne des carrés des écarts par rapport à la moyenne, tandis que l'écart type est la racine carrée de ce nombre. Les deux mesures reflètent la variabilité d'une distribution, mais leurs unités diffèrent :

  • L'écart type est exprimé dans les mêmes unités que les valeurs d'origine (par exemple, minutes ou mètres).
  • La variance est exprimée en unités beaucoup plus grandes (par exemple, mètres carrés).

Bien que les unités de variance soient plus difficiles à comprendre intuitivement, la variance est importante dans les tests statistiques.

Les tests statistiques tels que les tests de variance ou l'analyse de la variance (ANOVA) utilisent la variance de l'échantillon pour évaluer les différences de groupe de populations. Ils utilisent les variances des échantillons pour évaluer si les populations dont ils proviennent diffèrent significativement les unes des autres.

L'homoscédasticité, ou homogénéité des variances, est une hypothèse de variances égales ou similaires dans différents groupes comparés.

Il s'agit d'une hypothèse importante des tests statistiques paramétriques car ils sont sensibles à toute dissemblance. Des écarts inégaux dans les échantillons entraînent des résultats de test biaisés et faussés.


Analyser les différences entre les groupes

Des tests statistiques peuvent être utilisés pour analyser les différences dans les scores de deux ou plusieurs groupes. Les tests statistiques suivants sont couramment utilisés pour analyser les différences entre les groupes :

Test T

Un test t est utilisé pour déterminer si les scores de deux groupes diffèrent sur une seule variable. Un test t est conçu pour tester les différences de scores moyens. Par exemple, vous pouvez utiliser un test t pour déterminer si la capacité d'écriture diffère entre les élèves de deux classes.

Noter: Un test t n'est approprié que lorsque l'on regarde jumelé Les données. Il est utile pour analyser les scores de deux groupes de participants sur une variable particulière ou pour analyser les scores d'un seul groupe de participants sur deux variables.

Test T des paires appariées

Ce type de test t pourrait être utilisé pour déterminer si les scores des mêmes participants à une étude diffèrent dans différentes conditions. Par exemple, ce type de test t pourrait être utilisé pour déterminer si les gens écrivent de meilleurs essais après prendre un cours d'écriture qu'eux avant prendre le cours d'écriture.

Noter: Un test t n'est approprié que lorsque l'on regarde jumelé Les données. Il est utile pour analyser les scores de deux groupes de participants sur une variable particulière ou pour analyser les scores d'un seul groupe de participants sur deux variables.

Analyse de variance (ANOVA)

L'ANOVA (analyse de la variance) est un test statistique qui prend une seule décision globale quant à savoir si une différence significative est présente entre trois moyennes d'échantillon ou plus (Levin 484). Une ANOVA est similaire à un test t. Cependant, l'ANOVA peut également tester plusieurs groupes pour voir s'ils diffèrent sur une ou plusieurs variables. L'ANOVA peut être utilisée pour tester les différences entre les groupes et au sein des groupes.Il existe deux types d'ANOVA :

ANOVA à un facteur : Ceci teste un ou plusieurs groupes pour déterminer s'il existe des différences sur un Célibataire ensemble de partitions. Par exemple, une ANOVA à sens unique pourrait déterminer si les étudiants de première année, les étudiants de deuxième année, les juniors et les seniors différaient dans leur capacité de lecture.

ANOVA multiple (MANOVA) : Ceci teste un ou plusieurs groupes pour déterminer s'il y a des différences sur deux ou plus variables. Par exemple, une MANOVA pourrait déterminer si les étudiants de première année, les étudiants de deuxième année, les juniors et les seniors différaient en termes de capacité de lecture et si ces différences étaient reflétées par le sexe. Dans ce cas, un chercheur pourrait déterminer (1) si la capacité de lecture différait selon les niveaux de classe, (2) si la capacité de lecture différait selon le sexe, et (3) s'il y avait une interaction entre le niveau de classe et le sexe.


Test T, ANOVA et ANCOVA

Concepts de base

Les étudiants t test (également appelé test T) est utilisé pour comparer les moyennes entre deux groupes et il n'y a pas besoin de comparaisons multiples comme unique P est observée, tandis que l'ANOVA est utilisée pour comparer les moyennes entre trois groupes ou plus.[4,5] Dans l'ANOVA, le premier obtient une valeur commune P valeur. Un important P valeur du test ANOVA indique pour au moins une paire, entre laquelle la différence moyenne était statistiquement significative.[6] Pour identifier cette ou ces paires significatives, un test post-hoc (comparaisons multiples) est utilisé. Dans le test ANOVA, lorsqu'au moins une covariable (variable continue) est ajustée pour éliminer l'effet de confusion du résultat appelé ANCOVA. Le test ANOVA (test F) est appelé 𠇊nalyse de la variance” plutôt que 𠇊nalyse des moyennes” car les inférences sur les moyennes sont faites en analysant la variance.[7,8,9]

Étapes du test d'hypothèse

Construction d'hypothèses

Comme les autres tests, il existe deux types d'hypothèses hypothèse nulle et hypothèse alternative. L'hypothèse alternative suppose qu'il existe une différence statistiquement significative entre les moyennes, tandis que l'hypothèse nulle suppose qu'il n'existe aucune différence statistiquement significative entre les moyennes.

Calcul des statistiques de test

Dans ces tests, la première étape consiste à calculer les statistiques du test (appelée valeur t dans le t test et valeur F dans le test ANOVA) également appelée valeur calculée. Il est calculé après avoir mis les entrées (à partir des échantillons) dans la formule de test statistique. Chez l'étudiant t test, la valeur t calculée est le rapport de la différence moyenne et de l'erreur standard, alors que dans le test ANOVA, la valeur F calculée est le rapport de la variabilité entre les groupes avec la variabilité des observations au sein des groupes.[1,4]

Valeur tabulée

Au degré de liberté des observations données et au niveau souhaité de confiance (généralement au test bilatéral, qui est plus puissant que le test unilatéral), la valeur tabulée correspondante du test T ou du test F est sélectionnée (à partir du tableau statistique ).[1,4]

Comparaison de la valeur calculée avec la valeur tabulée et l'hypothèse nulle

Si la valeur calculée est supérieure à la valeur tabulée, rejetez l'hypothèse nulle où l'hypothèse nulle indique que les moyennes sont statistiquement identiques entre les groupes. [1,4] À mesure que la taille de l'échantillon augmente, le degré de liberté correspondant augmente également. Pour un niveau de confiance donné, un degré de liberté plus élevé a une valeur tabulée plus faible. C'est la raison pour laquelle, lorsque la taille de l'échantillon augmente, son niveau de signification s'améliore également (c'est-à-dire, P valeur diminue).

Test T

C'est l'une des techniques statistiques les plus utilisées pour tester si la différence moyenne entre deux groupes est statistiquement significative. L'hypothèse nulle a déclaré que les deux moyennes sont statistiquement égales, tandis que l'hypothèse alternative a déclaré que les deux moyennes ne sont pas statistiquement égales, c'est-à-dire qu'elles sont statistiquement différentes l'une de l'autre. [1,3,7] Les tests T sont de trois types, c'est-à-dire un échantillon. t test, échantillons indépendants t test et échantillons appariés t test.

Test t à un échantillon

Le test t à un échantillon est une procédure statistique utilisée pour déterminer si la valeur moyenne d'un échantillon est statistiquement identique ou différente de la valeur moyenne de sa population parente à partir de laquelle l'échantillon a été tiré. Pour appliquer ce test, la moyenne, l'écart type (SD), la taille de l'échantillon (variable de test) et la moyenne de la population ou la valeur moyenne hypothétique (valeur de test) sont utilisés. L'échantillon doit être à variable continue et normalement distribué.[1,9,10,11] Un échantillon t test est utilisé lorsque la taille de l'échantillon est 㰰. Dans le cas où la taille de l'échantillon est � utilisé pour préférer un test z d'échantillon à un échantillon t test bien que pour un test z échantillon, la population SD doit être connue. Si la population SD n'est pas connue, un échantillon t Le test peut être utilisé pour n'importe quelle taille d'échantillon. Dans un échantillon de test Z, la valeur tabulée est la valeur z (au lieu de la valeur t dans un échantillon t test). Pour appliquer ce test via un logiciel statistique populaire, c'est-à-dire un logiciel statistique pour les sciences sociales (SPSS), l'option peut être trouvée dans le menu suivant [Analyser – comparer les moyens – un échantillon t test].

Exemple: À partir du tableau 1, l'IMC (moyenne ± SD) a été donné de 24,45 ± 2,19, alors que la moyenne de la population a été supposée être de 25,5. Un échantillon t le test a indiqué que la différence moyenne entre la moyenne de l'échantillon et la moyenne de la population était statistiquement significativement différente l'une de l'autre (P = 0.045).

Test t d'échantillons indépendants

L'indépendant t test, également appelé non apparié t est un test statistique inférentiel qui détermine s'il existe une différence statistiquement significative entre les moyennes de deux groupes non liés (indépendants) ?

Pour appliquer ce test, une variable continue normalement distribuée (variable de test) et une variable catégorielle à deux catégories (variable de regroupement) sont utilisées. Une moyenne supplémentaire, l'écart-type et le nombre d'observations du groupe 1 et du groupe 2 seraient utilisés pour calculer le niveau de signification. Dans cette procédure, le premier niveau de signification du test de Levene est calculé et lorsqu'il est non significatif (P > 0,05), variances égales sinon (P < 0,05), des variances inégales sont supposées entre les groupes et selon P la valeur est sélectionnée pour les échantillons indépendants t test.[1,10,11,12] Dans SPSS [Analyser – comparer les moyennes – échantillons indépendants t test].

Exemple: D'après le tableau 1 , IMC moyen de l'homme (m = 10) et femelle (m = 10) étaient de 24,80 ± 2,20 et 24,10 ± 2,23, respectivement. Le test de Levene (p = 0,832) a indiqué que les variances entre les groupes étaient statistiquement égales. A variances égales supposées, échantillons indépendants t test (p = 0,489) a indiqué que l'IMC moyen des hommes et des femmes était statistiquement égal.

Test t d'échantillons appariés

Les échantillons appariés t test, parfois appelé les échantillons dépendants t-test, est utilisé pour déterminer si le changement de moyenne entre deux observations appariées est statistiquement significatif ? Dans ce test, les mêmes sujets sont mesurés à deux moments ou observés par deux méthodes différentes.[4] Pour appliquer ce test, des variables appariées (observations pré-post des mêmes sujets) sont utilisées, les variables appariées devant être continues et normalement distribuées. Une moyenne et un écart-type supplémentaires des différences appariées et de la taille de l'échantillon (c'est-à-dire le nombre de paires) seraient utilisés pour calculer le niveau de signification. t test].

Exemple: D'après le tableau 1, la PAD des 20 patients (moyenne ± SD) à l'inclusion, 30 min et les différences appariées (différence entre les lignes de base et 30 min) étaient de 79,55 ± 4,87, 83,90 ± 5,58 et 4,35 &# x000b1 4.16. Échantillons appariés t le test a indiqué que la différence moyenne des observations appariées de PAD entre la ligne de base et 30 min était statistiquement significative (P < 0,001).

Test ANOVA (test F)

Une technique statistique utilisée pour comparer les moyennes entre trois groupes ou plus est connue sous le nom de test ANOVA ou F. Il est important que l'ANOVA soit une statistique de test omnibus. Son important P La valeur indique qu'il existe au moins une paire dans laquelle la différence moyenne est statistiquement significative. Pour déterminer les paires spécifiques, post-hoc des tests (comparaisons multiples) sont utilisés. Il existe différents tests ANOVA, et leurs objectifs varient d'un test à l'autre. Il existe deux principaux types d'ANOVA, à savoir l'ANOVA à sens unique et l'ANOVA à mesures répétées à sens unique. First est utilisé pour les observations indépendantes et plus tard pour les observations dépendantes. Lorsqu'il est utilisé, une variable indépendante catégorielle appelée ANOVA à un facteur, alors que pour deux variables indépendantes catégorielles appelées ANOVA à deux facteurs. Lorsqu'on utilise au moins une covariable pour ajuster avec la variable dépendante, l'ANOVA devient ANCOVA.[1,11,14]

Test post-hoc (comparaisons multiples) : Post-hoc tests (comparaisons multiples par paire) utilisés pour déterminer la ou les paires significatives après que l'ANOVA a été jugée significative. Avant d'appliquer le test post-hoc (facteurs entre sujets), il faut d'abord tester l'homogénéité des variances entre les groupes (test de Levene). Si les écarts sont homogènes (P ≥ 0,05), sélectionnez n'importe quelle méthode de comparaison multiple parmi les différences les moins significatives (LSD), Bonferroni, Tukey's, etc.[15,16] Si les variances ne sont pas homogènes (P < 0,05), utilisé pour sélectionner n'importe quelle méthode de comparaison multiple parmi Games-Howell, Tamhane's T2, etc.[15,16] Bonferroni est une bonne méthode pour des variances égales, alors que Le T2 de Tamhane pour des variances inégales, car les deux calculent le niveau de signification en contrôlant le taux d'erreur. De même, pour les mesures répétées ANOVA (RMA) (dans les facteurs intra-sujets), sélectionnez n'importe quelle méthode parmi LSD, Boneferroni, Sidak bien que Bonferroni puisse être un meilleur choix. Le niveau de signification de chacune des méthodes de comparaison multiple varie des autres méthodes, chacune étant utilisée pour une situation particulière.

ANOVA à sens unique

L'ANOVA à une voie est une extension d'échantillons indépendants t test (dans des échantillons indépendants t test utilisé pour comparer les moyennes entre deux groupes indépendants, alors que dans l'ANOVA à un facteur, les moyennes sont comparées entre trois groupes indépendants ou plus). Un important P La valeur de ce test fait référence au test de comparaisons multiples pour identifier la ou les paires significatives.[17] Dans ce test, une variable dépendante continue et une variable indépendante catégorielle sont utilisées, la variable catégorielle comportant au moins trois catégories. Dans SPSS [Analyser𠄼omparer signifie–one-way ANOVA].

Exemple: A partir du tableau 1, 20 PAD de patients (à 30 min) sont données. Un test ANOVA à un facteur a été utilisé pour comparer la PAD moyenne dans trois groupes d'âge (variable indépendante), qui s'est avérée statistiquement significative (p = 0,002). Le test de Levene pour l'homogénéité était insignifiant (p = 0,231), par conséquent, le test de Bonferroni a été utilisé pour des comparaisons multiples, qui ont montré que la PAD était significativement différente entre deux paires, c'est-à-dire le groupe d'âge de 㰰 à 30� et 㰰 à 㹐 (P < 0,05) mais insignifiant entre une paire, c'est-à-dire 30� à 㹐 (P > 0,05).

ANOVA bidirectionnelle

L'ANOVA à deux facteurs est une extension de l'ANOVA à un facteur [Dans l'ANOVA à un facteur, une seule variable indépendante, alors que dans l'ANOVA à deux facteurs, deux variables indépendantes sont utilisées]. L'objectif principal d'une ANOVA à deux facteurs est de comprendre s'il existe une interrelation entre deux variables indépendantes sur une variable dépendante.[18] Dans ce test, une variable dépendante continue (à peu près normalement distribuée) et deux variables indépendantes catégorielles sont utilisées. Dans SPSS [Analyser –Modèle linéaire général –Univariée].

Exemple: A partir du tableau 1, 20 PAD de patients (à 30 min) sont données. Un test ANOVA à deux facteurs a été utilisé pour comparer la PAD moyenne entre les tranches d'âge (variable indépendante_1) et le sexe (variable indépendante_2), ce qui indiquait qu'il n'y avait pas d'interaction significative de la PAD avec les tranches d'âge et le sexe (tests d'effets inter-sujets sur l'âge groupes*genre P = 0,626) avec une taille d'effet (Eta au carré partiel) de 0,065. Le résultat a également montré qu'il y avait une différence significative dans les moyennes marginales estimées (moyenne ajustée) de la PAD entre les groupes d'âge (P = 0,005) mais non significatif en genre (P = 0,662), où le sexe et les groupes d'âge ont été ajustés.

ANOVA unidirectionnelle à mesures répétées

L'ANOVA des mesures répétées (RMA) est l'extension de la paire t test. La RMA est également appelée ANOVA intra-sujets ou ANOVA pour les échantillons appariés. La conception à mesures répétées est une conception de recherche qui implique plusieurs mesures de la même variable prises sur les mêmes sujets ou des sujets appariés, soit dans des conditions différentes, soit sur plus de deux périodes. (En échantillons appariés t test, comparait les moyennes entre deux groupes dépendants, alors que dans le RMA, comparait les moyennes entre trois groupes dépendants ou plus). Avant de calculer le niveau de signification, le test de Mauchly est utilisé pour évaluer l'homogénéité de la variance (également appelée sphéricité) au sein de toutes les paires possibles. Lorsque P la valeur du test de Mauchly est insignifiante (P ≥ 0,05), des variances égales sont supposées et P la valeur de RMA serait tirée du test supposé de sphéricité (tests des effets intra-sujets). Dans le cas où les variances ne sont pas homogènes (test de Mauchly : P < 0,05), la valeur epsilon (ε) (qui montre le départ de la sphéricité, 1 montre la sphéricité parfaite) décide de la méthode statistique à calculer P valeur pour le RMA. Lorsque ε𢙐.75 Huynh-Feldt tandis que pour ε< 0,75, la méthode de Greenhouse-Geisser (méthode univariée) ou le lambda de Wilks (méthode multivariée) est utilisé pour calculer P valeur pour la RMA.[19] Lorsque le RMA est significatif, la comparaison par paire contient plusieurs paires t des tests avec une correction de Bonferroni sont utilisés.[20] Dans SPSS [Analyser –Modèle linéaire général – ANOVA de mesures répétées].

Exemple: D'après le tableau 1, la PAD de 20 patients était au départ (79,55 ± 4,87), à 30 min (83,90 ± 5,58) et à 60 min (79,25 ± 5,68). Le test de sphéricité de Mauchly a indiqué que les variances étaient égales (P = 0,099) entre les paires. Les tests RMA (c'est-à-dire les effets intra-sujets) ont été évalués à l'aide du test de sphéricité supposéeP valeur = 0,001), ce qui indiquait que le changement de la PAD au fil du temps était statistiquement significatif. Les comparaisons multiples de Bonferroni ont indiqué que la différence moyenne était statistiquement significative entre DBP_B/l à DBP_30 min et DBP_30 min à DBP_60 min (P < 0,05) mais non significatif entre DBP_B/l à DBP_60 min (P > 0,05).

ANOVA à mesures répétées dans les deux sens

L'ANOVA à mesures répétées bidirectionnelles est une combinaison de facteurs inter-sujets et intra-sujets. Une RMA bidirectionnelle (également appelée RMA à deux facteurs ou “Mixed ANOVA”) est une extension de la RMA unidirectionnelle [Dans la RMA unidirectionnelle, utilisez une variable dépendante sous des observations répétées (normalement distribuées) variable continue) et une variable indépendante catégorielle (c'est-à-dire des points dans le temps), alors que dans la RMA bidirectionnelle, une variable indépendante catégorielle supplémentaire est utilisée]. L'objectif principal de la RMA bidirectionnelle est de comprendre s'il existe une interaction entre ces deux variables indépendantes catégorielles sur la variable dépendante (variable continue). La distribution de la variable dépendante dans chaque combinaison des groupes apparentés devrait être approximativement normalement distribuée.[21] Dans SPSS [Analyze–General Linear Model – Repeated Measures], où la deuxième variable indépendante sera incluse comme facteur entre les sujets.

Exemple: D'après le tableau 1, la PAD de 20 patients était au départ (79,55 ± 4,87), à 30 min (83,90 ± 5,58) et à 60 min (79,25 ± 5,68). Le test de sphéricité de Mauchly (P = 0,138) a indiqué que les variances étaient égales entre les paires. Les tests RMA bidirectionnels pour l'interaction (c. P valeur = 0,214), ce qui indiquait qu'il n'y avait pas d'interaction du sexe avec le temps et que le changement associé de la PAD au fil du temps était statistiquement insignifiant.

ANCOVA à sens unique

L'ANCOVA à un facteur est une extension de l'ANOVA à un facteur [Dans l'ANOVA à un facteur, n'ajustez pas la covariable, alors que dans l'ANCOVA à un facteur, ajustez au moins une covariable]. Ainsi, les tests ANCOVA à sens unique déterminent si la variable indépendante influence toujours la variable dépendante après que l'influence de la ou des covariables a été supprimée (c'est-à-dire ajustée). Dans ce test, une variable dépendante continue, une variable indépendante catégorielle et au moins une covariable continue pour supprimer son effet/ajustement sont utilisées. [8,22] Dans SPSS [Analyze - General Linear Model – Univariate].

Exemple: A partir du tableau 1, 20 PAD de patients à 30 min sont données. Le test ANCOVA unidirectionnel a été utilisé pour comparer la PAD moyenne dans trois groupes d'âge (variable indépendante) après ajustement de l'effet de la PAD initiale, qui s'est avérée statistiquement significative (P = 0,021). Comme le test de Levene pour l'homogénéité était insignifiant (P = 0,601), le test de Bonferroni résultant a été utilisé pour des comparaisons multiples, qui ont montré que la PAD était significativement différente entre une paire, c'est-à-dire le groupe d'âge de 㰰 à 㹐 (P = 0,031) et insignifiant entre deux paires de repos, c'est-à-dire 㰰 à 30� et 30� à 㹐 (P > 0,05).

Mesures répétées à sens unique ANOCOVA

Mesures répétées unidirectionnelles ANCOVA est l'extension de la RMA unidirectionnelle. [Dans la RMA unidirectionnelle, nous n'ajustons pas la covariable, alors que dans l'ANCOVA à mesures répétées unidirectionnelles, nous ajustons au moins une covariable]. Ainsi, l'ANCOVA des mesures répétées à sens unique est utilisée pour tester si les moyennes sont toujours statistiquement égales ou différentes après ajustement de l'effet de la ou des covariables.[23,24] Dans SPSS [Analyze –General Linear Model – Repeated Mesures ANOVA].

Exemple: D'après le tableau 1, la PAD de 20 patients était au départ (79,55 ± 4,87), à 30 min (83,90 ± 5,58) et à 60 min (79,25 ± 5,68). Le test de sphéricité de Mauchly a indiqué que les variances étaient égales (P = 0,093) entre les paires. Les tests RMA (c. P = 0,011), ce qui indiquait que le changement de la PAD au fil du temps était statistiquement significatif après ajustement de l'IMC. Les comparaisons multiples de Bonferroni ont indiqué que la différence moyenne était statistiquement significative entre DBP_B/l à DBP_30 min et DBP_30 min à DBP_60 min mais non significative entre DBP_B/l à DBP_60 min après ajustement de l'IMC.


Différence entre la variance de la population et la variance de l'échantillon

La principale différence entre la variance de la population et la variance de l'échantillon concerne le calcul de la variance. La variance est calculée en cinq étapes.La moyenne est d'abord calculée, puis nous calculons les écarts par rapport à la moyenne, et troisièmement les écarts sont au carré, quatrièmement les écarts au carré sont additionnés et enfin cette somme est divisée par le nombre d'éléments pour lesquels la variance est calculée. Donc variance= (xi-x-)/n. Où xi = ième. Nombre, x- = moyenne et n = nombre d'éléments.

Maintenant, lorsque la variance doit être calculée à partir de données de population, n est égal au nombre d'éléments. Ainsi, si la variance de la pression artérielle de toutes les 1000 personnes doit être calculée à partir des données sur la pression artérielle de toutes les 1000 personnes, alors n = 1000. Cependant, lorsque la variance est calculée à partir des données de l'échantillon, 1 doit être déduit de n avant de diviser la somme des écarts au carré. Ainsi, dans l'exemple ci-dessus, si les données d'échantillon ont 100 éléments, le dénominateur serait 100 – 1 = 99.

Pour cette raison, la valeur de la variance calculée à partir des données d'échantillon est supérieure à la valeur qui aurait pu être trouvée en utilisant des données de population. La logique consiste à compenser notre manque d'information sur les données démographiques. Il est impossible de découvrir la variance des hauteurs chez les êtres humains, pour notre manque absolu d'informations sur les hauteurs de tous les êtres humains vivants, sans parler de l'avenir. Même si nous prenons un exemple modéré, comme les données démographiques sur la taille de tous les hommes vivants aux États-Unis, cela est physiquement possible, mais le coût et le temps impliqués dans cela iraient à l'encontre du but de son calcul. C'est la raison pour laquelle des échantillons de données sont prélevés pour la plupart des fins statistiques, et cela s'accompagne d'un manque d'informations sur la majorité des données. Afin de compenser cela, la valeur de la variance et l'écart type, qui est la racine carrée de la variance, sont plus élevés dans le cas des données d'échantillon que la variance des données de population.

Cela agit comme un bouclier automatique pour les analystes et les décideurs. La logique s'applique aux décisions sur la budgétisation des immobilisations, les finances personnelles et commerciales, la construction, la gestion du trafic et de nombreux domaines applicables. Cela aide la partie prenante à être du bon côté lors de la prise de décision ou pour d'autres déductions.

Sommaire: La variance de la population fait référence à la valeur de la variance calculée à partir des données de la population, et la variance de l'échantillon est la variance calculée à partir des données de l'échantillon. En raison de cette valeur de dénominateur dans la formule de la variance dans le cas des données d'échantillon est « n-1 », et il est « n » pour les données de population. En conséquence, la variance et l'écart-type dérivés des données d'échantillon sont plus élevés que ceux trouvés à partir des données de population.


Comparaison des moyennes entre deux groupes : réalisation d'un test T à deux échantillons à l'aide de SPSS

Un guide étape par étape, clair et concis pour effectuer un test T à deux échantillons à l'aide de SPSS.

Quand utilisons-nous le test T à deux échantillons ?
Le test T à deux échantillons est également connu sous le nom de Test T indépendant ou test T inter-sujets. Nous effectuons ce test lorsque nous voulons comparer la moyenne de deux échantillons différents.

Exemple de scénario
Comparaison des scores moyens à un test de statistiques entre des étudiants en psychologie et des étudiants en droit

Dans cet exemple, notre hypothèse nulle est qu'il n'y a pas de différence entre le score moyen des étudiants en psychologie et des étudiants en droit. Notre hypothèse alternative est qu'il existe une différence entre le score moyen des étudiants en psychologie et celui des étudiants en droit. L'ensemble de données peut être obtenu ici.

Dans les données, la première colonne correspond aux résultats des tests pour tous les élèves et la deuxième colonne correspond aux variables de regroupement. Ici, « p » est pour les étudiants en psychologie et « l » pour les étudiants en droit.

Étape 1
Sélectionnez "Analyser -> Comparer les moyennes -> Test T pour échantillons indépendants".

Étape 2
Dans la liste de gauche, sélectionnez la variable « Test_scores » comme « Variable(s) de test » et la variable « Étudiants » comme variable de regroupement.

Après avoir sélectionné la variable de regroupement, cliquez sur "Définir les groupes". Une nouvelle fenêtre apparaît. Entrez « p » comme groupe 1 et « l » comme groupe 2.

Cliquez sur « Continuer ». La fenêtre disparaît maintenant. Cliquez maintenant sur « OK ».

Étape 3
Les résultats apparaissent maintenant dans la fenêtre « Sortie ».

Étape 4
Nous pouvons maintenant interpréter le résultat.

Ici, vous voyez qu'il y a deux résultats de deux tests t différents, l'un supposant une variance égale et l'autre une variance inégale. Le résultat à utiliser dépend du résultat du test de Levene. Comme à partir de A, la valeur p du test de Levene est de 0,591, nous pouvons supposer que la variance de deux groupes est la même. (Si la valeur p du test de Levene est inférieure à 0,05, nous devons utiliser le résultat « Variance inégale ») De B, puisque la valeur p est de 0,001, nous rejetons l'hypothèse nulle et concluons qu'il existe une différence entre la moyenne score des étudiants en psychologie et des étudiants en droit à un niveau de signification de 5 %.

Choisir le test statistique approprié pour répondre à vos questions de recherche est un art qui nécessite des années pour se perfectionner. Avec des années d'expérience, je peux m'occuper de tous les aspects statistiques de votre étude et vous pouvez consacrer plus de temps à vos questions de recherche de fond.

Une fois que vous décidez d'utilisermon service, vous pouvez vous attendre au plus haut degré d'engagement pour la réussite de votre étude.

N'hésitez pas à nous contacter pour vos demandes. Je suis sûr que je peux vous aider à résoudre vos problèmes :)


Tests statistiques : lequel utiliser ?

Publié le 28 janvier 2020 par Rebecca Bevans. Révisé le 28 décembre 2020.

Les tests statistiques sont utilisés dans les tests d'hypothèses. Ils peuvent être utilisés pour :

  • déterminer si une variable prédictive a une relation statistiquement significative avec une variable de résultat.
  • estimer la différence entre deux groupes ou plus.

Les tests statistiques supposent une hypothèse nulle d'absence de relation ou de différence entre les groupes. Ensuite, ils déterminent si les données observées se situent en dehors de la plage de valeurs prédites par l'hypothèse nulle.

Si vous savez déjà à quels types de variables vous avez affaire, vous pouvez utiliser l'organigramme pour choisir le bon test statistique pour vos données.


ANOVA à 1 voie - au sein des sujets

Exemple 3. ANOVA intra-sujets unidirectionnelle

Cinq sujets sont invités à mémoriser une liste de mots. Les mots de cette liste sont de trois types : les mots positifs, les mots négatifs et les mots neutres. Leurs données de rappel par type de mot sont présentées à l'annexe III. Notez qu'il existe un seul facteur (Valence) avec trois niveaux (négatif, neutre et positif). De plus, il existe également un facteur aléatoire Sujet . Créez un fichier de données ex3 qui contient ces données. Encore une fois, il est important que chaque observation apparaisse sur une ligne individuelle ! Notez que ce n'est pas la façon standard de penser aux données. L'exemple 6 montrera comment transformer les données de la table de données standard dans ce formulaire.

Étant donné que Valence est croisé avec le facteur aléatoire Subject (c'est-à-dire que chaque sujet voit les trois types de mots), vous devez spécifier le terme d'erreur pour Valence , qui dans ce cas est Subject by Valence . Pour ce faire, ajoutez le termeError(Subject/Valence) au facteur Valence , comme indiqué ci-dessus. La sortie ressemblera à :

L'analyse des facteurs inter-sujets apparaîtra en premier (il n'y en a pas dans ce cas), suivie des facteurs intra-sujets. Notez que la valeur p pour Valence est affichée en notation exponentielle, cela se produit lorsque la valeur p est extrêmement faible, comme c'est le cas dans ce cas (environ 0,00000018).


Qu'est-ce que cela signifie qu'il y ait plus de variance au sein des groupes qu'entre les groupes dans le QI ? - Psychologie

Utilisation de SPSS pour l'analyse unidirectionnelle de la variance

Ce didacticiel vous montrera comment utiliser SPSS version 12 pour effectuer une analyse de variance unidirectionnelle entre sujets et les tests post-hoc associés.

  • Téléchargement de l'ensemble de données de classe standard (cliquez sur le lien et enregistrez le fichier de données)
  • Démarrage de SPSS (cliquez sur Démarrer | Programmes | SPSS pour Windows | SPSS 12.0 pour Windows)
  • Chargement de l'ensemble de données standard

L'analyse unidirectionnelle de la variance (ANOVA) est un test statistique inférentiel qui vous permet de tester si l'une de plusieurs moyennes est différente les unes des autres. Il suppose que la variable dépendante a une échelle d'intervalle ou de rapport, mais il est souvent également utilisé avec des données à l'échelle ordinale.

  1. Écrivez l'hypothèse nulle :
    H 0 : µ Mathématiques = µ Anglais = µ Arts visuels = µ Histoire
    Où µ représente le GPA moyen.
  2. Écrivez l'hypothèse alternative :
    H 1 : pas H 0
    (Rappelez-vous que l'hypothèse alternative doit être mutuellement exclusive et exhaustive de l'hypothèse nulle.)
  3. Spécifiez le niveau &alpha : &alpha = .05
  4. Déterminez le test statistique à effectuer : Dans ce cas, la GPA est approximativement proportionnelle, et nous avons plusieurs (4) groupes, donc l'ANOVA entre les sujets est appropriée.
  5. Calculez la statistique appropriée :

SPSS suppose que la variable indépendante (techniquement une variable quasi-indépendante dans ce cas) est représentée numériquement. Dans l'exemple d'ensemble de données, MAJOR est une chaîne. Nous devons donc d'abord convertir MAJOR d'une variable chaîne en une variable numérique. Consultez le didacticiel sur la transformation d'une variable pour savoir comment procéder. Nous devons recoder automatiquement la variable MAJOR en une variable appelée MAJORNUM.

Une fois que vous avez recodé la variable indépendante, vous êtes prêt à effectuer l'ANOVA. Cliquez sur Analyser | Comparer Moyens | ANOVA à un facteur :

La boîte de dialogue ANOVA à un facteur apparaît :

Dans la liste de gauche, cliquez sur la variable qui correspond à votre variable dépendante (celle qui a été mesurée). Déplacez-la dans la liste dépendante en cliquant sur le bouton flèche du haut. Dans cet exemple, le GPA est la variable que nous avons enregistrée, nous cliquons donc dessus et sur le bouton flèche du haut :

Sélectionnez maintenant la variable (quasi) indépendante dans la liste de gauche et cliquez dessus. Déplacez-le dans la zone Facteur en cliquant sur le bouton fléché du bas. Dans cet exemple, la variable quasi-indépendante est la variable recodée ci-dessus, MAJORNUM :

Cliquez sur le bouton Post Hoc pour spécifier le type de comparaison multiple que vous souhaitez effectuer. La boîte de dialogue Post Hoc apparaît :

Consultez votre manuel de statistiques pour décider quel test post-hoc vous convient. Dans cet exemple, j'utiliserai un test post-hoc conservateur, le test de Tukey. Cliquez dans la case à côté de Tukey (pas Tukey's-b) :

Cliquez sur le bouton Continuer pour revenir à la boîte de dialogue ANOVA à un facteur. Cliquez sur le bouton Options dans la boîte de dialogue ANOVA à un facteur. La boîte de dialogue Options ANOVA à un facteur apparaît :

Cliquez dans la case à cocher à gauche de Descriptives (pour obtenir des statistiques descriptives), Homogénéité de la variance (pour obtenir un test de l'hypothèse d'homogénéité de la variance) et Means plot (pour obtenir un graphique des moyennes des conditions.):

Cliquez sur le bouton Continuer pour revenir à la boîte de dialogue ANOVA à un facteur. Dans la boîte de dialogue One Way ANOVA, cliquez sur le bouton OK pour effectuer l'analyse de la variance. La fenêtre de sortie SPSS apparaîtra. La sortie se compose de six sections principales. Tout d'abord, la section descriptive apparaît :

Pour chaque variable dépendante (par exemple GPA), la sortie descriptive donne la taille de l'échantillon, la moyenne, l'écart type, le minimum, le maximum, l'erreur standard et l'intervalle de confiance pour chaque niveau de la variable (quasi) indépendante. Dans cet exemple, 7 personnes ont répondu qu'elles feraient une majeure en mathématiques si elles ne pouvaient pas être une majeure en psychologie, et leur moyenne cumulative était de 3,144, avec un écart type de 0,496. Il y avait 16 personnes qui seraient une majeure en anglais si elles ne pouvaient pas être une majeure en psychologie, et leur moyenne pondérée cumulative était de 2,937 avec un écart type de 0,5788.

Le test d'homogénéité des variances teste en sortie H 0 : &sigma 2 Math = &sigma 2 Anglais = &sigma 2 Art = &sigma 2 Histoire . Il s'agit d'une hypothèse importante faite par l'analyse de la variance. Pour interpréter cette sortie, regardez la colonne intitulée Sig. C'est la valeur p. Si la valeur p est inférieure ou égale à votre niveau &alpha pour ce test, alors vous pouvez rejeter le H 0 que les variances sont égales. Si la valeur p est supérieure au niveau &alpha pour ce test, nous ne rejetons pas H 0, ce qui augmente notre confiance dans le fait que les variances sont égales et que l'hypothèse d'homogénéité de la variance a été satisfaite. La valeur p est .402. Comme la valeur p est supérieure au niveau &alpha, nous ne rejetons pas H 0, ce qui implique qu'il y a peu de preuves que les variances ne sont pas égales et que l'hypothèse d'homogénéité de la variance peut être raisonnablement satisfaite.

La sortie ANOVA nous donne le tableau récapitulatif de l'analyse de la variance. Il y a six colonnes dans la sortie :

ColonneLa description
Sans étiquette (Source de la variance)La première colonne décrit chaque ligne du tableau récapitulatif ANOVA. Il nous indique que la première ligne correspond à l'estimation de la variance entre les groupes (l'estimation qui mesure l'effet et l'erreur). L'estimation de la variance entre les groupes forme le numérateur du rapport F. La deuxième ligne correspond à l'estimation de la variance intra-groupe (l'estimation de l'erreur). L'estimation de la variance à l'intérieur des groupes forme le dénominateur du rapport F. La dernière ligne décrit la variabilité totale des données.
Somme des carrésLa colonne Somme des carrés donne la somme des carrés pour chacune des estimations de la variance. La somme des carrés correspond au numérateur du rapport de variance.
dfLa troisième colonne donne les degrés de liberté pour chaque estimation de la variance.

Les degrés de liberté pour l'estimation de la variance entre les groupes sont donnés par le nombre de niveaux du IV - 1. Dans cet exemple, il y a quatre niveaux du quasi-IV, donc il y a 4 - 1 = 3 degrés de liberté pour l'estimation de la variance entre les groupes.

Les degrés de liberté pour l'estimation de la variance intra-groupes sont calculés en soustrayant un du nombre de personnes dans chaque condition/catégorie et en additionnant les conditions/catégories. Dans cet exemple, il y a 2 personnes dans la catégorie Math, donc cette catégorie a 7 - 1 = 6 degrés de liberté. Il y a 16 personnes dans la catégorie anglaise, donc cette catégorie a 16 - 1 = 15 degrés de liberté. Pour l'art, il y a 15 - 1 = 14 degrés de liberté. Pour l'histoire il y a 7 - 1 = 6 degrés de liberté. En additionnant les dfs ensemble, nous trouvons qu'il y a 6 + 15 + 14 + 6 = 41 degrés de liberté pour l'estimation de la variance intra-groupes. La dernière ligne donne le nombre total de degrés de liberté qui est donné par le nombre total de scores - 1. Il y a 45 scores, donc il y a 44 degrés de liberté au total.

Carré moyenLa quatrième colonne donne les estimations de la variance (les carrés moyens). Chaque carré moyen est calculé en divisant la somme des carrés par ses degrés de liberté.

MS Entre-groupes = SS Entre-groupes / df Entre-groupes
MS intra-groupes = SS intra-groupes / df intra-groupes

FLa cinquième colonne donne le rapport F. Il est calculé en divisant le carré moyen entre les groupes par le carré moyen intra-groupe.
F = MS inter-groupes / MS intra-groupes
Sig.La dernière colonne donne la signification du rapport F. C'est la valeur p. Si la valeur p est inférieure ou égale à votre niveau &alpha, alors vous pouvez rejeter H 0 que toutes les moyennes sont égales. Dans cet exemple, la valeur p est de 0,511, ce qui est supérieur au niveau &alpha, nous ne pouvons donc pas rejeter H 0 . Autrement dit, il n'y a pas suffisamment de preuves pour affirmer que certains des moyens peuvent être différents les uns des autres.

Nous écririons le rapport F comme suit : F(3, 41) = 0.781, p = .511, MME Erreur = 0,292, &alpha = 0,05.

Le 3 correspond aux degrés de liberté entre les groupes, 41 correspond aux degrés de liberté intra-groupe, 0,781 correspond au rapport F de la colonne F, et 0,511 correspond à la valeur du Sig. colonne (la valeur p), et 0,292 est l'estimation quadratique moyenne de la variance à l'intérieur des groupes.

Lorsque le rapport F est statistiquement significatif, nous devons examiner la sortie des comparaisons multiples. Même si notre ratio F n'est pas statistiquement significatif, nous examinerons les comparaisons multiples pour voir comment elles sont interprétées.

La sortie Comparaisons multiples donne les résultats des tests Post-Hoc que vous avez demandés. Dans cet exemple, j'ai demandé des comparaisons multiples à Tukey, de sorte que la sortie reflète ce choix. Différentes personnes ont des opinions différentes sur le moment d'examiner la sortie des comparaisons multiples. L'une des opinions dominantes est que le résultat de la comparaison multiple n'est significatif que si le rapport F global est statistiquement significatif. Dans cet exemple, ce n'est pas statistiquement significatif, donc techniquement, je ne devrais pas vérifier la sortie des comparaisons multiples.

La sortie comprend une ligne distincte pour chaque niveau de la variable indépendante. Dans cet exemple, il y a quatre rangées correspondant aux quatre niveaux du quasi-IV. Considérons la première ligne, celle dont la majeure est égale à l'art. Il y a trois sous-lignes dans cette ligne. Chaque sous-rangée correspond à l'un des autres niveaux du quasi-IV. Ainsi, il y a trois comparaisons décrites dans cette ligne :

ComparaisonH 0 H1
Art contre anglaisH 0 : µ Art = µ Anglais H 1 : µ Art &ne µ Anglais
Art contre histoireH 0 : µ Art = µ Histoire H 1 : µ Art &ne µ Histoire
Art contre mathématiquesH 0 : µ Art = µ Mathématiques H 1 : µ Art &ne µ Mathématiques

La deuxième colonne de la sortie donne la différence entre les moyennes. Dans cet exemple, la différence entre la moyenne cumulative des personnes qui seraient des majeures en art et celles qui seraient des majeures en anglais est de 0,2532. La troisième colonne donne l'erreur standard de la moyenne. La quatrième colonne est la valeur p pour la comparaison multiple. Dans cet exemple, la valeur p pour comparer les GPA des personnes qui seraient des majeures en art avec celles qui seraient des majeures en anglais est de 0,565, ce qui signifie qu'il est peu probable que ces moyennes soient différentes (comme on peut s'y attendre étant donné que la différence (0,2532 ) est petit.) Si les valeurs p sont inférieures ou égales au niveau &alpha, alors vous pouvez rejeter le H 0 correspondant. Dans cet exemple, la valeur p est de 0,565, ce qui est supérieur au niveau &alpha de 0,05, nous ne rejetons donc pas H 0 que le GPA moyen des personnes qui seraient des majors en art est différent du GPA moyen des personnes qui seraient des majors en anglais. Les deux dernières colonnes vous donnent l'intervalle de confiance à 95 %.

La partie suivante de la sortie SPSS (illustrée ci-dessus) résume les résultats de la procédure de comparaisons multiples. Il y a souvent plusieurs colonnes de sous-ensemble dans cette section de la sortie. Les moyennes répertoriées dans chaque colonne de sous-ensemble ne sont pas statistiquement différentes les unes des autres de manière fiable. Dans cet exemple, les quatre moyennes sont répertoriées dans une seule colonne de sous-ensemble, de sorte qu'aucune des moyennes ne diffère de manière fiable des autres moyennes. Cela ne veut pas dire que les moyens ne sont pas différents les uns des autres, mais seulement que nous n'avons pas observé de différence entre les moyens. Ceci est cohérent avec le fait que nous n'avons pas rejeté l'hypothèse nulle de l'ANOVA.

La dernière partie de la sortie SPSS est un graphique montrant la variable dépendante (GPA) sur l'axe Y et la variable (quasi) indépendante (autre majeure) sur l'axe X :

Étant donné que la variable quasi-indépendante est nominalement mise à l'échelle, le graphique devrait vraiment être un graphique à barres. Double-cliquez sur le tracé pour appeler l'éditeur de graphiques SPSS :

Dans l'éditeur de graphiques, cliquez sur l'un des points de données :

Dans l'éditeur de graphique, sélectionnez Graphique | Changer le type d'élément de données | Barre simple :

Le nouveau graphique à barres apparaît sous l'éditeur :

Apportez d'autres modifications au graphique à barres que vous souhaitez. (Consultez le didacticiel sur l'édition de graphiques si vous ne savez pas comment effectuer des modifications.)


Statistiques 3XE3

a) Les données que nous avons saisies dans SPSS sont différentes des données collectées.

b) Nous concluons qu'il n'y a pas d'effet dans la population alors qu'en fait il y en a.

c) Nous concluons que la statistique de test est significative alors qu'en fait elle ne l'est pas.

a) Il y aura une relation significative entre le nombre de tasses de café bues au cours des 4 dernières heures et la fréquence cardiaque.

b) Il n'y aura aucune relation entre la fréquence cardiaque et le nombre de tasses de café bues au cours des 4 dernières heures.

c) Les personnes qui boivent plus de tasses de café auront un rythme cardiaque considérablement plus bas.

a) Les personnes qui mangent du saumon auront un teint plus éclatant que celles qui n'en mangent pas.

b) Les personnes qui mangent du saumon auront un teint similaire à celles qui n'en mangent pas.

c) Manger du saumon ne prédit pas l'éclat de la peau.

a) Les variables estiment le centre de la distribution.

b) Les variables sont estimées à partir des données et sont (généralement) des constantes censées représenter une vérité fondamentale sur les relations dans le modèle.

c) Les variables sont des construits mesurés qui varient selon les entités de l'échantillon.

a) Les paramètres sont des constructions mesurées qui varient selon les entités de l'échantillon.

b) Un paramètre nous indique dans quelle mesure la moyenne représente les données de l'échantillon.

c) Les paramètres sont estimés à partir des données et sont (généralement) des constructions censées représenter une vérité fondamentale sur les relations entre les variables du modèle.

a) Non, vous ne pouvez pas, car la limite inférieure de l'intervalle de confiance est 0,131, ce qui est inférieur à 0,30, et donc la vraie corrélation pourrait être inférieure à 0,30.

b) Oui, vous le pouvez, car le coefficient de corrélation est de 0,5 (ce qui est supérieur à 0,30) et se situe dans les limites de l'intervalle de confiance.

c) Non, vous ne pouvez pas, car la taille de l'échantillon était trop petite.

a) Il n'est pas affecté par les valeurs aberrantes.

b) Il vous donne une mesure de la mesure dans laquelle votre paramètre d'échantillon représente la valeur de la population.

c) Il nous indique la valeur précise de la variance au sein de la population.

d) Il n'est pas affecté par la distribution des scores.

a) A moins de pouvoir pour trouver un effet.

b) A plus de pouvoir pour trouver un effet.

c) A la même quantité de puissance, les données sont simplement collectées différemment.

Rétroaction : lorsque les mêmes participants sont utilisés dans plusieurs conditions, la variance non systématique (souvent appelée variance d'erreur) est considérablement réduite, ce qui facilite la détection de toute variance systématique.

(Indice : les valeurs positives de kurtosis indiquent trop de scores dans les queues de la distribution et que la distribution est trop pointue, tandis que les valeurs négatives indiquent trop peu de scores dans les queues et que la distribution est assez plate).

a) Il y a une erreur dans votre calcul.

b) Une distribution pointue et à queue lourde

c) Une distribution plate et à queue lourde

d) Une distribution plate et en queue légère

Rétroaction : plus la valeur est éloignée de zéro, plus il est probable que les données ne soient pas distribuées normalement.

b) Uniquement si vous avez utilisé un plan à mesures indépendantes.

d) Uniquement si vous disposez d'un échantillon de grande taille.

a) Si les scores sont normalement distribués.

b) Si les scores sont indépendants.

c) Si les moyennes des groupes sont égales.

d) Si les variances de groupe diffèrent.

a) Effectuez une corrélation partielle pour examiner la relation entre le QI et le revenu annuel tout en éliminant l'effet de l'éthique du travail.

b) Effectuez une corrélation partielle pour examiner la relation entre l'éthique du travail et le revenu annuel en éliminant l'effet du QI.

c) Effectuer une corrélation semi-partielle pour examiner la relation entre le QI et le revenu annuel tout en éliminant partiellement l'effet de l'éthique du travail.

d) Effectuez une corrélation semi-partielle pour examiner la relation entre le QI et l'éthique du travail tout en éliminant partiellement l'effet du revenu annuel.

Rétroaction : la corrélation partielle dégrade l'effet que la troisième variable a sur les deux variables de la corrélation.


Comprendre les hypothèses de l'ANOVA

Comme d'autres types de tests statistiques, ANOVA compare les moyennes de différents groupes et vous montre s'il existe des différences statistiques entre les moyennes. L'ANOVA est classée comme statistique de test omnibus. Cela signifie qu'il ne peut pas vous dire quels groupes spécifiques étaient statistiquement significativement différents les uns des autres, seulement qu'au moins deux des groupes l'étaient.

Il est important de se rappeler que la principale question de recherche de l'ANOVA est de savoir si les moyennes de l'échantillon proviennent de populations différentes. L'ANOVA repose sur deux hypothèses :

  1. Quelle que soit la technique de collecte des données, les observations au sein de chaque population échantillonnée sont normalement distribuées.
  2. La population échantillonnée a une variance commune de s2.


Voir la vidéo: Cours 8: Méthodes dappariement (Décembre 2021).