Bonjour,
Je voudrais connaitre la différence entre le test du chi 2 et celui de l'anova. Je ne sais jamais lequel il faut utiliser :/
Merci d'avance
-----
Bonjour,
Je voudrais connaitre la différence entre le test du chi 2 et celui de l'anova. Je ne sais jamais lequel il faut utiliser :/
Merci d'avance
Il suffit de regarder ce qu'on fait pour voir la différence : dans le test du Khi-deux, on utilise des effectifs de classes, pour l'analyse de al variance (donc l'anova) on a des valeurs numériques. Il n'y a aucun risque de confondre les deux si on apprend vraiment de quoi il retourne.
Cordialement.
Si j'ai bien compris ça depend donc de comment la question est formulée?
Comme tous les tets, ça dépende de l'hypothèse qu'on veut tester 'et des moyens pour le faire. le Khi-deux sert à étudier si la répartition des classes est compatible avec un modèle de répartition (souvent répartition égalitaire, mais pas systématiquement), alors que l'anova sert à étudier si les différences des moyennes entre échantillons sont sérieuses ou pas (sous certaines conditions).
Cordialement.
D'accord c'est plus clair maintenant, merci
il faut faire attention aussi au fait que l'expression "test du Chi-2" est un peu vague Plusieurs tests reposent sur la loi du Chi-2 : gg0 a cité le test d'adéquation entre une distribution empirique et une distribution théorique, mais il y a aussi un test d'indépendance de deux classifications (i.e. indépendance des lignes et des colonnes dans une table de classification à deux entrées). Le test du rapport de vraisemblance est aussi basé sur le Chi-2.
Ce qu'on appelle test du Khi-deux est le test d'adéquation. C'est bien celui qui est utilisé dans les tests d'indépendance pour les tableaux de contingence (tableaux à double entrée d'effectifs de classes déterminées par deux caractères) : adéquation au modèle d'indépendance tiré des marginales. Est-ce cela que tu appelles "indépendance de deux classifications" ? Je le pense.
Ne pas confondre avec la loi du Khi-deux, qui apparaît à pas mal d'endroits (test et loi de Fischer, test et loi de Student, ...).
Cordialement.
ah non, selon moi ce n'est pas le même test: dans le cas du test d'adéquation, tu compares une distribution empirique à une distribution connue (par exemple une loi normale avec des paramètres donnés), alors que le test d'indépendance est un test non-paramétrique (tu supposes l'indépendance mais rien d'autre).
Tu devrais aller voir en détail comment fonctionne le test d'indépendance.
je le sais parfaitement et persiste à dire que c'est un test non-paramétrique.
et d'ailleurs le nombre de degrés de liberté dans le test d'adéquation à m classes est m-1 alors que pour le tyest d'indépendance dans une table nxm c'est (n-1)x(m-1) et non nm-1
C'est normal, les ddl par ligne et par colonne font un de moins : Par exemple pour les lignes, connaissant la marginale de la ligne, une fois m-1 valeurs choisies en modèle, la m-ième est déterminée, et une fois n-1 lignes choisies, la n-ième est entièrement déterminée par la marginale ligne. le modèle choisi (par exemple celui de l'indépendance) ne peut jouer que sur (n-1)(m-1) valeurs indépendantes.
Mais revois la construction du test : On compare bien les valeurs aux valeurs modèles construites sur l'hypothèse de l'indépendance. le modèle est non paramétrique parce qu'on ne suppose rien sur la loi des données, et dans le test classique d'adéquation non plus, ce qui fait que ls statisticiens classent le test du khi-deux dans les tests non paramétriques. comme ceux de Von mises et de Kolmogorov-Smirnov.
Cordialement.
le test d'ajustement est "distribution-free" mais pas non-paramétrique. Quand on fait un test d'ajustement, l'hypothèse nulle est une hypothèse simple, alors que dans le test d'indépendance c'est une hypothèse composite. Du moins c'est comme ça que je vois les choses.