Salut,

J'ai un petit probleme que j'espere vous allez pouvoir m'aider a le resoudre

J'ai deux series d'images a comparer. Toutes les images d'une serie correspondent grosso modo a un meme "type" d'image. Les "types" d'image des deux series sont differents.
Chaque image comporte une composante rouge et jaune. Ce que je souhaite c'est montrer et quantifier la correlation entre les composantes rouges et jaunes de chaque serie et les comparer entre elles. Par exemple, la correlation de la serie 1 est meilleure que celle de la serie 2 (voire meme dire que la serie 1 n'est pas correlee alors que la 2 l'est).
Jusqu'a maintenant, j'ai calcule le coefficient de correlation (Pearson) entre rouge et jaune pour toutes les images, puis j'ai fais la moyenne par serie et compare mes deux series avec un student t test. L'une est a 0.32, l'autre a 0.66.
Je me demande si c'est la bonne methode. Premierement, j'ai pas le meme nombre d'images dans chaque series (~400 vs ~80). Du coup quand je regarde dans la table des valeurs critiques pour Pearson, j'ai pas le memes valeurs critiques. Utiliser 80 images a la place de 400 changerait mon resultat. Deuxiemement, est ce que j'ai au moins le droit d'utiliser la table des valeurs critiques sachant que j'ai 400 Pearson, non pas 400 points correspondants a un Pearson.

Pour finir, ne serait il pas mieux que je fasse a chaque etape de mon analyse un test de valeur critique?
Par exemple image 1 serie 1 : 150 pixels analyses -> Pearson -> test de l'hypothese -> hypothese rejetee (ou pas)
et de faire ca pour toute mes images en notant a chaque fois si l'hypothese est rejetee ou non. Ensuite je comparerai le % hypothese rejetee entre mes series 1 et 2 pour avoir ma reponse finale...

Qu'est ce qui est le plus juste?

J'espere que j'ai ete clair... (pas gagne ca)

A+