Bonjour,
j'ai une petite question concernant la redondance de données et l'information que ça représente. Un moyen d'évaluation de la quantité d'informations que contiennent les données est évaluée avec une notion d'entropie.
1) Par exemple, si dans mon jeu de données, je n'ai que des valeurs constantes (toutes plus ou moins égales), Alors l'entropie (de Shannon ?) sera faible, est-ce le cas ?
On parle alors dans ce cas là de données redondantes, n'est-ce pas ?
2) Comment le prouver d'une manière mathématique (que l'entropie est faible) ? :
est-ce je pourrais utiliser la formule suivante :
où est la probabilité que la variable aléatoire X prenne la valeur parmi valeurs possibles.
Dans le cas où je n'ai que des valeurs toutes égales (, j'aurai alors une entropie de Shannon nulle, c'est-à-dire une information nulle.
3) Au contraire, si les données sont vraiment différentes et dispersées, j'attendrai une grande entropie : là aussi une confirmation ?
4) Dans l'univers, on dit que l'entropie ne fait qu'augmenter avec l'homogénéisation de la matière : on dit ça parce qu'il y aura de + en + de configurations possibles avec cette homogénéisation mais de quel paramètre tient-on compte quand on parle de cette entropie (qui n'est pas l'entropie de Shannon) : a priori, on pourrait penser que si l'homogénéité est complète, la position de chaque galaxie est uniformément répartie et donc représente des données redondantes. Mais là où il y a soucis, c'est que leur position n'est pas une valeur constante contrairement à ma question précedente : elles seront uniformément réparties mais pas égales entre elles.
Si vous pouviez m'aider à éclaircir ce point ?
5) Voila en conclusion tous mes petits problèmes contingents de compréhension où j'aimerais avoir de l'aide ?
Je m'intéresse à ça car je travaille sur le formalisme de Fisher qui est assimilable à de l'entropie.
Je vous remercie par avance
-----