Vous avez dû très mal lire les pointeurs qui vous ont été donnés car l'information défini par Shannon ne porte absolument pas sur la sémantique.
Vous parlez donc de tout autres chose que ce qui est défini dans la théorie de l'information concernant les notions d'informations propre, mutuelle, ... philo de comptoir comme la fait remarqué Amanuensis.L'information propre de x "I(x)" est une fonction de sa probabilité p(x) : I(x) = f(p(x)) = −log2 p(x)
Un bit ( unité de mesure de l'information ) est égal à la quantité d'information fournie par le choix d'une alternative parmi deux équiprobables.
Cordialement,
-----