Voilà je propose de discuter du lien existant entre entropie et information :
Quel lien entre ces 2 notions ? Toute variation d'information implique t-elle une variation d'entropie ? L'information véhiculée par le vivant est-elle de même nature que l'information physique ? Tout calcul implique t-il un augmentation d'entropie dans l'univers ? L'idée étant d'appréhender l'évolution de l'information dans l'univers et son lien avec la complexité du vivant. Je conçois cette question comme pluridisciplinaire, et donc pouvant intéresser des domaines très différents : (Informatique, théorie de l'évolution, biologie, théorie du Big Bang, sciences cognitives, etc... ).
Au modérateurs de voir si il faut déplacer le sujet dans une autre rubrique...merci!
-----