Analyse dimensionnelle étendue à la théorie de l'information
Répondre à la discussion
Affichage des résultats 1 à 7 sur 7

Analyse dimensionnelle étendue à la théorie de l'information



  1. #1
    Paradigm

    Analyse dimensionnelle étendue à la théorie de l'information


    ------

    Bonsoir à tous,

    Cela ferait-il sens d'ajouter la dimension

    - d'information (I) ayant pour unité de mesure le bit (unité minimale d'information transmise par un message numérique) ou le symbole (unité minimale d'information transmise par un message analogique)

    ou

    - de quantité d'information (QI) dont l'unité de mesure est le Shannon


    pour prendre en compte les grandeurs comme la « vitesse de transmission de l’information » exprimée soit en débit binaire Rc (bit/s) soit en débit symbole Rs (baud), l'efficacité spectrale ayant pour unité (bit s-1 Hz-1) (mais sans dimension TT-1 = 1), ....

    Cordialement,

    -----

  2. #2
    gwgidaz
    Animateur Électronique

    Re : Analyse dimensionnelle étendue à la théorie de l'information

    Citation Envoyé par Paradigm Voir le message
    Bonsoir à tous,

    Cela ferait-il sens d'ajouter la dimension

    - d'information (I) ayant pour unité de mesure le bit (unité minimale d'information transmise par un message numérique) ou le symbole (unité minimale d'information transmise par un message analogique)

    ou

    - de quantité d'information (QI) dont l'unité de mesure est le Shannon


    pour prendre en compte les grandeurs comme la « vitesse de transmission de l’information » exprimée soit en débit binaire Rc (bit/s) soit en débit symbole Rs (baud), l'efficacité spectrale ayant pour unité (bit s-1 Hz-1) (mais sans dimension TT-1 = 1), ....

    Cordialement,
    Bonjour,
    Votre question n'est pas claire.

    L'unité d'information "shannon" tient compte du fait de la non équiprobabilité des états.

    Par exemple, si l'état 1 est plus probable que l'état 0, la densité spectrale du spectre continu sera plus faible, mais il sera aussi large. Un bon codage ( dans une couche supérieure) devrait tenir compte de la probabilité des états , le meilleur codage étant celui qui donne un spectre le plus continu possible, car les raies discrète dans un spectre ne portent pas d'information. En général, lors de la conception d'un système, on ne connaît pas à l'avance les probabilités d'occurrence. Sinon, on code différemment....

  3. #3
    Paradigm

    Re : Analyse dimensionnelle étendue à la théorie de l'information

    Bonjour,

    Citation Envoyé par gwgidaz Voir le message
    Votre question n'est pas claire.
    Dit autrement. "L'information" n’étant pas considérer comme une dimension physique et donc toute la puissante de l'analyse dimensionnelle ne profite pas à la théorie de l'information. Comment faire pour faire prendre en compte le concept "d'information", au sens de la théorie de l'information, comme une dimension ? Ceci afin de faire profiter à cette dernière de la puissance de l'analyse dimensionnelle ?


    Cordialement,
    Dernière modification par Paradigm ; 24/03/2018 à 09h21.

  4. #4
    stefjm

    Re : Analyse dimensionnelle étendue à la théorie de l'information

    C'est à peu près la même problématique que pour les décibels et les angles.
    Il faudrait regarder les interactions avec les autres dimensions.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  5. A voir en vidéo sur Futura
  6. #5
    gwgidaz
    Animateur Électronique

    Re : Analyse dimensionnelle étendue à la théorie de l'information

    Citation Envoyé par stefjm Voir le message
    C'est à peu près la même problématique que pour les décibels et les angles.
    Il faudrait regarder les interactions avec les autres dimensions.
    Bonjour,

    Je le crois aussi... En tout cas, le "bit" est largement utilisé en théorie de l'information, et les formules ont des dimensions cohérentes: débit, capacité de mémoires, entropie....

  7. #6
    stefjm

    Re : Analyse dimensionnelle étendue à la théorie de l'information

    Lien avec l"entropie, degré de liberté, énergie et température pour la physique.
    base 2, e, 10, pi pour les maths
    Dernière modification par stefjm ; 24/03/2018 à 10h33.
    Moi ignare et moi pas comprendre langage avec «hasard», «réalité» et «existe».

  8. #7
    Paradigm

    Re : Analyse dimensionnelle étendue à la théorie de l'information

    Citation Envoyé par stefjm Voir le message
    Lien avec l"entropie
    Le lien entre l'entropie définie par Shannon et celle établie par Ludwig Boltzmann et Josiah Gibbs semble avoir été contesté par plusieurs scientifiques et en particulier Hubert Yockey qui a souligné que les espaces de probabilités dans les deux situations ne sont pas isomorphes. Voir l'encadré "Quantité d'information,Incertitude, Entropie" de cet article de Jérôme Segal, historien des sciences et auteur de l'ouvrage Le zéro et le un. Histoire de la notion scientifique d’information au 20° siècle.

    Cordialement,
    Dernière modification par Paradigm ; 24/03/2018 à 16h01.

Discussions similaires

  1. Analyse dimensionnelle étendue
    Par stefjm dans le forum Physique
    Réponses: 17
    Dernier message: 15/05/2016, 14h23
  2. analyse dimensionnelle
    Par Zabour dans le forum Physique
    Réponses: 2
    Dernier message: 11/12/2012, 16h26
  3. Réponses: 10
    Dernier message: 24/10/2012, 17h33
  4. analyse dimensionnelle
    Par invite1967ae56 dans le forum Physique
    Réponses: 0
    Dernier message: 10/12/2011, 18h00