bit bit bit... byte byte.. bip bip bip.....
Répondre à la discussion
Affichage des résultats 1 à 28 sur 28

bit bit bit... byte byte.. bip bip bip.....



  1. #1
    Bounoume

    bit bit bit... byte byte.. bip bip bip.....


    ------

    Pour le cerveau humain, il s'agit d'une moyenne. Tout dépend du mode spécifique de traitement de l'information. En lecture ou écriture, par exemple, les scientifiques ont quantifié un bit comme un caractère de texte. Pour l'écoute de la parole, il s'agit essentiellement d'un son.
    ah bon.... en codage ASCII bien sûr....
    lu ce soir sur FS bien sûr....
    persiste et signe:
    Il peut taper à une vitesse de 120 mots par minute, soit en moyenne cinq caractères par mot, soit 10 frappes, ou bits, par seconde.

    bon, mais comme ils comparent ça à un "escargot au galop".. c'est seulement de l'humour de journaliste compteur bancal.... 1=8 .....
    honni soit qui mal y pense.....

    -----
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  2. #2
    GBo

    Re : bit bit bit... byte byte.. bip bip bip.....

    "Vous ne le savez pas, mais vous pensez aussi lentement qu'un escargot au galop !"
    https://www.futura-sciences.com/tech...-galop-118414/

    C'est quasiment une traduction de cet article en anglais, qui parle aussi de bit pour un caractère de texte, c'est bizarre en effet:

    "Surprisingly slow speed of human thought calculated by Caltech"
    https://newatlas.com/biology/slow-sp...0-bits-second/

    The researchers on the new study first set out to define one bit in human terms. Of course, it varies based on the specific mode of information processing – with reading and writing, for example, they quantify one bit as one character of text, and in listening to speech it’s essentially one sound.
    Dernière modification par GBo ; 21/12/2024 à 00h13.

  3. #3
    GBo

    Re : bit bit bit... byte byte.. bip bip bip.....

    L'article de Caltech est payant:

    "The unbearable slowness of being: Why do we live at 10 bits/s?"
    https://www.cell.com/neuron/abstract...273(24)00808-0

    Le résumé:
    This article is about the neural conundrum behind the slowness of human behavior. The information throughput of a human being is about 10 bits/s. In comparison, our sensory systems gather data at ∼1⁢09 bits/s. The stark contrast between these numbers remains unexplained and touches on fundamental aspects of brain function: what neural substrate sets this speed limit on the pace of our existence? Why does the brain need billions of neurons to process 10 bits/s? Why can we only think about one thing at a time? The brain seems to operate in two distinct modes: the “outer” brain handles fast high-dimensional sensory and motor signals, whereas the “inner” brain processes the reduced few bits needed to control behavior. Plausible explanations exist for the large neuron numbers in the outer brain, but not for the inner brain, and we propose new research directions to remedy this.

  4. #4
    Cromagnon

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par GBo
    C'est quasiment une traduction de cet article en anglais, qui parle aussi de bit pour un caractère de texte, c'est bizarre en effet:
    J'ai rien bité.

    Non moi ça ne m'étonne pas qu'on puisse parle d'1 bit "pour" un caractère.
    C'est juste que le bit 1 ce n'est pas le bit 2...ni le bit n.

    Par exemple, lorsque vous codez un nombre en binaire en informatique, vous pouvez donner un poids à chaque bit.
    Le bit 1 vaut 1 ou 0 alors que le bit 2 vaut 2 ou 0 , le bit 3 vaut 4 ou 0 (et à vrai dire d'un point de vue théorique en science de l'information, vous pouvez faire ce que vous voulez de ces bits, c'est juste comme ça vous arrange et on a pris l'habitude de travailler d'une certaine manière pour se simplifier la vie avec les ordinateurs)
    Mais ici, avec le vivant, le bit est "une information" (c'est vague...ça peut être un caractère, un son, un image reconnue comme, etc), donc quelque-chose qui se distingue simplement d'autre chose, qui désigne sa présence ou son absence : Ce n'est pas quantifié ou plus simplement, c'est quantifié comme la valeur minimale de ce qu'on peut attendre d'une information, c'est à dire que le bit reflète la présence et l'absence d'une information quelconque... sans se préoccuper de son origine, complexe ou pas, donc ce qu'on appellerait "quantifier" l'information.

    C'est à dire que si on imagine que l'on code les informations avec des "bip", c'est à dire "un truc" qui est là ou "un truc" qui n'est ps là, il n'y pas lieu d'en faire des "octets" ou ce que vous en voulez, "ça", l'assemblage des trucs, c'est autre chose.
    Et cet assemblage figé en terme d'espace d'assemblage figé (8, 16, 32 bits, 64 etc) n'a pas lieu d'être figé dans le monde du vivant.
    "Un bit", c'est à dire une dépolarisation particulière d'un neurone, qui a pour origine un traitement complexe en amont, ce n'est pas juste 1 bit informatique, c'est l'assemblage en réseau des bits vivants en amont....

    Le bit du vivant ne fait pas juste partie d'une ligne en 1D comme avec l'octet, il fait en réalité partie d'un maillage en nD (n dimensions !!!) comme avec un réseau neuronal.

    Surprise, on n'est pas des ordinateurs.

    Après je ne doute pas qu'a force de ne penser qu'en terme d'informatique moderne on perd de vue ces choses élémentaires et que nombreux seront ceux qui ne comprendront même pas ce que je viens d'expliquer.
    Mais tans pis.
    Dernière modification par Cromagnon ; 21/12/2024 à 01h19.

  5. A voir en vidéo sur Futura
  6. #5
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    L'article d'origine est en accès libre bien sur et pas dur à trouver : https://arxiv.org/pdf/2408.10234

    Il explique très bien qu'en anglais, la structure du langage fait que dans un flux du caractère, l'entropie du suivant est en moyenne de 1 bit en effet ce qui est utilisé par les dactylographes experts pour optimiser leur vitesse de frappe.

    Il cite même le texte d'origine : https://www.princeton.edu/~wbialek/r...shannon_51.pdf qui est par Shannon lui même, rien que ça.

  7. #6
    polo974

    Re : bit bit bit... byte byte.. bip bip bip.....

    Dans l'article:
    So we can obtain an upper bound on the brain’s capacity by counting the number of synapses (∼ 10^14) and multiplying by the dynamic range of synaptic strength, estimated at 5 bits, resulting in 5 × 10^14 bits ≈ 50 Terabytes required to specify all synapses
    Les 5 bits de dynamique ne tiennent pas compte des positions de connexion. Les 50 Tbytes sont donc sous-evalué à mon avis. Que ce soit le neurone voisin connecté on même juste la position de connexion (les signaux ne sont pas continus, se déplacent assez lentement et fonctionnent de façon non linéaire, donc la position de connexion est importante même sur un même dendrite).
    Jusqu'ici tout va bien...

  8. #7
    oualos

    Re : bit bit bit... byte byte.. bip bip bip.....

    L'entropie informationnelle est très dure à définir: en général dans la théorie de l'information -voir Shannon- on étudie la transmission et sa qualité -ou sa déperdition- ce qui nécessite forcément un émetteur et un récepteur au départ.
    Mais quid de l'information en général dans l'Univers ?
    Süsskind affirme que les trous noirs sont recouverts de bits d'information correspondants aux particules attirées et captées par des TN.
    Et certains considèrent que le photon est un bit d'information: c'est un paradigme évidemment.
    Süsskind va jusqu'à dire que notre univers est un hologramme sur un TN, phrase très difficile à comprendre pour moi je pense...
    Dernière modification par oualos ; 21/12/2024 à 09h49.

  9. #8
    GBo

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par oualos Voir le message
    L'entropie informationnelle est très dure à définir: en général dans la théorie de l'information -voir Shannon- on étudie la transmission et sa qualité -ou sa déperdition- ce qui nécessite forcément un émetteur et un récepteur au départ.
    Comme dit par pm42, le papier de Shannon auquel il est fait référence dans l'article de Caltech est celui-ci:

    "Prediction and entropy of Printed English"
    https://languagelog.ldc.upenn.edu/myl/Shannon1950.pdf

    Et l'entropie dont il parle est parfaitement définie, en voici la version la plus courte:

    “if the language is translated into binary digits (0 or 1) in the most efficient way, the entropy is the average number of binary digits required per letter of the original language."
    Le concept clé qu'a peut-être loupé Bounoume (moi aussi mais il état tard) est sans doute le "in the most efficient way".
    Donc déjà il faut savoir qu'en anglais la lettre E est très fréquente, que dans un mot le H est souvent précédé de T, que le Q est souvent suivi de U etc... (chaque langue a des particularités de ce genre qui en augmente sa redondance interne, et donc diminue son entropie).
    Comme ceci on estime qu'il faut 2,3 BPS (BPS = Bits-Per-Character).

    Ensuite, dans les statistiques à plus long terme (i.e. sur les phrases et non seulement les mots), on ce genre de redondance qui permet encore de diminuer le BPS à 1, ce qui est en effet très peu (et défie l'intuition puisque je crois que cela dépasse les performances de la compression ZIP)

    xkcd_entropy-2.png

    -> la bonne réponse ici est bien sûr "ERUPTING"
    Dernière modification par GBo ; 21/12/2024 à 10h23.

  10. #9
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par GBo Voir le message
    Et l'entropie dont il parle est parfaitement définie, en voici la version la plus courte:
    Tu sais, quand quelqu'un se met à te parler des trous noirs dans une discussion sur le cerveau ou du poids des bits en info, il est clair qu'on est dans l'habituel "étalons ma science comme de la confiture".

    Citation Envoyé par GBo Voir le message
    Ensuite, dans les statistiques à plus long terme (i.e. sur les phrases et non seulement les mots), on ce genre de redondance qui permet encore de diminuer le BPS à 1, ce qui est en effet très peu (et défie l'intuition puisque je crois que cela dépasse les performances de la compression ZIP)
    Oui mais c'est aussi pour cela par exemple que les LLMs arrivent à enregistrer une grande partie de l'information disponible et à la restituer en ayant comparativement peu de paramètres : ils jouent à font sur ces corrélations.
    Il est plus que probable que le cerveau humain utilise le même mécanisme ce qui expliquerait pourquoi dans les deux cas, la dite mémoire est faillible, imprécise, etc parce que c'est au fond une compression avec perte forte utilisant les statistiques.
    C'est comme de compresser une image en en donnant une description factuelle ce qui reviendrait à dire que la Joconde est "un portrait de femme avec un regard insondable et un paysage calme en arrière plan".

  11. #10
    Cromagnon

    Re : bit bit bit... byte byte.. bip bip bip.....

    Le type de raisonnement employé dans l'article arxiv laisse rêveur.
    The information rate of human behavior
    Take for example a human typist working from a hand-written manuscript.
    An advanced typist produces 120 words per minute.
    If each word is taken as 5 characters, this typing speed corresponds to 10 keystrokes a second.

    How many bits of information does that represent?

    One is tempted to count the keys on the keyboard and take the logarithm to get the entropy per character, but that is a huge overestimate.
    Imagine that after reading the start of this paragraph you are asked what will be the next let...

    English contains orderly internal structures that make the character stream highly predictable.
    In fact, the entropy of English is only ∼ 1 bit per character.
    Expert typists rely on all this redundancy: If forced to type a random character sequence, their speed drops precipitously.
    So we conclude that the typist operates a ... 10 bits/s
    https://arxiv.org/pdf/2408.10234

    C'est une bonne question.

    Surtout on se demande quel rapport a cette question avec celle de savoir, POUR LE CERVEAU, à combien de bits d'information cela correspond.
    On peut être tout à fait d'accord sur le fait de pouvoir calculer la densité d'nformation que celà représente, mais les auteurs oublient que ce calcul n'est que pure théorie, issue de la théorie de l'information.
    Donc conceptuellement, c'est vrai, le cerveau pourrait être vu comme ne traitant que 10 bits/s ... mais réellement, c'est bien plus que ça.
    Le cerveau traite les choses conrêtement en partant de choses concêtes pour arriver à des choses concretes, donc le total en terme informationnel de l'ensemble de ces choses concretes est bien plus élevé que la considération très particulière de la signification "en dehors du cerveau" (selon une vue théorique partielle qui présupose l'existence d'un sens au chose...) selon un aspect purement informationnel.

    Le cerveau, lui, contrairement au théoricien de l'information, ne présupose aucun sens aux choses, il construit le sens.

    The processing of neural codes is generally seen as a series of linear steps – like a line of dominoes falling one after another. The brain, however, consists of highly complex neural networks that are interconnected, and which are linked to the outside world to effect action. Focusing on sets of sensory and processing neurons without linking these networks to the behaviour of the animal misses the point of all that processing.
    By viewing the brain as a computer that passively responds to inputs and processes data, we forget that it is an active organ, part of a body that is intervening in the world, and which has an evolutionary past that has shaped its structure and function. This view of the brain has been outlined by the Hungarian neuroscientist György Buzsáki in his recent book The Brain from Inside Out. According to Buzsáki, the brain is not simply passively absorbing stimuli and representing them through a neural code, but rather is actively searching through alternative possibilities to test various options. His conclusion – following scientists going back to the 19th century – is that the brain does not represent information: it constructs it.
    https://www.theguardian.com/science/...-consciousness

    Un peu de lecture sinon pour permettre de bien distinguer le réseau informatique du réseau biologique.
    On va quand même pas se mettre à parler de LLM...
    https://interstices.info/le-cerveau-...u-de-neurones/
    Dernière modification par Cromagnon ; 21/12/2024 à 17h17.

  12. #11
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Cromagnon Voir le message
    Le type de raisonnement employé dans l'article arxiv laisse rêveur.
    Cela faisait longtemps que l'on n'avait pas eu une critique d'un article scientifique par quelqu'un qui ne connait pas le sujet

    Citation Envoyé par Cromagnon Voir le message
    Surtout on se demande quel rapport a cette question avec celle de savoir, POUR LE CERVEAU, à combien de bits d'information cela correspond.
    Justement, le nombre de bits d'informations n'est pas défini "pour le cerveau" mais dans l'absolu. C'est tout l'intérêt de la théorie de l'information.

    Citation Envoyé par Cromagnon Voir le message
    mais les auteurs oublient que ce calcul n'est que pure théorie, issue de la théorie de l'information.
    Non justement, ils n'oublient pas : eux savent simplement ce que cette théorie veut dire.

    Citation Envoyé par Cromagnon Voir le message
    Donc conceptuellement, c'est vrai, le cerveau pourrait être vu comme ne traitant que 10 bits/s ... mais réellement, c'est bien plus que ça.
    Le cerveau traite les choses conrêtement en partant de choses concêtes pour arriver à des choses concretes, donc le total en terme informationnel de l'ensemble de ces choses concretes est bien plus élevé que la considération très particulière de la signification "en dehors du cerveau" (selon une vue théorique partielle qui présupose l'existence d'un sens au chose...) selon un aspect purement informationnel.
    On admirera l'argumentaire : on écrit "concrète" et "concrètement plein de fois" donc automatiquement, on a une phrase qui est vraie.
    Cela porte un nom en langue française qui est "et voilà pourquoi votre fille est malade".

    Citation Envoyé par Cromagnon Voir le message
    Le cerveau, lui, contrairement au théoricien de l'information, ne présupose aucun sens aux choses, il construit le sens.
    Et une autre affirmation gratuite toujours aussi hilarante qui prouve que parler de la théorie de l'information sans rien y connaitre aboutit au même résultat que d'habitude : du nawak.

    Avec l'autre grand classique : on balance ses certitudes, on fait une recherche Google pour trouver un article grand public dont le titre colle vaguement et on le cite comme référence sans le lire et donc sans se rendre compte que :
    - cela n'a rien à voir avec le sujet du tout (là encore, il faudrait savoir ce qu'est la théorie de l'information)
    - l'article ne confirme absolument pas ce qu'on raconte


    [/QUOTE]https://interstices.info/le-cerveau-...u-de-neurones/[/QUOTE]
    Et un autre article grand public qui n'apporte rien de plus que des banalités parce que là encore, ne pas savoir que la théorie de l'information n'est pas de l'informatique, vient du monde des télécommunications et n'a rien à voir avec l'architecture ni du cerveau ni des ordinateurs amène au paquet d'énormités proférées avec le même ton arrogant de l'anonyme du forum qui connait mieux la science que les chercheurs sans avoir la formation de base.

  13. #12
    Bounoume

    Re : bit bit bit... byte byte.. bip bip bip.....

    alors, peut-être, pour expliquer à Candide:
    Donc déjà il faut savoir qu'en anglais la lettre E est très fréquente, que dans un mot le H est souvent précédé de T, que le Q est souvent suivi de U etc... (chaque langue a des particularités de ce genre qui en augmente sa redondance interne, et donc diminue son entropie).
    Comme ceci on estime qu'il faut 2,3 BPS (BPS = Bits-Per-Character).
    voui, en codage de programme et en exécution, 1 ASCII character est codé sur 8 bits... et dans les vieux documents, on assimilait byte et octet.... et le type char en C..... c'est de l'informatique apprise à l'école.....

    mais dans l'article qui m'a intrigué, il ne s'agit pas du codage des caractères... mais de la prédiction du caractère suivant à partir de la connaissance de la suite des caractères précédents...... , prédiction (statistique?) qui est possible en transmettant uniquement à la fonction de prédiction une variable codable sur le fameux bit (variable booléenne) dans le cas où la dite fonction dispose aussi de tout le texte qui précède...

    ne pas savoir que la théorie de l'information n'est pas de l'informatique, vient du monde des télécommunications et n'a rien à voir avec l'architecture ni du cerveau ni des ordinateurs amène au paquet d'énormités proférées avec l............................. ........
    hélas en première lecture de citations dans une présentation tronquée, la confusion est inévitable.....
    cet aspect 'théorie de l'information" n'était pas du tout apparent dans l'extrait FS présenté hors contexte.....


    ps en reprenant le dit article.....
    d'individus dont la vitesse de traitement des données est en moyenne de 10 bits/s,
    là encore... traitement des entrées, ou bien résultat fonctionnel (décisions, mouvements par exemple) qui pourront ếtre prédits à partir de nombres codés sur 10 bits... nombres quand même calculés préalablement à partir des nombreuses variables d'entrées perceptives....
    une sorte de codage sur les 10 bits, puis décodage en un comportement physique complet...

    cette interprétation est-elle correcte?
    Dernière modification par Bounoume ; 21/12/2024 à 18h51.
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  14. #13
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Bounoume Voir le message
    voui, en codage de programme et en exécution, 1 ASCII character est codé sur 8 bits...
    Et ?

    Citation Envoyé par Bounoume Voir le message
    et dans les vieux documents, on assimilait byte et octet
    On assimile toujours : byte c'est l'anglais, octet le français.


    Citation Envoyé par Bounoume Voir le message
    hélas en première lecture de citations dans une présentation tronquée, la confusion est inévitable.....
    cet aspect 'théorie de l'information" n'était pas du tout apparent dans l'extrait FS présenté hors contexte.....
    Oui, quand on veut vraiment comprendre, il ne faut pas se limiter à la vulgarisation mais aller chercher à la source en effet.


    Citation Envoyé par Bounoume Voir le message
    là encore... traitement des entrées, ou bien résultat fonctionnel (décisions, mouvements par exemple) qui pourront ếtre prédits à partir de nombres codés sur 10 bits... nombres quand même calculés préalablement à partir des nombreuses variables d'entrées perceptives....
    une sorte de codage sur les 10 bits, puis décodage en un comportement physique complet...
    J'ai du mal à comprendre ce que tu veux dire mais le sujet n'est pas de coder sur 10 bits mais que le cerveau traite les signaux à la vitesse de 10 bits par seconde.

  15. #14
    Cromagnon

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par pm42
    J'ai du mal à comprendre ce que tu veux dire mais le sujet n'est pas de coder sur 10 bits mais que le cerveau traite les signaux à la vitesse de 10 bits par seconde.
    Et de manière linéaire par dessus le marché.
    Franchement, qui peut croire qu'un cerveau fonctionne comme un tuyau ?

    Au pire, vous pouvez imaginer, et je dis bien au pire, et imaginer, que les signaux sont traités plusieurs fois vers des régions et en parallele, ce qui commence déjà notablement à augmenter la vitesse de "traitement" (ah oui mais ce ne sont pas les traitements que les auteurs ont sélectionnés)... et là commence à s'effriter le château de sable que les auteurs nous ont gentiment proposé.
    On croirait presque à un hoax.

  16. #15
    Liet Kynes

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par pm42 Voir le message
    Il est plus que probable que le cerveau humain utilise le même mécanisme ce qui expliquerait pourquoi dans les deux cas, la dite mémoire est faillible, imprécise, etc parce que c'est au fond une compression avec perte forte utilisant les statistiques.
    Jolie théorie personnelle !
    Sans questions il n'y a que des problèmes sans réponses.

  17. #16
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Liet Kynes Voir le message
    Jolie théorie personnelle !
    C'est beau de ne tellement rien savoir qu'on ne sait même pas ce qu'est une "théorie personnelle".
    Le concours des 2 trolls pour dire n'importe quoi est par contre plaisant à voir. Pour le moment, Cromagnon gagne et de loin.

    D'autant qu'il s'obstine à ne pas comprendre la différence qui existe entre un signal d'un coté et le mécanisme de traitement du signal en réception de l'autre. Donc forcément, il pense que la confusion est chez les autres.

    Pour tous les 2, vous avez chacun gagné un point DK. Le 1er à en avoir 10 aura une image.
    Images attachées Images attachées
    Dernière modification par pm42 ; 21/12/2024 à 19h28.

  18. #17
    Cromagnon

    Re : bit bit bit... byte byte.. bip bip bip.....

    Ah oui et au fait pour répondre à la diatribe #11

    Moi vous me faites le calcul du nombre de changements de bits intervenant dans tel ou tel processus mental, donc faut descendre au niveau atomique, et vous me dites que le cerveau travaille à telle ou telle vitesse en bit/s, ça me va.
    Mais me parler du sens de mots en anglais pour me dire que ça explique à quelle vitesse le cerveau fonctionne, c'est juste du délire.

    Si vous ne savez pas de quoi il est question, et tout semble l'indiquer, voici de quoi on parle lorsqu'on veut expliquer un phénomène PHYSIQUE (on peut dire aussi "concret" mais n'employons pas de mots trop compliqués) :



    La capacité d’information de l’Univers fait l’objet d’un grand débat depuis les années 1970 et continue de stimuler de multiples branches de la recherche en physique. Un chercheur de l’Université de Portsmouth a ainsi tenté d’évaluer la quantité exacte d’information codée dans toute la matière visible. Selon ses estimations, il y aurait environ 6 x 1080 bits d’information stockés dans l’ensemble des particules de matière de l’Univers observable.


    Pour parvenir à ce nombre, Melvin M. Vopson a dérivé une formule estimant le nombre total de protons dans l’Univers observable — connu sous le nom de nombre d’Eddington — puis a estimé la quantité d’informations stockées par chaque particule elle-même. « Il y a eu diverses tentatives pour estimer le contenu informationnel de l’Univers, mais dans cet article, je décris une approche unique qui détermine en outre la quantité d’informations pouvant être compressée en une seule particule élémentaire », explique le physicien.


    L’estimation de Vopson repose sur la théorie de l’information, définie par le mathématicien Claude Shannon en 1948, une théorie probabiliste qui vise à quantifier le contenu en information d’un ensemble de données, dont le codage informatique satisfait une distribution statistique précise. « C’est la première fois que cette approche est utilisée pour mesurer le contenu informationnel de l’Univers, et elle fournit une prédiction numérique claire », a déclaré Vopson.

    Ces théories radicales sont basées sur le principe selon lequel l’information est physique ; elle est enregistrée par des systèmes physiques et tous les systèmes physiques peuvent l’enregistrer. Par conséquent, il existe nécessairement une quantité donnée d’informations stockées dans l’Univers. Comment et combien d’informations sont-elles stockées dans l’Univers ? C’est à cette question qu’a tenté de répondre Vopson dans sa nouvelle étude.

    En raison du principe d’équivalence masse-énergie-information — selon lequel un morceau d’information n’est pas seulement physique, mais a une masse finie et quantifiable pendant qu’il stocke des informations — le chercheur postule que les informations ne peuvent être stockées que dans des particules stables et ayant une masse au repos non nulle, tandis que les bosons porteurs d’interaction/de force ne peuvent transférer des informations que via une forme d’onde. Ainsi, Vopson se focalise ici sur les particules de matière qui composent l’Univers observable, mais souligne dans son article que l’information pourrait également être stockée sous d’autres formes.

    https://trustmyscience.com/chercheur...sible-univers/

    Ah oui, on est bien embité, ce n'est pas là les mêmes bits que les auteurs de l'article.
    Mais qu'importe, faisons comme si.


    Dernière modification par Cromagnon ; 21/12/2024 à 19h30.

  19. #18
    Cromagnon

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par pm42
    D'autant qu'il s'obstine à ne pas comprendre la différence qui existe entre un signal d'un coté et le mécanisme de traitement du signal en réception de l'autre. Donc forcément, il pense que la confusion est chez les autres.
    Et qu'attendez-vous donc pour nous expliquer tout ça clairement et avec les mots d'un expert dans ce cas ?
    Je veux dire autrement qu'en lançant un bout de phrase sibyllin par ci par là.

  20. #19
    Bounoume

    Re : bit bit bit... byte byte.. bip bip bip.....

    tout de même..... quelque chose continue à m'agacer....
    dans l'article original reporté par FS (que là je ne peux pas accuser de fantaisie...)
    https://newatlas.com/biology/slow-sp...0-bits-second/
    je cite un morceau
    For writing, they started with the example of a professional typist. They can type at a speed of 120 words per minute, and with an average of five characters per word that comes out to 10 keystrokes, or bits, per second. With audio, the recommended rate to make sure your speech can be understood is up to 160 words per minute. Applying the same math, this comes out to 13 bits per second.
    1 keystroke == 1 character ce n'est pas 1 bit....... l'information véhiculée (sauf à considérer toutes les keystroke, toutes les lettres.... comme équivalents... voire égaux...) ça ne peut être codée sur 1 seul bit.....

    un mot (word, ou token ...) ce n'est pas on plus un bit.....
    With audio, the recommended rate to make sure your speech can be understood is up to 160 words per minute. Applying the same math, this comes out to 13 bits per second.
    c'est une variable, possiblement codée sur n bits ....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  21. #20
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Bounoume Voir le message
    1 keystroke == 1 character ce n'est pas 1 bit....... l'information véhiculée (sauf à considérer toutes les keystroke, toutes les lettres.... comme équivalents... voire égaux...) ça ne peut être codée sur 1 seul bit.....
    Si, c'est ce qui a été expliqué plus haut avec lien vers l'article de Shannon.
    Quand tu as tout le contexte précédent en langue anglaise, le caractère suivant est pratiquement prévisible avec 1 bit, c'est à dire que tu as le choix de 2 caractères possibles.

  22. #21
    Cromagnon

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Cité par GBo
    “if the language is translated into binary digits (0 or 1) in the most efficient way, the entropy is the average number of binary digits required per letter of the original language."
    Un truc amusant à ce niveau.
    Cette définition se base sur le fait qu'il pourrait exister un langage "per se".
    Or ce n'est absolument pas le cas puisqu'il faut EN PLUS un cerveau actant de l'existence du langage.
    Donc il faut aussi les bits du cerveau donc bien plus de bits que ce que la définition propose.

    Sinon c'est la porte ouverte aux paréidolies en tout genre.
    https://fr.wikipedia.org/wiki/Par%C3%A9idolie

  23. #22
    GBo

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Bounoume Voir le message
    tout de même..... quelque chose continue à m'agacer....
    dans l'article original reporté par FS (que là je ne peux pas accuser de fantaisie...)
    https://newatlas.com/biology/slow-sp...0-bits-second/
    je cite un morceau

    1 keystroke == 1 character ce n'est pas 1 bit....... l'information véhiculée (sauf à considérer toutes les keystroke, toutes les lettres.... comme équivalents... voire égaux...) ça ne peut être codée sur 1 seul bit.....

    un mot (word, ou token ...) ce n'est pas on plus un bit.....c'est une variable, possiblement codée sur n bits ....
    Bounoume, déjà Shannon ne parle pas d'ASCII mais des 26 lettres de l'alphabet + espace, donc 5 bits suffiraient pour chaque caractère d'un tel texte. Ensuite il explique que la langue anglaise (comme toutes les langues humaines) contient des redondances qui fait que l'on comprend le texte même s'il manque les U après les Q, même si on enlève les espaces, même s'il y a des erreurs (si quelqu'un est très enrhubé, on le compra quan bêbe). Ensuite il prend en compte l'entropie des mots eux-mêmes dans cette langue. La suite dans ce résumé:
    https://cs.stanford.edu/people/erobe...english_9.html

    Si tu ne catches pas l'entropie, il faut que tu penses en bits "compressés", en ayant toute la connaissance de langue en question, connaissant les caractères voire les mots précédents, le fait qu'il n'y ait que des mots connus dans un ensemble limité (8000 mots), etc...
    Dernière modification par GBo ; 21/12/2024 à 20h28.

  24. #23
    Cromagnon

    Re : bit bit bit... byte byte.. bip bip bip.....

    Justement je me demandais.

    Ces fameux 10 bits/s ça vaut aussi pour un nourrisson ?
    Vu que lui, le langage, il ne le connait pas encore et qu'il a quand même un cerveau, il ne doit pas faire des trucs en plus ?
    Le calcul pour quelqu'un qui ne connait pas la langue il ne fonctionne plus ?
    Pourtant, Shanon c'est Shanon, c'est du solide, pourquoi alors la valeur des bits/s différeraient ?

    Décidément, cet article nous amène à des mystères de plus en plus épais...

    Ou alors... mais n'anticipons pas.
    Dernière modification par Cromagnon ; 21/12/2024 à 20h41.

  25. #24
    jiherve

    Re : bit bit bit... byte byte.. bip bip bip.....

    bonsoir
    le fait qu'il n'y ait que des mots connus dans un ensemble limité (8000 mots)
    certains humains n'en possèdent que moins de 1000 , un chien c'est jusqu’à 200!
    j'ai mit une thune dans le bastringue, j'attends la suite et je la prévois.
    JR
    Dernière modification par jiherve ; 21/12/2024 à 21h02.
    l'électronique c'est pas du vaudou!

  26. #25
    Liet Kynes

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par pm42 Voir le message
    C'est beau de ne tellement rien savoir qu'on ne sait même pas ce qu'est une "théorie personnelle".
    Si je résume ce que tu as écris cela peux donner cela ; "la mémoire est faillible, imprécise, etc parce que c'est au fond une compression avec perte forte utilisant les statistiques."

    C'est le côté statistiques qui demande le plus d'explications, la mémoire serait un disque dur qui prendrait forme à force d'écriture sur les mêmes clusters ? c'est ce qu'il faut comprendre et lorsque l'écriture devient moins fréquente elle s'éffacerait ?
    Sans questions il n'y a que des problèmes sans réponses.

  27. #26
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Liet Kynes Voir le message
    Si je résume ce que tu as écris cela peux donner cela ; "la mémoire est faillible, imprécise, etc parce que c'est au fond une compression avec perte forte utilisant les statistiques."
    Sauf que je n'ai pas écris cela bien sur. Ca, c'est juste ta compréhension qui est comme d'habitude faiblarde.

    Citation Envoyé par Liet Kynes Voir le message
    C'est le côté statistiques qui demande le plus d'explications, la mémoire serait un disque dur qui prendrait forme à force d'écriture sur les mêmes clusters ? c'est ce qu'il faut comprendre et lorsque l'écriture devient moins fréquente elle s'éffacerait ?
    Jamais dit ça non plus.

    Pour ce qui est de la mémoire et des associations basées sur des fréquences d'occurence, tu peux t'intéresser pour commencer au Deese-Roediger-McDermott (DRM) paradigm par exemple (ça et d'autres choses expliquent le "très probable" et pourquoi ce n'est pas une théorie perso mais une théorie existante). Puis tu pourras jeter un oeil aux "Hopfield network" et lire des trucs comme https://pubs.aip.org/aip/jmp/article...f-human-memory et https://arxiv.org/abs/1905.02403, etc.
    Cela t'évitera ce genre d'accusations fausses et de distorsion du discours.

  28. #27
    Bounoume

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par pm42 Voir le message
    1 keystroke == 1 character ce n'est pas 1 bit....... l'information véhiculée (sauf à considérer toutes les keystroke, toutes les lettres.... comme équivalents... voire égaux...) ça ne peut être codée sur 1 seul bit.....
    Si, c'est ce qui a été expliqué plus haut avec lien vers l'article de Shannon.
    Quand tu as tout le contexte précédent en langue anglaise, le caractère suivant est pratiquement prévisible avec 1 bit, c'est à dire que tu as le choix de 2 caractères possibles.
    j'avais bien saisi... d'ailleurs dans le post #12 il y a la remarque générale:
    mais dans l'article qui m'a intrigué, il ne s'agit pas du codage des caractères... mais de la prédiction du caractère suivant à partir de la connaissance de la suite des caractères précédents...... , prédiction (statistique?) qui est possible en transmettant uniquement à la fonction de prédiction une variable codable sur le fameux bit (variable booléenne) dans le cas où la dite fonction dispose aussi de tout le texte qui précède...
    Dans le petit paragraphe que je critique ne précise pas qu'il s'agit de caractères dont la suite est gouvernée par un langage naturel.......
    Alors ce texte n'autorise pas le lecteur 'naïf" à ajouter/deviner/ cette contrainte et il va devoir se placer naturellement dans une situation de caractères indépendants, dont l'éventuelle suite est aléatoire et équiprobable. Dans ce cas de figure minimal.... il faut bien tous les bits pour déterminer quel est le caractère choisi.... c'est bien un codage réel sur 8 bits....
    voici la nuance..... qui prête à confusion.....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  29. #28
    pm42

    Re : bit bit bit... byte byte.. bip bip bip.....

    Citation Envoyé par Bounoume Voir le message
    .
    Alors ce texte n'autorise pas le lecteur 'naïf" à ajouter/deviner/ cette contrainte et il va devoir se placer naturellement dans une situation de caractères indépendants, dont l'éventuelle suite est aléatoire et équiprobable. Dans ce cas de figure minimal.... il faut bien tous les bits pour déterminer quel est le caractère choisi.... c'est bien un codage réel sur 8 bits....
    voici la nuance..... qui prête à confusion.....
    En fait, le texte n'autorise pas le lecteur même pas naïf à comprendre sans aller chercher l'article d'origine de mon point de vue.
    Ce n'est pas de la bonne vulgarisation en effet.

Discussions similaires

  1. C# et convertion byte en int
    Par aureo91 dans le forum Programmation et langages, Algorithmique
    Réponses: 8
    Dernier message: 30/11/2012, 10h23
  2. Java tcp et tableau de byte
    Par invited08e1382 dans le forum Programmation et langages, Algorithmique
    Réponses: 1
    Dernier message: 23/12/2011, 20h31
  3. Ajout d'un byte sur trame série
    Par invitec279933e dans le forum Logiciel - Software - Open Source
    Réponses: 1
    Dernier message: 11/06/2010, 16h44
  4. addition de byte en java
    Par invitefba82b1f dans le forum Logiciel - Software - Open Source
    Réponses: 2
    Dernier message: 26/07/2007, 14h17