Oui, on peut dire que le fonctionnement est parfait. Il y a une vérification constante de la cohérence du flux traité, si la cohérence est violée, le processeur jette une exception.Envoyé par Félix
-----
Oui, on peut dire que le fonctionnement est parfait. Il y a une vérification constante de la cohérence du flux traité, si la cohérence est violée, le processeur jette une exception.Envoyé par FélixNon, ce que j'aimerais savoir, c'est si l'on est capable de dire que le fonctionnement réel d'un processeur est parfait et s'il n'y a pas d'erreurs, dues à des raisons telles que chauffe, mauvaise synchronisation ponctuelle, interférences électromagnétiques, etc (petites vibrations, par ex).
Salut Spi
J'ai pourtant entendu dire que "l'information" finissait par se dégrader en informatique. Y compris sur les logiciels utilisés. Et quid de la foule d'erreurs constatées quand tu défragmentes ?Envoyé par spi100Oui, on peut dire que le fonctionnement est parfait. Il y a une vérification constante de la cohérence du flux traité, si la cohérence est violée, le processeur jette une exception.
(mes excuses pour la question peut être inopportune mais encore une fois je suis - et resterais probablement - nul en informatique )
Bufo v
Je te remercie, mais alors l'information ne passe pas, n'est pas dupliquée ? Ce qui pourrait être considéré comme une erreur...
Ceci dit, un taux aussi minime pour le travail de l'enzime est tout de même remarquable, non ? Surtout que la cellule continue à vivre, pendant ce temps-là, et donc soumise à des stimuli extérieurs, dont l'enzime doit être protégée au mieux (mais peut-être pas parfaitement ?). Et Yoyo nous dit que l'enzime synthétise l'ADN, c'est donc un processus chimique. Y a-t-il alors possibilités (rares) de confusions entre molécules ? Ou, comme ceci se fait dans l'espace (hélice de l'ADN), peut-il y avoir des erreurs de localisation ?
En fait, je crois qu'on touche là l'éternel problème de la vie et de la compréhension que nous en avons : il y a un mécanisme, obtenu et peaufiné au cours d'un très long parcours de l'évolution, que nous avons tendance à interpréter de manière finaliste (il y a des erreurs POUR favoriser la diversité biologique), alors que, je pense, rien ne nous y autorise.
La défragmentation, c'est autre chose, là tu parles de l'information écrite par la tête de lecture sur le disque. Mais à nouveau, si les erreurs sont détectés, c'est parce qu'il y a des programmes capables de tester la cohérence de l'information sur le disque.Envoyé par Bufo vSalut Spi
J'ai pourtant entendu dire que "l'information" finissait par se dégrader en informatique. Y compris sur les logiciels utilisés. Et quid de la foule d'erreurs constatées quand tu défragmentes ?
(mes excuses pour la question peut être inopportune mais encore une fois je suis - et resterais probablement - nul en informatique )
Bufo v
En fait quand tu concois un système d'écriture/lecture d'information, tu ajoutes toujours un moyen de contrôler que l'information a été transmises sans erreurs. Pour prendre un exemple simple, quand on tu transfères un fichier du web, on te fournit le checksum du fichier. Après réception, tu calcules le checksum du fichier et tu le compares avec celui que l'on t'a donné. Si les deux checksums sont identiques, tu es sur que le fichier est identique à celui transmit. S'il y a une différence, alors il y a eu erreur lors de la transmission et tu dois recommencer.
En fait, c'est l'architecture adoptée et les moyens de vérifications qui assurent la fiabilité de la transmission à 100%. On admet que la transmission est sujette à erreur alors on fournit un moyen de vérifier qu'il n'y a pas eu d'erreur. Si une erreur est détectée, on ne continue surtout pas, on recommence jusqu'à ce que ça passe.
Et qui nous l'interdirait ?Envoyé par Félixalors que, je pense, rien ne nous y autorise.
Spi100 :
"C'est pour ça que j'insiste tellement pour savoir d'où vient ce hasard dans la mutation. Constater le taux d'erreur n'explique absolument pas la nature de ce hasard."
Ces mutations aléatoires proviendraient de l'environnement : radioactivité naturelle, rayons cosmiques, etc...
Et d'ailleurs, ces particules affectent aussi le fonctionnement des circuits électroniques, surtout dans l'espace.
Donc rien de mystérieux dans ce hasard des mutations.
Je n'ai jamais pensé que c'était mystérieux. Mais tu me sembles bien catégorique, en physicien je dirais que les fluctutations thermiques peuvent jouer un rôle bien plus important que la radio-activité ou le rayonnement 3K de l'univers.Envoyé par Lambda0Spi100 :
"C'est pour ça que j'insiste tellement pour savoir d'où vient ce hasard dans la mutation. Constater le taux d'erreur n'explique absolument pas la nature de ce hasard."
Ces mutations aléatoires proviendraient de l'environnement : radioactivité naturelle, rayons cosmiques, etc...
Et d'ailleurs, ces particules affectent aussi le fonctionnement des circuits électroniques, surtout dans l'espace.
Donc rien de mystérieux dans ce hasard des mutations.
En fait je n'en sais rien, ce que tu dis est possible, mais n'a rien d'évident. Y - a t'il des études faîtes sur les causes de mutations naturelles (hors Tchernobyl ). ?
Merci pour les explications.Envoyé par spi100S'il y a une différence, alors il y a eu erreur lors de la transmission et tu dois recommencer.
Mèèèhh, j'ai du mal à me convaincre que sur les centaines de millions (milliards?) de bits il n'y en pas au moins un qui de temps à autre parte en cacahuette et que ça passe pas à l'as ! Et est-ce que cette "perfection" ne violerait pas ce que l'on connait des lois de la "nature" ?
Bufo v
Non, non, rien de catégorique. Je ne dis pas que c'est la seule cause.
Les fluctuations thermiques peuvent bien jouer un rôle.
Mais il est bien connu que la radioactivité provoque des cancers, par exemple, au delà d'un certain niveau.
Complément:
si la température jouait un rôle important, est-ce qu'on ne devrait pas observer des fréquences de mutations très différentes suivant que l'on se trouve dans des régions polaires ou à l'équateur ? Des variations du style exp(-kT), donc très sensibles mêmes pour une différence de température moyenne de 10K ?
Si je me souviens bien de mes cours de bio, le taux de fiabilité de 10^-8 à 10^-9 est obtenu en plusieurs étapes: L'ADN polymérase a un taux naturel de 10^-4 (je crois) mais elle sait se relire. Après relacture, elle laisse des erreurs qui sont à leur tour corrigées par les mécanismes de réparation normaux de la cellule. Je peux sans doute retrouver les valeurs de mes cours si ça vous intéresse.
Les causes d'erreur à la réplication sont très simple: il s'agit d'équilibres chimiques avec des constantes d'équilibre. Il y a des moment où la protéine s'en va tout simplement. La source profonde est l'agitation thermique. Il faut une vision plus dynamique des processus cellulaires, c'est un vrai chaos là dedans, qui en moyenne est organisé, mais pas dans le détail...
Et encore, la réplication de l'ADN est le mécanisme le plus fiable (toujours à ma connaissance). C'est beaucoup plus aléatoire pour la fabrication des protéines (mais les ratés sont recyclés...)
Salut
Bon la radioactivité est generalement pas la cause des mutations... car peut de personnes sont soumises a des doses de radiations suffisantes pour atteindre l'ADN.
Les U.V sont nettement plus dangereux et quotidien (surtout en ete sur une plage a midi!). C'est d'ailleurs pour ca que les cancers de la peau sont les cancers qui ont la plus forte progression.
Quant a la raison des mutations spontanées, je n'ai pas tellement d'idée sur leur origine, simplement aucune reaction biochimique n'est efficace a 100%, ben la c'est pareil. Ceci dit leur fidelite peuvent etre affecte par la concentration de chacun des substrats. par example si A>>G>C>T alors on va observer un plus fort taux de mutations de T->A, puisque le A sera plus disponible.
et quand l'enzyme "a le choix" entre rester bloquer (ne plus avancer) ou faire une erreur pour continuer, elle choisi le deuxieme, car dans le premier cas tout le cycle cellulaire est bloqué. (bon c'est tres tres imagé, et tres tres finaliste, mais c'est l'idee generale qui compte ici )
Yoyo
Oui, mais grrmmbl ! je n'arrive plus à me souvenir où j'ai lu ça. Il était (si je me rappelle bien) indiqué que bien des mutations avaient comme origine le hasard. D'où ma question à Yoyo.Envoyé par spi100Y - a t'il des études faîtes sur les causes de mutations naturelles (hors Tchernobyl ). ?
Bufo v
En dehors de la réplication de l'ADN, celui ci subit des agressions de la part des radicaux libres qui sont à l'origine (toujours de mémoire) de quelques milliers de cassures simple brin par minute et par cellule.
Heureusement nous avons des mécanismes de réparation puissants.
Je ne te dis pas que ça part pas en cacahouètes, ça arrive forcement, et c'est même un principe de base en info, tout ce que tu supposes infaillible finira inévitablement par planter, sauf si ... tu vérifies à chaque fois que tout s'est bien passé.Envoyé par Bufo vMerci pour les explications.
Mèèèhh, j'ai du mal à me convaincre que sur les centaines de millions (milliards?) de bits il n'y en pas au moins un qui de temps à autre parte en cacahuette et que ça passe pas à l'as ! Et est-ce que cette "perfection" ne violerait pas ce que l'on connait des lois de la "nature" ?
Bufo v
Dans le cas de la transmission de fichiers par TCP/IP, si un bit est changé sur les milliards échangés, le checksum sera forcemment différent. Ca ne te dit pas où est l'erreur mais ça te dit qu'il y en a une et qu'il faut recommencer. Si le checksum est conservé avant après transmissions alors tu es sûr à 100% que tout s'est bien passé.
Mais effectivement, d'après ce que disent Pi-R2 et Yoyo, la raison profonde de ce hasard serait bien dans les fluctuation thermiques qui agitent les molécules mis en causes.Envoyé par Bufo vOui, mais grrmmbl ! je n'arrive plus à me souvenir où j'ai lu ça. Il était (si je me rappelle bien) indiqué que bien des mutations avaient comme origine le hasard. D'où ma question à Yoyo.
Bufo v
Il y a aussi des vérifications faîtes a priori, sorte d'équivalent du checksum informatique, ou d'une système correcteur basé sur la redondance de l'information ?Envoyé par pi-r2Heureusement nous avons des mécanismes de réparation puissants.
Pas comme le check sum, mais il y a un mécanisme qui répare les cassures double brin en allant chercher la portion équivalente sur l'autre chromosome.
Citation:
Posté par Félix
alors que, je pense, rien ne nous y autorise.
Objection de Spi100:
Et qui nous l'interdirait ?
Ben, je ne dirais pas "qui", mais quoi. Et la réponse serait la méthode scientifique. Il est tout de même difficile, scientifiquement, de dire que tel mécanisme biologique a été mis en place pour... telle ou telle finalité.
On peut seulement constater une évolution, qui se met en permanence (au rythme évolutionnaire, donc lent) en adéquation avec l'environnement, sous la pression de celui-ci. Parce que tous les essais (erreurs) qui étaient trop inadaptés n'ont pu se pérenniser.
Une fois la reproduction sexuée apparue, le mélange des patrimoines génétiques père-mère a considérablement favorisé la variété, et donc la capacité d'adaptation. C'est, ici, l'un des processus révolutionnaires qui pourraient servir de pierre de touche pour nous départager : peut-on encore décrire tous ces basculements qualitatifs de la vie en termes d'évolution, ou doit-on impérativement y voir un finalisme ?
Vu l'ancienneté de ces hiatus, je crois que nous ne sommes pas assez documentés pour trancher. Et que nous devons conserver la position prudente qui rejette le finalisme.
Et ceci malgré la séduction des thèses de Teilhard de Chardin, ou les croyances religieuses.
Amicalement.
Félix
Alors il y a bien exploitation de la redondance de l'information dans la chaîne ADN, c'est comme les codes erreur/correction en info. Ca me fascine toujours cette analogie entre le bio et l'informatique.Envoyé par pi-r2Pas comme le check sum, mais il y a un mécanisme qui répare les cassures double brin en allant chercher la portion équivalente sur l'autre chromosome.
Je ne connais pas Teilhard de Chardin, peux tu nous citer un ouvrage ou une page web?Envoyé par FélixCitation:
Posté par Félix
alors que, je pense, rien ne nous y autorise.
Et qui nous l'interdirait ?
Et ceci malgré la séduction des thèses de Teilhard de Chardin,
Oui mais ces phenomenes ne sont pas pris en compte en tant que "erreur de replication" car ils surviennent a n'importe quel moment du cycle cellulaire.Envoyé par pi-r2En dehors de la réplication de l'ADN, celui ci subit des agressions de la part des radicaux libres qui sont à l'origine (toujours de mémoire) de quelques milliers de cassures simple brin par minute et par cellule.
Heureusement nous avons des mécanismes de réparation puissants.
Pour repondre a BufoV, il me smeble que l'agitation thermique, agissant sur la probabilite de rencontre enzyme/substrat joue un role non negligeable. Seulement difficile de tester cela in vivo
Yoyo
Je crois qu'il y a dejà eu une discution sur ce sujet sur le forum ou sur un autre ?Envoyé par Bufo vMerci pour les explications.
Mèèèhh, j'ai du mal à me convaincre que sur les centaines de millions (milliards?) de bits il n'y en pas au moins un qui de temps à autre parte en cacahuette et que ça passe pas à l'as ! Et est-ce que cette "perfection" ne violerait pas ce que l'on connait des lois de la "nature" ?
Bufo v
cela concernait une information sur le taux d'erreur des machines à voter informatiques due aux rayons cosmiques.
La perte de fiabilité sur le long terme vient essentiellement de 2 phénomènes: la dégradation du support de l'information et la versabilité de l'information.
Les supports des informations voient leurs caractéristiques chimiques évoluer au fil du temps, ce qui peut influer sur l'information contenue ou sur la capacité à receuillir cette information. Quand à la versabilité de l'information, à part les rayons cosmiques, il faut savoir que lorsque l'on inscrit une valeur sur un support magnétique par exemple, l'on crée des petits aimants sur ce support. Et en fonction de certains critères chimiques l'on définie que ce que lit la tête est un 1 ou un 0. Or le signal qui sort de notre tête de lecture n'est pas toujours au maximum ou au minimum de la valeur de requise. Le signal peut donc s'affaiblir avec le temps et donner de plus en plus d'erreur. Tant que la valeur maximale est suffisamment au-dessus du seuil du bruit de fond, il est possible de récupéere une partie notable du signal. Si c'est en dessous, on peut considérer que le signal n'est pas recupérable.
"Une théorie n'est scientifique que si elle est réfutable". Karl Popper
Teilhard de Chardin, religieux et scientifique français, paléontologue, a participé à la croisière jaune et a été un des premiers géologues et paléontologues à étudier la Chine sous ces points de vue.
Sa thèse est que la vie est orientée vers une complexification croissante, de l'unicellulaire (et même avant) vers l'homme, puis l'esprit pur, puis, disons, Dieu.
A noter que ces idées sous-tendent le 2001 de Clarke.
Mort en 1955, comme Einstein.
Nos sociétés de médias et d'internet l'auraient ravi, je pense.
Très séduisant mais si on garde les pieds bassement sur terre, on bute sur cette flèche finaliste.
Tu trouveras facilement de la doc sur le web.
Un ouvrage, le premier qui me revient en mémoire: La place de l'homme dans la nature.
Amitiés.
Félix
Il y a une question que j'aimerais poser sur le checksum informatique :
Est-ce qu'il vérifie bit par bit, où se contente-t-il de dire, par ex, tant de 0, tant de 1 (et, donc, taille du fichier, ou du paquet d'information). Parce qu'alors, ce serait comme la preuve par neuf :
si elle n'est pas vérifiée, on est certain qu'il y a erreur.
Mais si elle est correcte, on ne peut tout de même pas affirmer que l'on est juste à 100 %. Il peut y avoir eu l'équivalent d'une erreur de signe (un 1 en trop, mais aussi un 0, donc compensation).
C'est ta deuxième version qui est la bonne, ce n'est qu'une preuve par ... 256 en l'occurrence (ou plus maintenant avec des procs 64 bits). C'est un truc bien connu des déplombeurs de toutes sortes, si tu changes quelque chose (comme un saut de by pass) tu change autre chose d'anodin (une lettre d'un message d'erreur ...) pour compenser.
Mais je n'ai moi même jamais pratiqué.
Salut Narduccio
Arrêtez moins si je me gourre; mais dans ce cas là nous ne sommes pas loin d'une l'analogie avec les erreurs de transcriptions de l'ADN ?Envoyé par NarduccioLe signal peut donc s'affaiblir avec le temps et donner de plus en plus d'erreur. Tant que la valeur maximale est suffisamment au-dessus du seuil du bruit de fond, il est possible de récupéere une partie notable du signal. Si c'est en dessous, on peut considérer que le signal n'est pas recupérable.
Autre chose qui me paraît être une piste intéressante, c'est ce qu'a signalé Yoyo :
Si effectivement on met entre parenthèse l'expression finaliste, c'est comparable aux processus évolutifs à l'échelle macroscopique : Une série continue d'erreurs"/"essais" où les meilleurs coups sont conservés. (reste bien entendu que des coups "indifférents" peuvent l'être aussi)...quand l'enzyme "a le choix" entre rester bloquer (ne plus avancer) ou faire une erreur pour continuer, elle choisi le deuxieme, car dans le premier cas tout le cycle cellulaire est bloqué.
Bufo v
Oui, qu'il y ait complexification croissante ne parait pas surprenant. Plus un système est complexe, plus il peut s'adapter aux modifications de l'environnement. On a un peu abordé ce thème au début du fil, avec l'algorithme des fourmis et les réseaux neuronaux.Envoyé par FélixSa thèse est que la vie est orientée vers une complexification croissante, de l'unicellulaire (et même avant) vers l'homme, puis l'esprit pur, puis, disons, Dieu.
A noter que ces idées sous-tendent le 2001 de Clarke.
Par contre evidemment, les histoires d'esprit pur et de Dieu .
Pour la notion de finalité que tu abordais et reprises par vBufo, ça me semble un peu douteux, c'est le mythe du Dieu ingénieur. On ne peut pas dire que la nature produise des êtres de plus en plus efficaces. Il semblerait plutot que ça soit un peu une complexification aveugle, et que la nature ne cherche à produire que du *viable*.
Dernière modification par spi100 ; 23/08/2004 à 21h18.
Euh ! j'espère que je me suis bien fait comprendre, dans mon post je ne parlait de notion de finalité que dans le sens "abstraction faite de la finalité", relative dans ce cas précis à l'explication imagée citée en exemple.Envoyé par spi100Pour la notion de finalité que tu abordais et reprises par vBufo, ça me semble un peu douteux, c'est le mythe du Dieu ingénieur. On ne peut pas dire que la nature produise des êtres de plus en plus efficaces. Il semblerait plutot que ça soit un peu une complexification aveugle, et que la nature ne cherche à produire que du *viable*.
Je suis bien d'accord avec toi, les "coups gagnants" ne sont pas nécessairement synonymes de meilleure efficacité, ou de "progrès".Il suffit en effet qu'ils soient simplement viables.
Ce qui à l'inverse est implicite dans la pensée de Teilhard !
Bufo v
Oui, nous sommes d'accord, je n'ai pas dit que tu défendais ce point de vue, mais que tu en avais parlé.Envoyé par Bufo vEuh ! j'espère que je me suis bien fait comprendre, dans mon post je ne parlait de notion de finalité que dans le sens "abstraction faite de la finalité", relative dans ce cas précis à l'explication imagée citée en exemple.
Ce point de vue est intéressant, il me rappelle la thèse proposait par Heudin dan son ouvrage 'L'évolution au bord du chaos' . Heudin illustre son argumentation sur le jeu de la vie de Conway. Il explique que c'est seulement pour un jeu de règle bien précis : suffisament contraignant pour ordonner le jeu, mais aussi suffisament souple pour permettre la créativité, que le jeu peut pleinement se développer et être créatif i.e. générer des formes complexes et stables.Envoyé par pi-r2La source profonde est l'agitation thermique. Il faut une vision plus dynamique des processus cellulaires, c'est un vrai chaos là dedans, qui en moyenne est organisé, mais pas dans le détail...
Le phénomène du vivant serait bien à la limite entre l'ordre et le désordre. Ordre pour péréniser les structures, désordre pour permettre la créativité et l'adaptabilité aux conditions sans cesse mouvantes de l'environnement.
L'analogie serait plus proche de ce qui se passe dans les mémoires vives. Sur les autres supports, les infos sont statiques et il n'éxiste pas d'automatisme par les rafraichir. Dans les modules de mémoires vives on est plus proche de ce qui se passe dans la cellule. Les données sont écrites dans des espèces de transistor qui possèdent 2 états ouvert ou fermés. Quand le transistor est dans un état, on considère que la donnée est 1, et zéro dans le cas inverse. Il s'agit de convention et cela n'affecte pas le raisonnement de savoir si 1 correspond à ouvert ou fermé. Or les circuits électroniques composants le modules mémoire ont tendance à ce décharger et si on ne les réactives pas, ils se mettent tous en position de repos. Donc régulièrement, il y a un circuit qui lit toutes les valeurs des données et les réécrits. Les premières mémoires ne disposaient pas de circuits de corrections des erreurs; par conséquents les données n'étaient pas fiables. Dans un second temps, on a mis des circuits de correstions d'erreurs; il s'agit de modules de mémoires qui pour chaque unité de base gardent en mémoire une donnée permettant de dire si la donnée dans le module mémoire est juste ou pas. L'une des premières était la parité, un bit était mis à 1 si la donnée était impaire et à zéro si elle était paire. Avec le temps, les circuits de corrections se sont sophistiqués et on gagné en fiabilité, actuellement certains permettent non seulement de savoir si la donnée est juste, mais même de la corriger. Malgré cela, il y aura toujours des erreurs, le taux d'erreur se réduit, mais il semble qu'il est impossible qu'il soit nul. Le taux que les informaticiens garantissent est très bas, mais pas suffisament pour que l'on puisse avoir une confiance aveugle dans les données.Envoyé par Bufo vSalut Narduccio
Arrêtez moins si je me gourre; mais dans ce cas là nous ne sommes pas loin d'une l'analogie avec les erreurs de transcriptions de l'ADN ?
Autre chose qui me paraît être une piste intéressante, c'est ce qu'a signalé Yoyo :
Bufo v
CF: http://www.poureva.be/forum.php3?id_...d_article%3D36
"Une théorie n'est scientifique que si elle est réfutable". Karl Popper