comment évaluer/mesurer la complexité ? - Page 3
Répondre à la discussion
Page 3 sur 5 PremièrePremière 3 DernièreDernière
Affichage des résultats 61 à 90 sur 124

comment évaluer/mesurer la complexité ?



  1. #61
    invite73192618

    Re : comment évaluer/mesurer la complexité ?


    ------

    Citation Envoyé par Xoxopixo Voir le message
    Or ces séquences, et celles-ci pour le moins, sont compressibles...
    Pour tout algorithme qui réussit à comprimer (sans perte) certaines séquences, il existe des séquences qui s'allongent après passage dans ce compresseur. Un algorithme de compression appliqué à une séquence aléatoire réussira à raccourcir au mieux autant de séquence que le nombre de séquences allongées. (et non, on ne peut pas appliquer l'algorithme de compression seulement à certaines parties, sinon il faut ajouter des bits d'informations pour signaler quels sont les passages compressés, ce qui va coûter au mieux aussi cher que de laisser la séquence originale tranquille).

    PS: autre incompréhension glanée plus avant: Pi n'est pas aléatoire puisque compressible, le confusion est probablement avec la question "Pi est-il uniforme", c'est-à-dire est-ce que toutes les séquences de 0 et de 1 possibles sont présentes en proportion identique à une suite aléatoire. C'est probable (en particulier parce qu'on peut trouver le nième digit de Pi sans calculer les digits précédents), mais ne rendrait pas Pi aléatoire pour autant.

    -----

  2. #62
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Bonjour,

    Ce que l'on conçoit bien s'énonce clairement, Et les mots pour le dire arrivent aisément. C'est en quelque sorte cette citation qui semble être formalisé en un outil de mesure de la complexité. Il faut une phase de description de l'objet d'étude, puis de codification des propriétés décrivant l'objet. Ce que l'on mesure par différentiation entre objet c'est cette codification qui découle des représentations que nous sommes construite.

    Peut-il en être autrement ? Par exemple lorsque l'on fonctionne différemment dans la représentation/codification des données.

    Patrick

  3. #63
    Xoxopixo

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Jiav
    Pour tout algorithme qui réussit à comprimer (sans perte) certaines séquences, il existe des séquences qui s'allongent après passage dans ce compresseur.
    Un algorithme de compression appliqué à une séquence aléatoire réussira à raccourcir au mieux autant de séquences que le nombre de séquences allongées.
    Une séquence aléatoire donc.
    Et non pas une séquence issue d'un processus aléatoire.
    Par exemple une série de 3 bits au sein d'une suite n'en fait plus une série aléatoire.

    Citation Envoyé par Jiav
    (et non, on ne peut pas appliquer l'algorithme de compression seulement à certaines parties, sinon il faut ajouter des bits d'informations pour signaler quels sont les passages compressés, ce qui va coûter au mieux aussi cher que de laisser la séquence originale tranquille).
    Tiens, on parle de bits ?
    Effectivement, et j'attendais d'ailleurs cette remarque, puisque si on raisonne avec des bits, il est évident que le marquage des séquences à répétition (ou de toute séquence répétée identifiée (doublons), ou de séries "logiques"), sera consommatrice de séquences particulières.
    On aura donc une compression plus ou moins efficace, selon le type de suite.
    Les pires, on est d'accord, seront les séries dites aléatoires ou celles fortement organisées mais dont on n'a pas déterminé la logique.

    Citation Envoyé par Jiav
    PS: autre incompréhension glanée plus avant: Pi n'est pas aléatoire puisque compressible
    Tout à fait, il s'agit d'une série organisée, dont on connait la logique.

    A noter que la série doit comporter un minimum de digits pour que la compression soit efficace, sans quoi le "programme", la partie mettant en oeuvre l'algorithme, peut être plus grand que la suite elle-même.

    Et justement, c'est ici que la reflexion doit à mon avis aller un peu plus loin.
    Pour quelle raison doit-on s'astreindre à l'utilisation d'un formalisme binaire ?

    Citation Envoyé par ù100fil
    Ce que l'on conçoit bien s'énonce clairement, Et les mots pour le dire arrivent aisément. C'est en quelque sorte cette citation qui semble être formalisé en un outil de mesure de la complexité. Il faut une phase de description de l'objet d'étude, puis de codification des propriétés décrivant l'objet. Ce que l'on mesure par différentiation entre objet c'est cette codification qui découle des représentations que nous sommes construite.
    Comme il est fait remarquer judicieusement ici, la codification participe au succés de la compression.
    Dans le cadre où l'on identifie la complexité comme étant synonyme de compressibilité, l'utilisation des symboles binaires ne rend pas compte de la même compressibilité que l'utilisation d'un nombre de symboles plus grand que 2.

    Avec le symbolisme binaire, on part du principe que la "machine" qui met en oeuvre l'algorithme fonctionne de manière binaire.
    Or ceci n'est, à mon avis, pas une obligation.
    La mise en oeuvre d'un programme qui décode un "source" comprenant un certain nombre de symboles ne rend pas compte de la complexité du décodeur lui-même, le hardware ainsi que le software.

    Citation Envoyé par Jiav
    sinon il faut ajouter des bits d'informations pour signaler quels sont les passages compressés, ce qui va coûter au mieux aussi cher que de laisser la séquence originale tranquille
    Par exemple ici, on peut imaginer l'utilisation d'un symbole suplémentaire, le 2, permettant de marquer les séquences présentant une suite de 1 ou de 0.
    Ce symbole est "inclu dans la machine", la représentation construite.
    Une machine fonctionnant avec 1000 symboles compressera, je pense, une serie constituée de 2 symboles avec une efficacité encore meilleure.
    En bon vivant, rien ne vaut un bonne logique ternaire.

  4. #64
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    Comme il est fait remarquer judicieusement ici, la codification participe au succés de la compression.
    Oui, mais en amont il y a la description, d’où l'apparition de deux notions de complexité qui vise à définir deux dimensions différentes

    Patrick
    Dernière modification par invite6754323456711 ; 17/04/2012 à 11h12.

  5. #65
    Xoxopixo

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil
    Oui, mais en amont il y a la description, d’où l'apparition de deux notions de complexité qui vise à définir deux dimensions différentes
    C'est cette description que j'assimile ici à la codification.
    De plus, la complexité ne peut être apréhendée que par un système ayant lui-même une certaine complexité.
    Qu'elle soit procédurale (algorithmique) ou symbolique, la complexité de "celui" qui définit la complexité observée est à mon avis à prendre en compte, si on veut atteindre une notion complète de la complexité.
    Tout est relatif.
    En bon vivant, rien ne vaut un bonne logique ternaire.

  6. #66
    invite4492c379

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Jiav Voir le message
    Pour tout algorithme qui réussit à comprimer (sans perte) certaines séquences, il existe des séquences qui s'allongent après passage dans ce compresseur. Un algorithme de compression appliqué à une séquence aléatoire réussira à raccourcir au mieux autant de séquence que le nombre de séquences allongées. (et non, on ne peut pas appliquer l'algorithme de compression seulement à certaines parties, sinon il faut ajouter des bits d'informations pour signaler quels sont les passages compressés, ce qui va coûter au mieux aussi cher que de laisser la séquence originale tranquille).

    PS: autre incompréhension glanée plus avant: Pi n'est pas aléatoire puisque compressible, le confusion est probablement avec la question "Pi est-il uniforme", c'est-à-dire est-ce que toutes les séquences de 0 et de 1 possibles sont présentes en proportion identique à une suite aléatoire. C'est probable (en particulier parce qu'on peut trouver le nième digit de Pi sans calculer les digits précédents), mais ne rendrait pas Pi aléatoire pour autant.
    Hello,

    pour reprendre le «Ce que l'on conçoit ...» de ù100fil il est plus exact de dire : la complexité aléatoire de pi est faible car il existe un algorithme qui permet d'en calculer les N première décimales (@xoxopixo tient on ne parle pas de binaire ) qui est moins long que l'énoncé des dites décimales.

  7. #67
    invite4492c379

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil Voir le message
    Bonsoir,

    Une video

    Patrick
    Hello,

    ça c'est de la bonne vulgarisation ; merci pour la vidéo.

  8. #68
    invite4492c379

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    (...)
    Tiens, on parle de bits ?
    Effectivement, et j'attendais d'ailleurs cette remarque, puisque si on raisonne avec des bits, il est évident que le marquage des séquences à répétition (ou de toute séquence répétée identifiée (doublons), ou de séries "logiques"), sera consommatrice de séquences particulières.
    On aura donc une compression plus ou moins efficace, selon le type de suite.
    Les pires, on est d'accord, seront les séries dites aléatoires ou celles fortement organisées mais dont on n'a pas déterminé la logique.

    Tout à fait, il s'agit d'une série organisée, dont on connait la logique.

    A noter que la série doit comporter un minimum de digits pour que la compression soit efficace, sans quoi le "programme", la partie mettant en oeuvre l'algorithme, peut être plus grand que la suite elle-même.

    Et justement, c'est ici que la reflexion doit à mon avis aller un peu plus loin.
    Pour quelle raison doit-on s'astreindre à l'utilisation d'un formalisme binaire ?
    Hello,

    pour simplifier les calculs mais cela n'est en rien obligatoire. Pourquoi apprenons-nous tous le système décimal à l'école ? Est-ce obligatoire ? non ; Représentation binaire et décimale sont-elles totalement équivalentes pour manipuler les nombres (y compris les réels) ? Oui.

    Citation Envoyé par Xoxopixo Voir le message


    Comme il est fait remarquer judicieusement ici, la codification participe au succés de la compression.
    Dans le cadre où l'on identifie la complexité comme étant synonyme de compressibilité, l'utilisation des symboles binaires ne rend pas compte de la même compressibilité que l'utilisation d'un nombre de symboles plus grand que 2.

    Avec le symbolisme binaire, on part du principe que la "machine" qui met en oeuvre l'algorithme fonctionne de manière binaire.
    Or ceci n'est, à mon avis, pas une obligation.
    La mise en oeuvre d'un programme qui décode un "source" comprenant un certain nombre de symboles ne rend pas compte de la complexité du décodeur lui-même, le hardware ainsi que le software.



    Par exemple ici, on peut imaginer l'utilisation d'un symbole suplémentaire, le 2, permettant de marquer les séquences présentant une suite de 1 ou de 0.
    Ce symbole est "inclu dans la machine", la représentation construite.
    Une machine fonctionnant avec 1000 symboles compressera, je pense, une serie constituée de 2 symboles avec une efficacité encore meilleure.

    Il y a une différence essentielle entre utiliser un algorithme qui encode différemment une chaine donnée mais quelconque et un algorithme qui sans disposer préalablement de la chaine attendue la "recalcule" avec une précision donnée. Il ne faut pas confondre les deux.

  9. #69
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par photon57 Voir le message
    Hello,

    ça c'est de la bonne vulgarisation ; merci pour la vidéo.
    Je ne sais pas si tu as suivi les deux fils en parallèle. Un document plus poussé : http://forums.futura-sciences.com/de...ml#post3990889

    Est une analyse de correspondance entre les deux théories : http://tel.archives-ouvertes.fr/pastel-00562101_v1/

    Patrick

  10. #70
    invite4492c379

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil Voir le message
    Je ne sais pas si tu as suivi les deux fils en parallèle. Un document plus poussé : http://forums.futura-sciences.com/de...ml#post3990889

    Est une analyse de correspondance entre les deux théories : http://tel.archives-ouvertes.fr/pastel-00562101_v1/

    Patrick
    Oui mais finalement, j'ai pris la décision de ne participer qu'à celles qui respectent certains de mes critères.

  11. #71
    pesdecoa

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil Voir le message
    Est une analyse de correspondance entre les deux théories : http://tel.archives-ouvertes.fr/pastel-00562101_v1/
    Pour la complexité de Kolmogorov,l'auteur dit qu'elle est définie comme la minimisation d'un ensemble de programmes.
    Et c'est là que j'ai un peu de mal à comprendre:
    Minimiser une fonction, je vois comment faire,
    Minimiser un programme, j'ai un peu plus de mal à voir la méthode...
    Dernière modification par pesdecoa ; 17/04/2012 à 15h08.

  12. #72
    invite4492c379

    Re : comment évaluer/mesurer la complexité ?

    En fait ce n'est pas compliqué. On se place dans le cadre où les programmes sont écrits pour une MT universelle, le texte des programmes nous est donné. Si tu appelle P l'ensemble des programmes qui en sortie donnent la chaîne, alors on considère un programme p tel que quel que soit p' de P on a longueur(p)<=longueur(p') comme mesurant la complexité aléatoire de la chaîne : c'est le programme le plus court (approximation : il peut ne pas être unique) parmi tous les programmes qui donnent la chaîne.

  13. #73
    Xoxopixo

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo
    Et justement, c'est ici que la reflexion doit à mon avis aller un peu plus loin.
    Pour quelle raison doit-on s'astreindre à l'utilisation d'un formalisme binaire ?
    Citation Envoyé par photon57 Voir le message
    pour simplifier les calculs mais cela n'est en rien obligatoire. Pourquoi apprenons-nous tous le système décimal à l'école ? Est-ce obligatoire ? non ; Représentation binaire et décimale sont-elles totalement équivalentes pour manipuler les nombres (y compris les réels) ? Oui.
    C'est ce point qui me parait discutable, bien que je sois d'accord de dire que la représentation binaire et décimale sont équivalentes du point de vue de la quantité d'information...dans le cas d'une machine fonctionnant de manière binaire.
    Une mémoire classique fonctionne avec des éléments binaires, mais rien n'impose, à mon avis, cette contrainte, si ce n'est le coût et l'usage.

    On peut, je pense, imaginer des systèmes qui stoqueraient les informations à l'aide non plus de 2 bits mais de n symboles.
    Par exemple en utilisant des atomes ou des "cubes" de différents métaux : Cuivre, Or, Zinc, Platine, Titane, Tungstene, Molybdenum, etc.
    On peut alors considérer que Cuivre = 0, Or = 1, Zinc =2, Etc.
    De cette manière, on peut considérer 0,1,2,3, etc non plus comme des symboles issus du binaire, mais comme des symboles à part entière, se rapportant à une réalité physique.
    0 ne signifie pas 0 en binaire, 1 ne signifie pas 1 en binaire, ni 2 ne signifie 10 en binaire, etc.
    On est bien entendu libre d'utiliser tout autre symbolisme tel que Cuivre=A, Or=B, Zinc=C etc.
    La suite 999911225555566666 par exemple peut-être encodée I4A2B2E5F5, qui est en quelque-sorte sa représentation compressée.

    Une autre manière de proceder serait de stoquer un potentiel équivalent à un nombre, le potentiel étant le symbole.
    Par exemple 1 microvolt dans une structure équivaudrait à 1 unité, les unités pouvant aller de 0 à 999999 microvolts.
    La suite précédente serait compressée en 999911, 225555, 566666, soit 3 Symboles au lieu de 18 en décimal et bien plus en binaire.

    D'ailleurs selon ce point de vue, tout phénomène physique analogique ne contient-il pas une quantité phénoménale d'informations ?
    Un simple potentiel ne peut-il contenir (selon un point le vue observateur adéquat) la suite la plus imposante et quelconque qui soit ?
    Combien de décimales peut-on stoquer dans un potentiel ?

    Je pense, avec cet exemple simple, qui tend vers une symbolique que je pourrais qualifier d'analogique, que l'on peut voir à quel point les phénomènes physiques (qui sont analogiques) sont finalement, malgres leur simplicité en terme de lois physiques, les systèmes permettant la compression la plus forte.

    Citation Envoyé par Photon57
    Il y a une différence essentielle entre utiliser un algorithme qui encode différemment une chaine donnée mais quelconque et un algorithme qui sans disposer préalablement de la chaine attendue la "recalcule" avec une précision donnée. Il ne faut pas confondre les deux.
    Dans le sens où un simple potentiel permettrait de stoquer par exemple 1million de décimales (selon la technologie disponible et les limites physiques, quanta, bruits etc.), soit sous 1 symbole, je ne vois pas la nécéssité du calcul.
    Mais dans dans le cas inverse, effectivement, c'est une manière de voir les choses qui se défend.
    En bon vivant, rien ne vaut un bonne logique ternaire.

  14. #74
    DomiM

    Re : comment évaluer/mesurer la complexité ?

    Ce que tu dit Xoxopixo revient à trouver le meilleur programme de compression des donnée binaire ce qui est déjà le but sans passer par des atomes différents qui de toute façon serait difficile à écrire et à lire.
    N'importe quel nombre de symboles sont équivalent avec le même codage en binaire une fois compressé par le même compresseur.
    Autre remarque il dit que rien n’empêche de formaliser un humain en codant toutes les position 3D de ses atomes mais il vaudrai aussi leur nom, leur spin, leur charge et encore sont ils en cohérence avec leur voisin ou pas et j'en oublis sans conter que leur véritable état quantique est connus statistiquement.

    Cette complexité me semble limité au données numérisable ou formalisable mais dés que leur complexité dépasse un seuil les objets réel ne sont plus formalisable.
    quel est donc ce seuil pour les objets réels ?
    Mesurer la masse de la situation permettrait de connaitre sa gravité :)

  15. #75
    invite4492c379

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    C'est ce point qui me parait discutable, bien que je sois d'accord de dire que la représentation binaire et décimale sont équivalentes du point de vue de la quantité d'information...dans le cas d'une machine fonctionnant de manière binaire.
    Une mémoire classique fonctionne avec des éléments binaires, mais rien n'impose, à mon avis, cette contrainte, si ce n'est le coût et l'usage.

    On peut, je pense, imaginer des systèmes qui stoqueraient les informations à l'aide non plus de 2 bits mais de n symboles.
    Par exemple en utilisant des atomes ou des "cubes" de différents métaux : Cuivre, Or, Zinc, Platine, Titane, Tungstene, Molybdenum, etc.
    On peut alors considérer que Cuivre = 0, Or = 1, Zinc =2, Etc.
    De cette manière, on peut considérer 0,1,2,3, etc non plus comme des symboles issus du binaire, mais comme des symboles à part entière, se rapportant à une réalité physique.
    0 ne signifie pas 0 en binaire, 1 ne signifie pas 1 en binaire, ni 2 ne signifie 10 en binaire, etc.
    On est bien entendu libre d'utiliser tout autre symbolisme tel que Cuivre=A, Or=B, Zinc=C etc.
    La suite 999911225555566666 par exemple peut-être encodée I4A2B2E5F5, qui est en quelque-sorte sa représentation compressée.

    Une autre manière de proceder serait de stoquer un potentiel équivalent à un nombre, le potentiel étant le symbole.
    Par exemple 1 microvolt dans une structure équivaudrait à 1 unité, les unités pouvant aller de 0 à 999999 microvolts.
    La suite précédente serait compressée en 999911, 225555, 566666, soit 3 Symboles au lieu de 18 en décimal et bien plus en binaire.

    D'ailleurs selon ce point de vue, tout phénomène physique analogique ne contient-il pas une quantité phénoménale d'informations ?
    Un simple potentiel ne peut-il contenir (selon un point le vue observateur adéquat) la suite la plus imposante et quelconque qui soit ?
    Combien de décimales peut-on stoquer dans un potentiel ?

    Je pense, avec cet exemple simple, qui tend vers une symbolique que je pourrais qualifier d'analogique, que l'on peut voir à quel point les phénomènes physiques (qui sont analogiques) sont finalement, malgres leur simplicité en terme de lois physiques, les systèmes permettant la compression la plus forte.



    Dans le sens où un simple potentiel permettrait de stoquer par exemple 1million de décimales (selon la technologie disponible et les limites physiques, quanta, bruits etc.), soit sous 1 symbole, je ne vois pas la nécéssité du calcul.
    Mais dans dans le cas inverse, effectivement, c'est une manière de voir les choses qui se défend.
    C'est un peu pour ça que l'on choisit arbitrairement la base 2, non ? pour s'affranchir de détails comme «ce serait plus court dans un base plus grande, ...». Comme toutes les bases se valent on en choisit une, la plupart du temps la base 2 car elle est simple et nécessite peu de symboles, parfois la base 10 où on a le ban comme équivalent du bit, parfois une base plus grande pour simplifier d'autres tâches ...
    Ce qui est important est que les résultats obtenus sont valables quelle que soit la base (comme les résultats en arithmétique ne dépendent pas de la base utilisée, fort heureusement).

    Maintenant l'analogique ... tout au bout du compte est analogique, non ? Alors effectivement si on pouvait non seulement mesurer mais aussi créer un potentiel stable qui donne exactement 10^6 décimales on a une base 10^6 ... malheureusement on finira à un moment où à un autre à se heurter au mur de Planck ... ce qui nous donne certe une base très grande mais néanmoins finie. Cela me fait penser à l'exemple suivant : «la globalité de la connaissance humaine (passé, présente, à venir, oubliée, ...) peut se stocker dans un cube de 1m³». En effet, il «suffit» de l'écrire en base 100 (pour avoir suffisemment de caractères), la coder comme un réel en base 100 (0,.01.02.03.04. ... serait ABCD). Cela nous donne un nombre dont la représentation centimale est finie, nous trouvons un rationel n1/n2 qui donne ce nombre (avec une précision suffisante, sans que le chiffre .99. est réservé pour signifier fin de la globalité de la connaissance humaine) et créons un cube composé de n1 atomes de fer et n2 atomes de plomb. Pour décoder on compte les atomes, on fait une division (tomberait-elle sur 42 ?) et voilà (je pense que 1cm³ aurait suffit ...).

  16. #76
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    0 ne signifie pas 0 en binaire, 1 ne signifie pas 1 en binaire, ni 2 ne signifie 10 en binaire, etc.
    On est bien entendu libre d'utiliser tout autre symbolisme tel que Cuivre=A, Or=B, Zinc=C etc.
    La suite 999911225555566666 par exemple peut-être encodée I4A2B2E5F5, qui est en quelque-sorte sa représentation compressée.
    Tu sembles être entrain de vouloir redécouvrir la théorie de l'information de Shannon dont les objectifs étaient :

    - Communication efficace = comprimer au maximum la source d’information (codage de source)
    - Communication fiable = protéger le système contre les erreurs dues au bruit (codage de canal)

    Jusqu’à quelle taille minimale peut-on comprimer un signal, sans perdre d’information?
    Réponse: la limite est donnée par l’entropie de la source du signal, définie en termes de comportement statistique de la source.

    Patrick

  17. #77
    invite73192618

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    C'est ce point qui me parait discutable
    Il ne l'est pas.

  18. #78
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Bonsoir,

    Peut être une précision pour lever une apparente ambiguïté.

    G. J. Chaitin :

    We shall now propose a rigorous theoretical measure of degree of organization or structure. We use ideas from the new algorithmic formulation
    of information theory, in which one considers individual objects and the amount of information in bits needed to compute, construct, describe, generate or produce them, as opposed to the classical formulation of information theory in which one considers an ensemble of possibilities and the uncertainty as to which of them is actually the case.

    In contrast, in the newer formulation of information theory one can speak of the information content of an individual book, organism, or picture, without having to imbed it in an ensemble of all possible such objects and postulate a probability distribution on them.
    We believe that the concepts of algorithmic information theory are extremely basic and fundamental.

    The complete microstate at a given time of the rst one is very difficult to describe fully, and for the second one this is trivial to do, but neither is organized. In other words, white noise is the most informative message possible, and a constant pitch tone is least informative, but neither is organized

    ...

    how to define \life," \complexity," \organism," and \information content of organism." The attempted contribution of this paper is that we propose a rigorous quantitative denition of these concepts and are able to prove theorems about them. We do not claim that our proposals are in any sense denitive, but, following von Neumann, we submit that a precise mathematical denition must be given.

    ...
    Patrick
    Dernière modification par invite6754323456711 ; 17/04/2012 à 18h43.

  19. #79
    Xoxopixo

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par DomiM Voir le message
    Cette complexité me semble limité aux données numérisables ou formalisable mais dés que leur complexité dépasse un seuil les objets réels ne sont plus formalisables.
    quel est donc ce seuil pour les objets réels ?
    Exactement, et c'est là peut-être un point de débat interressant.
    Evaluer la complexité d'une suite mathématique, d'accord, et on reste alors dans le domaine des mathématiques, le binaire etc..

    La mesurer par contre pour un objet physique, celà me semble, bien que formalisable par exemple à l'aide d'une granularité et d'un formalisme binaire, non adéquat.
    Qu'un condensat de Bose-Einstein mis en rotation ne puisse par exemple tourner "réellement" que de manière quantifiée, à nos yeux, est une chose, un symbole dans son sens large en est une autre.
    Je ne pense pas m'être fait comprendre, concernant la question du symbolisme.

    Citation Envoyé par Photon57
    C'est un peu pour ça que l'on choisit arbitrairement la base 2, non ? pour s'affranchir de détails comme «ce serait plus court dans un base plus grande, ...». Comme toutes les bases se valent on en choisit une, la plupart du temps la base 2 car elle est simple et nécessite peu de symboles, parfois la base 10 où on a le ban comme équivalent du bit, parfois une base plus grande pour simplifier d'autres tâches ...
    Ce qui est important est que les résultats obtenus sont valables quelle que soit la base (comme les résultats en arithmétique ne dépendent pas de la base utilisée, fort heureusement).
    Pour avoir un formalisme "propre".
    Mais celui-ci ne s'applique-t-il pas arbitrairement, en supposant une granularité de base ?
    Citation Envoyé par Photon57
    Maintenant l'analogique ... tout au bout du compte est analogique, non ? Alors effectivement si on pouvait non seulement mesurer mais aussi créer un potentiel stable qui donne exactement 10^6 décimales on a une base 10^6 ... malheureusement on finira à un moment où à un autre à se heurter au mur de Planck ...
    Le mur de plank d'un coté, mais quelle est la limite de l'autre ?
    Quelles sont les limites de l'Univers ?

    Citation Envoyé par Photon57
    Cela me fait penser à l'exemple suivant : «la globalité de la connaissance humaine (passé, présente, à venir, oubliée, ...) peut se stocker dans un cube de 1m³».
    Selon HAL, un monolithe noir si mes souvenirs sont justes.
    Mais effectivement, on peut admettre qu'il puisse exister une quantité maximum d'information par unité de volume, selon nos connaissances actuelles.
    (Cette connaissance étant probablement inclue dans le monolithe. )

    Citation Envoyé par ù100fil
    Tu sembles être entrain de vouloir redécouvrir la théorie de l'information de Shannon dont les objectifs étaient :

    - Communication efficace = comprimer au maximum la source d’information (codage de source)
    - Communication fiable = protéger le système contre les erreurs dues au bruit (codage de canal)

    Jusqu’à quelle taille minimale peut-on comprimer un signal, sans perdre d’information?
    Réponse: la limite est donnée par l’entropie de la source du signal, définie en termes de comportement statistique de la source.
    C'est ça, sauf que je pose que le symbole, dans les énoncés précedents, n'a pas d'équivalent binaire, au sens stricte.
    Il est indépendant par les faits, de l'information humaine qu'il "représente", c'est à dire indépendant de cette information binaire qu'il "représente".
    Le réel n'est pas de nature binaire, c'est le postulat qui m'éloigne ici des adeptes de la matrice.

    Le nombre de symboles est considéré ici comme étant "infini" ou plus précisément n'est pas l'infini mathématique, c'est à dire que ce nombre est infini dans la limite qui est celle des réalités.
    Je postule, à tord ou à raison on est bien d'accord, qu'il existera toujours 1 symbole physique qui est l'équivalent d'une suite quelconque complète.
    Si ce n'est pas possible, alors la suite serait imaginaire, n'aurait pas de lien avec aucune des réalités, serait une simple abstraction sans interêt pratique.
    Quel est l'interêt de concevoir une suite qui ne saurait s'écrire au sein de l'Univers ?
    Un interêt mathématique certes, mais pas d'interet pratique.

    L'avantage de la conception que je défend ici, est que le "système" est un "système" fermé sur lui-même.
    Personne n'a dit que tout symbole devait être simple...il peut être constitué de l'Univers lui-même employant toutes ses ressources, temps, espace etc, pour ce représenter lui-même. Ce qui me parait logique.
    C'est la petite subtilité, criticable certes, que j'essayais de faire passer.
    Dernière modification par Xoxopixo ; 17/04/2012 à 19h55.
    En bon vivant, rien ne vaut un bonne logique ternaire.

  20. #80
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    Le réel n'est pas de nature binaire, c'est le postulat qui m'éloigne ici des adeptes de la matrice.
    Cela porte sur une mesure de la représentation que l'on s'en fait. Dont d’après ton raisonnement cette représentation que nous nous faisons est binaire, mais son référèrent le "réel" ne l'est pas. Maintenant comment le sait-on puisque cela ne peut être que par les représentations que nous nous en faisons que nos pouvons en avoir une idée.

    Patrick

  21. #81
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil Voir le message
    Cela porte sur une mesure de la représentation que l'on s'en fait.
    G. J. Chaitin :

    The fundamental notion of algorithmic information theory is H(X), the algorithmic information content (or, more briefly, \complexity") of the object X.

    H(X) is the amount of information necessary to describe X sufficiently precisely for it to be constructed. Two objects X and Y are said to be (algorithmically) independent if the best way to describe them both is simply to describe each of them separately.

    That is to say, X and Y are independent if H(X; Y ) is approximately equal to H(X)+ H(Y ), i.e. if the joint information content of X and Y is just the sum of the individual information contents of X and Y .

    If, however, X and Y are related and have something in common, one can take advantage of this to describe X and Y together using much fewer bits than the total number that would be needed to describe them separately, and so H(X; Y ) is much less than H(X) + H(Y ). The quantity H(X : Y ) which is de ned as follows :

    H(X : Y ) = H(X) + H(Y ) − H(X; Y )


    Patrick

  22. #82
    Xoxopixo

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil
    Cela porte sur une mesure de la représentation que l'on s'en fait. Donc d’après ton raisonnement cette représentation que nous nous faisons est binaire, mais son référèrent le "réel" ne l'est pas. Maintenant comment le sait-on puisque cela ne peut être que par les représentations que nous nous en faisons que nos pouvons en avoir une idée.
    C'est pour ça qu'il s'agit d'un postulat.
    Néanmoins, il s'agit d'une considération raisonable.
    Citation Envoyé par AutomatesIntelligents
    Finalement, quelles conclusions Michel Bitbol nous incite-t-il à retenir de l'exposé qu'il fait de l'opposition entre réductionnisme et émergence ?
    Elles sont claires.
    Ou bien l'on continue à espérer que l'on pourra un jour édifier une théorie unifiée fondamentale exprimant les lois ultimes de la nature, aujourd'hui théorie des cordes ou des supercordes, à la poursuite de laquelle on engloutira beaucoup d'argent sans guère progresser.

    Ou bien l'on admet qu'il n'existe pas de niveau fondamental à atteindre, ni de lois ultimes à formuler, ni même d'éléments au sens strict.

    C'est dans ce deuxième camp qu'il se range explicitement.
    Mais il précise que cette position n'a pas pour effet d'annuler l'intérêt des approches réductionnistes.
    Il est toujours possible d'unifier un certain nombre de lois en les considérant comme portées par une même base
    http://www.automatesintelligents.com...emergence.html

    Tout sauf du binaire.
    En bon vivant, rien ne vaut un bonne logique ternaire.

  23. #83
    Xoxopixo

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil
    Cela porte sur une mesure de la représentation que l'on s'en fait.
    Tout à fait, ceci reste vrai dans une certaine limite.
    Une suite numérique n'est rien d'autre qu'une représentation, tout comme l'est le symbole que nous sommes capables d'énoncer avec nos faibles moyens.

    Evaluer et mesurer sont destinés à deux domaines différents.
    On évalue une représentation, on mesure une réalité.
    Dernière modification par Xoxopixo ; 17/04/2012 à 21h21.
    En bon vivant, rien ne vaut un bonne logique ternaire.

  24. #84
    invite4492c379

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    Tout à fait, ceci reste vrai dans une certaine limite.
    Une suite numérique n'est rien d'autre qu'une représentation, tout comme l'est le symbole que nous sommes capables d'énoncer avec nos faibles moyens.
    Il est facile de confondre un objet avec ce qui représente un objet. Une suite numérique est un objet qui n'est pas une représentation en soi. Les symboles utilisés pour représenter cette suite numérique (dans un article, une discussion, sur le net, dans ton cerveau) sont en une représentation. Le nombre 12 ne «représente» rien, il est représenté/noté/écrit/interprété/... en utilisant les symboles 1 et 2 mis côte à côte. Que l'on utilise ces symboles ou d'autres il sera bien le produit des entiers trois et quatre ... (les ... remplacent évidemment le contexte dans lequel cette phrase est vraie).

  25. #85
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    on mesure une réalité.
    On évalue une description liés à des propriétés que nous avons conçu pour nous permettre de décrire l'objet étudier. Les probabilités décrivant les possibilités d'advenir de l'état de l'objet en sont une mesure.

    Patrick
    Dernière modification par invite6754323456711 ; 17/04/2012 à 21h38.

  26. #86
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    Tout sauf du binaire.
    Avec se baromètre relatif on pourrait mesurer (non dans l'absolu) la conceptualisation, de ce tu appelles le "réel".

    Patrick

  27. #87
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Bonsoir,

    Compatibilité avec la notion d’information et la perspective relationnelle de la MQ de C.Rovelli Dixit :

    http://www.cphi2.org/Portals/4/CR sé... janv 2012.pdf

    Cette perspective relationnelle est naturellement compatible avec la notion d’information, dont on sait qu’elle s’installe aujourd’hui dans tous les domaines de la physique. En effet, l’information quantifie l’amplitude des (cor)relations entre deux systèmes ou entre deux variables. Si deux systèmes, S1 et S2, sont très corrélés, on dira que S1 contient beaucoup d’informations sur S2 et réciproquement. Formellement, l’information contenue par un objet O sur un autre objet S est le nombre de questions binaires sur S dont on peut prédire la réponse en mesurant O.

    Je reviendrai sur l’utilisation que fait Rovelli du concept d’information dans cette interprétation relationnelle.
    ...
    Patrick

  28. #88
    Xoxopixo

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par ù100fil Voir le message
    Compatibilité avec la notion d’information et la perspective relationnelle de la MQ de C.Rovelli Dixit :
    http://www.cphi2.org/Portals/4/CR sé... janv 2012.pdf
    Un grand Merci Patrick.
    Cette conférence est particulièrement interressante.

    Elle met en lumière la notion d'information relative, et à ce sujet concernant justement la notion d'observateur qui semble avoir une certaine latitude pour son interprétation, il me parait assez clair, du moins je le pense, qu'un observateur en physique devrait être considéré comme étant "celui qui communique à un ou plusieurs autres observateurs".
    L'observateur étant en général un "groupe", ayant décohéré au sein du même espace-temps, ou mieux dit dont la fonction d'onde relativement les uns "aux autres" (et c'est là le point principal) s'est causalement effondrée (réduction du paquet d'onde), du fait d'une possible causalité.
    Que les obervateurs du même groupe observent le même état apparait de ce fait trivial.

    Pour prendre l'explication de Carlo Rovelli, si j'ai pu en comprendre le fond.
    Deux particules cohérées (intriquées) sont envoyées l'une à Alice, l'autre à Bob.
    Alice mesure la particule en A, l'état pour Alice est déterminé, elle est l'observateur local.
    Bob mesure la particule en B, l'état pour Bob est déterminé, il est l'observateur local.

    A ce moment, Alice et Bob n'étant causalement pas liés (séparés causalement par de l'espace), la mesure d'Alice n'est pas encore décohérée vis à vis de la mesure de Bob.
    La mesure d'Alice et la mesure de Bob sont, comme les deux particules au moment de leur émission, encore, à l'état de superposition.
    Mais ça, à ce stade, aucun observateur de peut le savoir, il n'y a pas d'observateur global (possible, maintenant), simplement une abstraction possible de ce fait.

    Alice rejoint Bob, d'une manière ou d'une autre (via l'observateur classique c'est à dire "nous", soit un appareil, donc un observateur global) et donc rend l'interaction par causalité entre les deux observateurs possibles.
    A ce moment, le "groupe" est capable de communiquer le résultat de sa mesure.
    Or chacun, au moment juste avant de communiquer sa mesure est dans son état superposé.
    Ils ne sont pas conscients de ce fait sachant que ce ne sont pas des observateurs humains, en dépit de leur nom.
    Et qu'il s'agisse d'observateurs humains, cela ne changerait rien à l'affaire, puisqu'un être humain ne peut probablement pas penser à autre chose qu'au moment (dans l'etat) oû il le pense...

    Sachant que Alice et Bob n'étaient pas superposés avant la mesure (puisqu'on ny a pas pris garde), ils ne le sont pas non plus au moment oû ils vont interagir.
    Ce fait va provoquer la décohérence.
    Les deux particules vont se correller (effondrement du paquet d'onde) à nouveau et une unique mesure apparaitra pour le "groupe" composé d'Alice, de Bob ainsi que des deux particules.
    Un groupe cohérent.

    On sait bien entendu qu'Alice et Bob ne sont pas des observateurs classiques (comme nous, les gros tras d'atomes ), et la vérification des mesures de Bob et Alice ne pourra être que cohérente lorsque nous y aurons mis nos gros sabots.
    Mieux dit, lorsque nous, observateurs macroscopiques aurons intégré le groupe de Bob et Alice (leurs mesures).

    De ce point de vue, selon cette interpretation, l'information est bien une notion relative.
    Relative aux "groupes" plus ou moins vastes et changeante et non pas définie par nature.
    Calculer une complexité définitive selon ces termes est à mon avis difficile, mais cette démarche reste cohérente au sein d'un même "groupe", pourquoi pas...
    Dernière modification par Xoxopixo ; 18/04/2012 à 01h01.
    En bon vivant, rien ne vaut un bonne logique ternaire.

  29. #89
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Citation Envoyé par Xoxopixo Voir le message
    Calculer une complexité définitive selon ces termes est à mon avis difficile,
    On se construit un baromètre relatif à nos descriptions de la complexité tout comme on c'est construit un baromètre relatif pour mesurer une certaine forme d'intelligence. Cela peut nous être utile pour certaine circonstance, mais il ne faut par chercher à leur faire dire des choses dans l'absolu.

    Patrick

  30. #90
    invite6754323456711
    Invité

    Re : comment évaluer/mesurer la complexité ?

    Bonjour,

    Un test qui pourrait être intéressant à faire passer au formaliste, d-diameter complexity, de G. J. Chaitin


    We now explain our de finition of the degree of organization or structure in a geometrical pattern. The d-diameter complexity Hd(X) of an object X is de fined to be the minimum number of bits needed to describe X as the "sum" of separate parts each of diameter not greater than d.

    Let us be more precise. Given d and X, consider all possible ways of partitioning X into nonoverlapping pieces each of diameter <= d. Then Hd(X) is the sum of the number of bits needed to describe each of the pieces separately, plus the number of bits needed to specify how to reassemble them into X. Each piece must have a separate description which makes no cross-references to any of the others.
    Patrick

Page 3 sur 5 PremièrePremière 3 DernièreDernière

Discussions similaires

  1. Comment évaluer la puissance fournie par une éolienne?
    Par invitebb8d6f4c dans le forum Électronique
    Réponses: 5
    Dernier message: 30/03/2011, 15h57
  2. Comment évaluer la solidité d'une ancienne dalle béton !
    Par invite2ee96207 dans le forum Bricolage et décoration
    Réponses: 6
    Dernier message: 01/10/2009, 19h52
  3. Comment évaluer l'état de stress post-traumatique chez l'enfant ?
    Par invite797f894d dans le forum Psychologies (archives)
    Réponses: 5
    Dernier message: 11/10/2007, 21h28
  4. Comment évaluer la puissance d'un générateur
    Par invite9426edcb dans le forum Technologies
    Réponses: 1
    Dernier message: 02/11/2006, 19h18
  5. Comment évaluer un tri des déchets ?
    Par invite5931bbfb dans le forum Environnement, développement durable et écologie
    Réponses: 1
    Dernier message: 15/05/2006, 13h54