Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire
Répondre à la discussion
Page 1 sur 2 1 DernièreDernière
Affichage des résultats 1 à 30 sur 31

Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire



  1. #1
    AngryFalcon

    Arrow Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire


    ------

    Bonjour je me demandais si il y avait vraiment un intérêt à l'utilisation de l'informatique numérique, n'aurais ils pas mieux fallut améliorer l'informatique analogique :
    - circuit logiques plus simple
    - étant donné que l'on vit dans un "monde analogique" il ne me paraît pas logique de vouloir le comprendre dans toute sa complexité avec du numérique. (Les ordinateurs sont faits pour faire mieux que les humains (pour traiter les données formelles) donc pourquoi les faire bosser avec des méthodes développé pour nous rendre la tâche plus digeste alors qu'il peuvent bosser de façon plus fine)
    - les enregistrements analogique sont plus précis vu qu'il ne sont pas segmenté et à même support prennent moins de place mémoire que le binaire
    - permettrait en théorie de créer des "calculateur multidimentionnel" conçu pour gérer une situation dans son ensemble au lieu de la segmenter dans certains usages scientifiques (ça ce n'est que mon imble avis sur lequel je commence à peine à plancher (surtout pour le fun))
    (Le principe de base serait également applicable à des caméras et des écrans ne possédant pas de pixels ni de lignes où de colonnes et renvoyant un signal spectrometrique totalement fluide sur une vidéo. Mais là je divague un peu beaucoup !)
    - rien n'empêcherait d'affiner la précision sans trop augmenter la quantité de calculs à réaliser
    - si on avait mis tout les moyens que l'on a mis dans le numérique pour l'analogique on aurait peut être mis quelques temps de plus pour réaliser un ordinateur 100% électronique mais on aurait sûrement déjà le même niveau de capacité de calcul voir peut-être même plus aujourd'hui
    - il me semble bien que l'informatique quantique à un fonctionnement partiellement analogique (je suis pas franchement sûr d'avoir compris comment ça marche l'informatique quantique donc le "il me semble bien" est important) même si je sais bien que c'est plus complexe je me dis que la question de l'usage de circuit analogique peut peut-être se poser. (Si quelqu'un s'y connaît je suis preneur)
    - des mémoires holographiques existent actuellement et pourraient permettre de stocker de grandes quantités de données analogique sans grande modification de leur fonctionnement.

    Donc si quelqu'un a des données que je n'ai pas qui font s'effondrer mes propos je ne demande que ça car là je déséspère rien que d'y penser

    Merci d'avance pour vos réponses et si il y en a qui sont d'accord avec ce que je dis qu'il n'hésite pas non plus à se manifester car sinon c'est pas drôle

    Ps : et les ordinateurs hybrides j'ai failli les oublier, ne pourrait ils pas être une solution pour conserver nos paradigmes actuels tout en pouvant travailler intrinsèquement de façon plus fine quand cela est nécessaire?

    -----

  2. #2
    pm42

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par AngryFalcon Voir le message
    Bonjour je me demandais si il y avait vraiment un intérêt à l'utilisation de l'informatique numérique, n'aurais ils pas mieux fallut améliorer l'informatique analogique :
    Est ce que les ordinateurs analogiques peuvent faire de nombreuses tâches différentes, être programmés facilement ?
    Est ce qu'on peut faire du calcul de la paye, du traitement de texte, de la vidéo, surfer sur le Web avec le même ordinateur analogique ?
    Et mettre à jour les programmes qui font ça facilement ?

    Citation Envoyé par AngryFalcon Voir le message
    - étant donné que l'on vit dans un "monde analogique" il ne me paraît pas logique de vouloir le comprendre dans toute sa complexité avec du numérique.
    Les ordinateurs ne cherchent pas à "comprendre le monde", juste à faire des calculs.

    Et donc tu penses en analogique ? Quand tu dois faire une addition, tu ne décomposes pas les nombres en base 10 avant de les traiter individuellement ?

    Citation Envoyé par AngryFalcon Voir le message
    les enregistrements analogique sont plus précis vu qu'il ne sont pas segmenté et à même support prennent moins de place mémoire que le binaire
    Et quand on stocke comme ça, on ne sait pas reproduire ou transmettre sans perte. Ni détecter les dites pertes ou erreurs.

    Citation Envoyé par AngryFalcon Voir le message
    - permettrait en théorie de créer des "calculateur multidimentionnel" conçu pour gérer une situation dans son ensemble au lieu de la segmenter dans certains usages scientifiques (ça ce n'est que mon imble avis sur lequel je commence à peine à plancher (surtout pour le fun))
    (Le principe de base serait également applicable à des caméras et des écrans ne possédant pas de pixels ni de lignes où de colonnes et renvoyant un signal spectrometrique totalement fluide sur une vidéo. Mais là je divague un peu beaucoup !)
    Je confirme. Tiens au fait, l'oeil humain fonctionne comment ? Il n'y a pas des cellules individuelles très proches des pixels ?

    Citation Envoyé par AngryFalcon Voir le message
    - rien n'empêcherait d'affiner la précision sans trop augmenter la quantité de calculs à réaliser
    Pour un système réel, tu es sur ? Tu ne vois pas les problèmes ?

    Citation Envoyé par AngryFalcon Voir le message
    - si on avait mis tout les moyens que l'on a mis dans le numérique pour l'analogique on aurait peut être mis quelques temps de plus pour réaliser un ordinateur 100% électronique mais on aurait sûrement déjà le même niveau de capacité de calcul voir peut-être même plus aujourd'hui
    Affirmation gratuite qui oublie les limitations de l'analogique.

    Citation Envoyé par AngryFalcon Voir le message
    - il me semble bien que l'informatique quantique à un fonctionnement partiellement analogique (je suis pas franchement sûr d'avoir compris comment ça marche l'informatique quantique
    La moindre des choses serait de lire un minimum sur le sujet parce que vraiment pas. Pourquoi crois tu que tous les articles sur le sujet parlent de qbits ?

    Citation Envoyé par AngryFalcon Voir le message
    des mémoires holographiques existent actuellement et pourraient permettre de stocker de grandes quantités de données analogique sans grande modification de leur fonctionnement.
    Quel est le rapport ? Stocker de l'analogique, on sait faire depuis longtemps.


    Citation Envoyé par AngryFalcon Voir le message
    Ps : et les ordinateurs hybrides j'ai failli les oublier, ne pourrait ils pas être une solution pour conserver nos paradigmes actuels tout en pouvant travailler intrinsèquement de façon plus fine quand cela est nécessaire?
    Là encore pourquoi faire ?
    Tiens, autre question : comment fais tu du parallélisme à grande échelle avec des ordinateurs analogiques ?

  3. #3
    Deedee81
    Modérateur

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Salut,

    La très grande majorité actuelle des traitements informatiques sont tout bonnement irréalisables avec de l'analogique. De métier je suis informaticien et j'ai (presque) toujours travaillé sur la gestion (comptabilité, facturation, gestion de stock, etc... et actuellement comptabilité européenne et gestion des paiements de la PAC). Et faire ça par analogique est totalement impossible (et ce type d'application en y ajoutant les applications budgétaires, on a aussi chez nous, et financières, ça représente la très grosse majorité des applications hors internet. Et d'ailleurs la majorité des applications internet sont impossibles à traiter en analogique. Imagine-t-on faire faire du routage de paquets en analogique ????). Un exemple trivial est le tri ou l'indexation de donnée. Difficile en analogique (le seul cas que je connais est le classement/recherche d'images réalisés en optique non linéaire mais ça reste limité, quelques milliers d'images, et ultra spécialisé).

    Notons d'ailleurs que l'analogique est encore utilisé même si ce n'est pas très courant. A la fac où j'ai été on avait un calculateur analogique pour certains calculs d'équations différentielles.
    (pour chipoter un peu Dans les normes numériques que j'avais étudié, pour le plus bas niveau : les aspects électriques, tensions, bandes passantes, c'est des normes analogiques)

    L'analogique a quelques avantages mais aussi et surtout des inconvénients. En faisant un peu de redite avec ce qui précède :
    - La difficulté d'avoir des calculateurs généralistes. C'est toujours des ordinateurs très spécialisés et assez peu paramétrable (v.s. ce qui se fait en numérique bien sûr)
    - La conception ne saurait être standardisée, chaque conception nécessite une approche liée au problème étudié. C'est complexe et couteux. Ca ne se justifie maintenant que pour des cas ponctuels où un calcul numérique serait encore plus couteux. C'est rare
    - Il y a un manque de précision mais disons que ça, ça limite plutôt les applications abordables (si on n'a pas besoin des décimales, ça va ) Même dans le cas de malade des calculs de chromodynamique on est passé de l'analogique (avec 10% de précision) au numérique (grâce aux progrès) avec des précisions inférieurs au pourcent (calcul de la masse du proton par exemple).
    - On ne sait pas traiter de gros volumes de données. Cela peut être étonnant puisque une grandeur analogique est continue alors que le numérique est discret. Mais avec le numérique on traite facilement des millions ou des milliards de variables (surtout pour les grosses applications numériques évidemment). Mais pour l'analogique : imagine-t-on d'avoir un milliard de câble pour le milliard de variables ?
    Dernière modification par Deedee81 ; 20/06/2023 à 06h40.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  4. #4
    Gwinver

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonjour.

    L'histoire ne fait pas d'erreur, elle suit simplement son cours.

    Il faudrait définir ce que l'on entends pas informatique analogique, s'il s'agit des calculateurs analogiques, le développement plus avancé du numérique montre tout simplement qu'il était plus facile de suivre cet axe de développement.
    En théorie, l'analogique n'a pas de limite de résolution comme le numérique. Mais il y a la réalité, cette résolution est inaccessible aux matériels de mesure (erreurs de mesure) et finit toujours par se heurter au bruit (thermique, parasites etc. ...).

    Aujourd'hui, un simple PC est très polyvalent. Après, il y a des machines spécialisées, tout comme c'était le cas avec les calculateurs analogiques, mais le numérique offre une flexibilité bien supérieure à celle de l'analogique.

  5. A voir en vidéo sur Futura
  6. #5
    f6bes

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par AngryFalcon Voir le message

    Merci d'avance pour vos réponses et si il y en a qui sont d'accord avec ce que je dis qu'il n'hésite pas non plus à se manifester car sinon c'est pas drôle
    Bjr à toi,
    J'espére que, meme si ce n'est pas...DROLE, tu te t'offusqueras pas des réponses.
    A 20 ans tu peux avoir des idées....mais confronte les à la réalité.
    Maintenant si tu veux verser dans le...."drole"... voir la rubrique....science ludique !
    Bonne journée

  7. #6
    jiherve

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    bonjour,
    je pense que le primo posteur n'a aucune idée de ce qu'est vraiment un calculateur analogique et des difficultés qu'il y a à le maintenir en état de fonctionnement fiable et stable
    Mais pour certaines applications ciblées l’analogique c'est bien et souvent plus élégant .
    JR
    l'électronique c'est pas du vaudou!

  8. #7
    AngryFalcon

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Merci de m'avoir éclairé, il me manquait effectivement des connaissances et c'est justement le but de demander à ceux qui savent (de se faire corriger et d'apprendre)

  9. #8
    GBo

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Ce ne sont pas des calculateurs analogiques proprement dit mais dans le domaine musical, effet de mode ou pas, je note quand même qu'il y a un grand retour des synthétiseurs analogiques (du type Minimoog, Prophet V, CS-80...).

  10. #9
    WizardOfLinn

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Il y a quelques années, j'avais vu passer en vente sur E-bay le calculateur analogique d'un missile V2 de la seconde guerre mondiale. C'était plein de roues dentés pour les réglages, et sur les plans que j'avais trouvés, il y avait des circuits pour résoudre des équations différentielles
    Pour la culture générale :
    http://www.cdvandt.org/Hoelzer%20V4.pdf

  11. #10
    jiherve

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    re
    même si ce n'est pas à proprement parler un shynthé, un orgue Hammond est une merveille d’ingéniosité analogico mécanique; A l’époque une solution numérique (même crade au niveau son) équivalente était impensable dans ce volume.
    JR
    l'électronique c'est pas du vaudou!

  12. #11
    roro222

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par AngryFalcon Voir le message
    je me demandais si il y avait vraiment un intérêt à l'utilisation de l'informatique numérique, n'aurais ils pas mieux fallut améliorer l'informatique analogique
    Coucou
    Restreindre ta liberté mon cher

    .................Voilà que depuis quelques années, avec ses amendements sur la télévision numérique et tout autres systèmes informatiques ou téléphonies, elle s’attaque à la liberté d’expression en en limitant le nombre.
    Un jour, quand ce quota sera atteint, il ne sera plus possible à quiconque de divulguer quoi que ce soit, sans que se soit un remake d’une information déjà transmise..................... .
    La suite là pour la drôlerie comme tu dit
    https://forums.futura-sciences.com/s...ml#post4741842
    Le nombre d'imbéciles est incalculable,il y a de fortes probabilités que j'en suis

  13. #12
    Ladrix

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonjour à tous..
    Un Solion est un intégrateur analogique.
    (du sel dans un tube avec 2 fils) (de mémoire)
    C'était marrant mais très limité. en 1970...
    Si dans un système on a une seule grandeur à intégrer, sur une longue période (jours, semaines), c'est très utile si on a pas de calculateur numérique dans le dit système comme dans cette époque que les moins de vingt ans...
    Mais faut pas espérer en faire des calculateurs...
    en plus comme dit en entrée, c'est du lent, très lent, encore plus lent svp...

    Ladrix

  14. #13
    jiherve

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonsoir
    une petite vidéo bien faite :https://www.youtube.com/watch?v=IgF3OX8nT0w
    JR
    l'électronique c'est pas du vaudou!

  15. #14
    champetre

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonjour,

    D'ailleurs, je me demande pourquoi on se fatigue à avoir des ordinateurs !
    L'homme s'en est passé pendant des centaines de milliers d'années,
    ce qui prouve qu'ils ne sont pas nécessaires.

  16. #15
    Ladrix

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonjour

    @jiherve

    Excellente vidéo.
    j'y ai appris que la machine d'Anticythère trouvée fossilisée (?) dans la méditérannée avait été reconstituée et fonctionnait.
    Cette extraordinaire réalisation des hommes de l'antiquité laisse entrevoir que ce niveau de civilisation est de nos jours très sous estimée.
    En effet pour concevoir et surtout réaliser ce magnifique mécanisme, il fallait disposer de machines pouvant executer avec une extrème précision des pièces d révolution métalliques y tailler des dentures très régulières donc avoir des diviseurs très précis, des fraises pour creuser les dents digne des ateliers suisses actuels... le tout dans des métaux résistant au viellissement donc une excellente métallurgie.
    Il ne suffisait pas de postuler des mécanismes dans la tête des philosophes pieds nus dans la poussière...ou dans leur tonneau...
    Pour les calculateurs militaires, c'est très instructif, pour les ordinateurs analogiques présents et futur c'est fort excitant.
    Bien sûr le digital est super souple et fait tout, plus ou moins ouvrageusement mais à une vitesse fulgurante faisant croire à de la facilité. Il n'en est rien.
    J'ai fait une boucle de calcul en pascal en additionnant 1 à un réel (8 octets) = 1 En fait ça déraille vite avec des epsilons surnuméraires en queue d'addition...
    Le même calcul avec des entiers cool ça reste des entiers +1. Mais la plage des valeurs est beaucoup plus restreinte (1.6 E19 en 64 bits il me semble au lieu de très très beaucoup en real)
    comme quoi, faut rester humble.
    Merci encore pour cette vidéo (c'est une pub comme on en aimerai plus)


    Ladrix
    Dernière modification par Ladrix ; 21/06/2023 à 11h24.

  17. #16
    Ladrix

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    @ champetre


    Le luxe c'est l'inutile


    Ladrix

  18. #17
    antek

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Et l'inutile est rare, voilà pourquoi le luxe est cher . . .

    Pour le sujet, peut-on qualifier "informatique" un calculateur analogique ?
    L'électronique c'est comme le violon. Soit on joue juste, soit on joue tzigane . . .

  19. #18
    pm42

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par antek Voir le message
    Pour le sujet, peut-on qualifier "informatique" un calculateur analogique ?
    Oui et on a d'ailleurs fait des calculateurs analogiques programmables comme l'EAI 8800.
    L'article de Pour La Science qui en parle fait d'ailleurs remarquer que certaines pistes actuelles de recherche autour de l'informatique biologique ou du neuromimétisme relèvent de l'analogique.

    https://www.pourlascience.fr/sr/hist...ique-21546.php

  20. #19
    Ladrix

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonjour

    @antek

    Comme toujours un retour aux définitions des concepts s'impose
    Citation Envoyé par Wiki et dico
    L'informatique est un domaine d'activité scientifique, technique, et industriel concernant le traitement automatique de l'information numérique par l'exécution de programmes informatiques hébergés par des dispositifs électriques-électroniques : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.
    traitement automatique de l'information
    Voir
    traitement
    automatique
    information

    Ladrix

  21. #20
    antek

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par Ladrix Voir le message
    Comme toujours un retour aux définitions des concepts s'impose
    Ta définition en citation exclut l'analogique !
    L'électronique c'est comme le violon. Soit on joue juste, soit on joue tzigane . . .

  22. #21
    Ladrix

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    @Antek
    je ne fais que citer une définition.Je n'ai pas dit que c'était la mienne (ce qui indifère l'Univers)

    rien n'interdit de supprimer un mot en trop : "numérique" par exemple.
    Ma référence
    Korzybski :
    Se mettre d'accord sur le sens des concepts avant d'entamer les controverses (souvent basées sur des définitions différentes voir incompatibles)

    en fait, il y a deux définitions que j'ai mélangées par inattention (mea culpa)

    Celle citée est Wikipedia
    Citation Envoyé par wikipedia
    L'informatique est un domaine d'activité scientifique, technique, et industriel concernant le traitement automatique de l'information numérique par l'exécution de programmes informatiques hébergés par des dispositifs électriques-électroniques : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.
    Celle du Larousse maintenant
    Citation Envoyé par Larousse
    1. Science du traitement automatique et rationnel de l'information considérée comme le support des connaissances et des communications.
    La remarque est judicieuse

    Analogique est rejeté par Wiki, numérique ou analogique indifférente dans la définition du Larousse

    Ladrix

  23. #22
    Deedee81
    Modérateur

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonjour

    Ladrix. On sait tout ici ce qu'est l'informatique numérique et l'informatique analogique. Et il n'y a pas non plus de controverse ici. Tes deux messages sont totalement inutile (et ne discute même pas du sujet). Pourquoi venir pourrir le sujet d'un autre avec ce genre de pinaillage ? Tu manques vraiment de respect là.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  24. #23
    antek

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par pm42 Voir le message
    Oui et on a d'ailleurs fait des calculateurs analogiques programmables comme l'EAI 8800.
    Question mal posée, il aurait fallut que je parle de "ordinateur" au lieu de "informatique".
    Mais je ne veux pas polémiquer sur les mots.
    L'électronique c'est comme le violon. Soit on joue juste, soit on joue tzigane . . .

  25. #24
    CM63

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Bonjour,

    Ce qui a existé et existe encore ce sont des "calculateurs analogiques" mais point "d'ordinateurs analogique", et on ne parle pas "d'informatique analogique".
    Un exemple de calculateur analogique : le pantographe qui sert à faire des agrandissement ou diminution de dessins ou de sculptures.

    Un autre exemples : les "amplificateurs opérationnels" qui sont des montages électroniques permettant de faire des opérations sur des signaux : addition, multiplication, intégration dans le temps ou dérivation. Avec cela on fait par exemple des régulateurs : régulation d'une grandeur physique : niveau dans une cuve, température, etc. Certains de ces régulateurs sont basés sur une technologie pneumatique plutôt qu'électronique : cas de milieu explosif : industrie chimique...

    Lorsque tu traces une figure géométrique à la règle et au compas, tu fais du calcul analogique, tel Mr Jourdain faisant de la prose.

    On ne parle d'informatique ou d'ordinateur que lorsqu'on transforme les grandeurs physiques en un nombre : opération de quantification, et ensuite on fait un traitement numérique sur ce nombre, stricto sensu un calcul.
    Quoi? Quelque chose que je ne connais pas et qui me fait l'affront d'exister?!

  26. #25
    pm42

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par CM63 Voir le message
    Un exemple de calculateur analogique : le pantographe qui sert à faire des agrandissement ou diminution de dessins ou de sculptures.
    On veut bien une référence à l'appui de cette affirmation gratuite et très, très contestable.

    Citation Envoyé par CM63 Voir le message
    On ne parle d'informatique ou d'ordinateur que lorsqu'on transforme les grandeurs physiques en un nombre : opération de quantification, et ensuite on fait un traitement numérique sur ce nombre, stricto sensu un calcul.
    Affirmation personnelle, gratuite et fausse. On en parle "peu" parce qu'on n'a pas développé cette technologie ce qui est très différent.
    Un petit exemple : https://www.deutschland.de/fr/topic/...eur-analogique

    Il y a d'autres dont notamment le lien déjà donné.
    Dernière modification par pm42 ; 22/06/2023 à 10h39.

  27. #26
    Deedee81
    Modérateur

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Salut,

    Je trouve que le pantographe est en effet un calculateur analogique (et géométrique ) très rudimentaire. Le compas aussi (là vraiment très rudimentaire, la question initiale n'a évidemment pas été posée dans ce sens)

    Par contre pour le reste je suis d'accord avec pm42. Y a pas que les nombres dans la vie. Même si dans l'informatique numérique c'est évidemment un pléonasme et si dans notre monde moderne les nombres ont pris une place centrale, il n'en reste pas moins que l'informatique n'est pas que nombres !
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  28. #27
    pm42

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par Deedee81 Voir le message
    Je trouve que le pantographe est en effet un calculateur analogique (et géométrique ) très rudimentaire. Le compas aussi (là vraiment très rudimentaire, la question initiale n'a évidemment pas été posée dans ce sens)
    Cela reste de l'opinion personnelle.
    Quand on cherche la définition des calculateurs, on trouve en général cette idée de soit traiter des nombres soit de modéliser un phénomène physique.

    Le pantographe et le compas ne rentrent pas dans ces définitions. Est ce qu'un clou, une ficelle et un bout de craie est un calculateur analogique aussi ?
    Il y a aussi l'idée d'une certaine "autonomie" d'un calculateur, c'est à dire la capacité à effectuer seul des calculs complexes une fois les paramètres entrés.

    La machine d'Anticythère entre dans cette catégorie tout comme la pascaline mais pas le boulier par exemple.

  29. #28
    Deedee81
    Modérateur

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Oui, tu as raison, il ne faut pas confondre (calcul au moins en partie automatique) et un outil. J'ai été trop loin. Mais bon, ça reste hors de la question initiale de toute façon.
    Sinon on aurait dit "n'est pas une erreur d'être passé au calculateurs numériques au lieu d'utiliser des pantographes"
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  30. #29
    f6bes

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par pm42 Voir le message
    Quand on cherche la définition des calculateurs, on trouve en général cette idée de soit traiter des nombres soit de modéliser un phénomène physique.

    Le pantographe et le compas ne rentrent pas dans ces définitions. Est ce qu'un clou, une ficelle et un bout de craie est un calculateur analogique aussi ?
    Il y a aussi l'idée d'une certaine "autonomie" d'un calculateur, c'est à dire la capacité à effectuer seul des calculs complexes une fois les paramètres entrés.
    Bjr, Le "boulier chinois" on le classe dans quoi ?
    "machine à calculer" en somme.
    (mais ne sais pas bosser tout seul !!)
    Bonne journée

  31. #30
    Ikhar84
    Animateur Informatique

    Re : Le passage de l'informatique analogique au numérique n'est il pas une erreur de l'histoire

    Citation Envoyé par f6bes Voir le message
    Bjr, Le "boulier chinois" on le classe dans quoi ?
    "machine à calculer" en somme.
    (mais ne sais pas bosser tout seul !!)
    Bonne journée
    Le programme est dans la RAM-neuronale de l'opérateur...
    J'ai glissé Chef !

Page 1 sur 2 1 DernièreDernière

Discussions similaires

  1. [Brun] Analogique/numerique
    Par kuznik dans le forum Dépannage
    Réponses: 5
    Dernier message: 28/03/2018, 15h51
  2. [Brun] Passage analogique-numérique
    Par invite8d75205f dans le forum Dépannage
    Réponses: 9
    Dernier message: 08/09/2010, 20h37
  3. analogique ou numerique ?
    Par invited0c72bcb dans le forum Électronique
    Réponses: 1
    Dernier message: 30/03/2006, 05h20
  4. TPE sur le passage de l'analogique au numérique en général
    Par invitebf232372 dans le forum TPE / TIPE et autres travaux
    Réponses: 2
    Dernier message: 28/05/2005, 16h44
Dans la rubrique Tech de Futura, découvrez nos comparatifs produits sur l'informatique et les technologies : imprimantes laser couleur, casques audio, chaises gamer...