Donc, si je comprend bien, le nombre négatif était une curiosité, une facilité de calcul qui n'était pas encore entrée dans les mathématiques. Chacun employait son propre savoir-faire.A XVième siècle, soit 2100 ans après Pythagore, Chuquet accepte l'idée folle d'utiliser des nombres négatifs dans les calculs, à condition qu'il n'apparaissent pas dans le résultat (qui doit être un nombre et pas une fantaisie inimaginable), Cardan et Bombelli auront la même attitude vis à vis des imaginaires
On retrouve aussi cette manière de faire pour les langues : Il n'y a eu de standard que récemment.
Aussi incroyable que cela puisse paraitre effectivement.Au XIXième c'est toujours pas si évident que cela :
Est-ce que vous pensez que c'est le développement de l'algèbre qui aurait pu avoir donné le coup d'envoi à une uniformisation des mathématiques au sein des mathématiciens ?
Ou alors c'est peut-être une question "d'école", d'apprentissage ? (ou les deux ma foi)
https://fr.wikipedia.org/wiki/Alg%C3%A8breEnvoyé par WikipediaJusqu'au XVIIe siècle, l'algèbre peut être globalement caractérisée comme la suite ou le début des équations et comme une extension de l'arithmétique ; elle consiste principalement en l'étude de la résolution des équations algébriques, et la codification progressive des opérations symboliques permettant cette résolution. François Viète (1540-1603), « considéré comme le fondateur de notre langage algébrique », innove en notant les inconnues et les indéterminées à l'aide de lettres11.
Alors que chez Viète les puissances étaient notées avec des mots latins11, René Descartes les note sous forme d'exposants et c'est cette écriture qui s'impose11. À peu de chose près nous avons conservé les notations littérales de Descartes qui constituent un véritable symbolisme algébrique. Le terme « algèbre » devient alors synonyme de « calcul littéral ». René Descartes et Pierre de Fermat introduisent également ce que l'on appelle toujours dans les collèges et les lycées la « géométrie analytique », autrement dit la géométrie des coordonnées : les courbes et les surfaces sont représentées par des équations que l'on manipule au moyen de l'algèbre.
Les mathématiciens commencent, aussi à cette époque, progressivement à utiliser des nombres « imaginaires » pour calculer les racines de leurs équations, parfois même quand ces dernières sont bien réellesn 4.
Ou juste un développement de plus en plus important des mathématiques, en particulier avec l'usage de plus en plus important des mathématiques appliquées en physique, mécanique, etc... (industrie, etc.)
Je ne dis pas que c'est ça (ou les trois), c'est juste une idée. La question en soi est particulièrement intéressante.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Ou finalement, ne serait-ce pas Gutenberg, qui serait indirectement à l'origine de la transformation des connaissances ?
https://www.iletaitunehistoire.com/g...c_009#histoireEnvoyé par IletaitunehistoireDe grandes redécouvertes
Indéniablement, l'imprimerie augmente le nombre de livres et surtout le nombre de titres disponibles. De ce fait, elle contribue de façon décisive à répandre toutes sortes de connaissances.
Au xve siècle, l'imprimerie permet de diffuser des textes anciens ou plus récents dans les domaines de la religion, de la littérature, de l'histoire et de la philosophie.
La chute de Constantinople, conquise par les Turcs en 1453, est contemporaine des débuts de l'imprimerie. Elle conduit beaucoup de savants grecs à se réfugier à Venise et en Italie avec leurs manuscrits, notamment ceux des œuvres de Platon.
ça a tres probablement eu un impact majeur, il y avait une émission d'Arte très interessante sur l'écriture, qui liait le fait que les civilisations musulmanes avaient commencé à perdre leur supériorité sur l'Occident au passage à la Renaissance, et qui liaient ça au fait que la calligraphie arabe était difficilement "imprimable" avec des jeux de caractères contrairement à l'écriture carrée latine, ce qui avait considérablement freiné la diffusion massive des idées rendue possible avec l'imprimerie. De même la décroissance marquée de l'éducation des gens entre l'époque romaine et le Moyen Age était lié à la disparition des ressources en papyrus, bien moins cher à produire que les parchemins.
Pris de vitesse, j'allais le dire.
Mais à ce train là on pourrait dire que la formalisation des mathématiques est due à la disparition des dinosaures (qui a permis notre apparition)
Je ne suis pas sûr que la formalisation des mathématiques soit une conséquence directe (ou presque) de Gutenberg (j'ai bien dit, "je ne suis pas sûr", je peux me tromper)
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
C'est sûr que si on regarde les choses avec plus de justesse, le mode binaire qui consiste à dire "Ceci est LA cause de cela" est presque toujours faux (Sauf en mathématiques ?)Je ne suis pas sûr que la formalisation des mathématiques soit une conséquence directe (ou presque) de Gutenberg (j'ai bien dit, "je ne suis pas sûr", je peux me tromper)
Comme par exemple de dire que nous serions là parce-que les dinosaures ont disparu, n'est pas totalement vrai.
Nous sommes là parce que les dinosaures qui nous faisaient du tord (à "nous" les mammifères) ont cessé d'être un frein à notre développement.
Les oiseaux, qui sont pourtant les descendant des dinosaures (donc leurs ancêtres n'ont pas disparus), se sont même bien développés et constituent souvent notre menu (l'inverse est vrai aussi, certes)
C'est d'ailleurs peut-être en entendant le chant d'un oiseau ou en mangeant un poulet que Gutenberg a eu son idée , allez savoir (l'information qui n'est pas figée dans la matière finie par disparaitre).
Ce qui me fait dire que les causes sont peut-être bien "multi-factorielles et contingentes". C'est peut-être bien plus compliqué qu'on ne pense.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Bonjour,
Ben oui vous parlez de choc psychologique, l'impossibilité de la division par 0 m'a toujours été enseignée (jusqu'au bac, d'accord).
Cependant, j'ai trouvé ce lien qui me semble bien expliquer la situation : https://fr.m.wikipedia.org/wiki/Division_par_z%C3%A9ro
Vos avis ?
Merci !
Il n'y a pas d'avis à avoir, ce sont des mathématiques !
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
L'article est très bien (mais Médiat précisera si c'est bien ce qu'il avait en tête).
EDIT on s'est croisé. Médiat, je crois qu'il voulait juste avoir l'avis sur : est-ce bien à ça que tu pensais en parlant de division par zéro.
Oui mais de là à parler de choc psychologique ....
Je ne sais plus qui a dit "pour apprendre il faut d'abord désapprendre". C'est particulièrement vrai en science. Je ne compte plus le nombre de trucs que j'ai appris en secondaire et où j'ai appris que c'était "faux" (ou plutôt incomplet, imprécis,...) à l'université. Mais le comble c'est en chimie physique où le prof nous fait une longue présentation du modèle de Bohr pour dire à la fin : "mais ce modèle est faux". ca en a fait râler plus d'un
(mais faux ne veut pas dire inutile : c'est une étape pédagogique car plus simple que la MQ, elle n'est pas totalement dénuée d'intérêt en chimie par exemple même si vite limitée mais c'est quand même plus facile de dessiner des orbites que des orbitales, et elle a aussi un intérêt historique).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
L'article contient beaucoup de bla-bla, mais il cite Jesper Carlström qui est bien ce à quoi je pensais, voir le fichier c.pdf : https://forums.futura-sciences.com/m...ml#post5918602
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Je te remercieL'article contient beaucoup de bla-bla, mais il cite Jesper Carlström qui est bien ce à quoi je pensais, voir le fichier c.pdf : https://forums.futura-sciences.com/m...ml#post5918602
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
il me semble que les grec étant plus physiciens que mathématicien, posait que toute quantité exprimée était et ne pouvait-être que positive, ce n'est que par la suite, que l'expression (formelle) s'est modifié, pour poser des quantités positive et d'autre négéative (relativement à un zero particulier) et faisant de la formes des nombres négatifs une sorte de dérivée négative d'une quantité elle restant toujours positive, pusiqu'exprimée (l'inverse de quelquechose étant inexprimable, hormis formelement (être vs non-être)
sinon, à propos des racines ce qui m'a bien amusé, c'est d'apprendre de la racine cubique de -125 etait non seulement valide (voir calc.exe) mais valais elle aussi 5
et ce contrairement à la double racine carré de -25 valant {-5 et 5} (inverse de -5x5) ce qui n'est pas "normal" pour beaucoup jusqu'à l'interdire sans autre forme de procès... (mais l'on admettra, qu'en math ce n'ets pas le seul cas où l'on est des résultats double, non?)
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Peu importe qui a tort, c'est faux.
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Salut,
Je m'en doutais un peu .
En relisant le texte de Merlin95, mon sentiment initial se confirme : calc.exe (qui serait donc une merde effroyable) est plus pris comme référence que comme sujet de moquerie
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Oh..... oui, enfin de ce point de vue. Une calculatrice qui fait des arrondis et donc se trompe : c'est bien normal (me rappelle un vieux truc là dessus dans la revue O.I., un calcul où les machines donnaient un résultat débile à cause de leur mode de fonctionnement et de ces arrondis). Qu'une machine refuse de faire un calcul qui pourrait mathématiquement se faire, c'est normal aussi, elles ont leur limite. Mais une machine qui donne un résultat faux qui aurait pu être évité alors là non : poubelle.
Bon les machines sans faille n'ont pas encore été inventée. Même ce bon vieux EDLIN.exe se plantait avec le Monkey Test
Moi j'ai pris ça comme un message mal écrit, mais je peux me tromper. C'est mon coté "poire"
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Merlin95, Votre messagerie est pleine, je ne peux vous répondre, mais comme ma réponse disait qu'il serait mieux de discuter ici ...
si certains de mes messages ne sont pas clairs, citez les et posez votre question, je vous répondrai ici
Bonne journée
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Je pensais ne pas comprendre quelque chose personnellement cest pourquoi je n'ai pas voulu polluer peut-être, mais je ne comprenais pas pourquoi vous pensiez que calc était pris pour une référence au lieu d'un sujet de moquerie. Je précise qu'étant sous linux je ne connais pas ce que c'est calcul.exe
Dernière modification par Merlin95 ; 17/02/2021 à 17h41.
Ps : En fait j'ai libéré ma messagerie.
Édit message précédent :
Mais je pré mise que je n'ai pas pris ça comme "méchant" d'après ce que que je crois comprendre après recul.
Dernière modification par Merlin95 ; 17/02/2021 à 17h45.
C'est le ton du message #43, qui me fait penser celaJe pensais ne pas comprendre quelque chose personnellement cest pourquoi je n'ai pas voulu polluer peut-être, mais je ne comprenais pas pourquoi vous pensiez que calc était pris pour une référence au lieu d'un sujet de moquerie. Je précise qu'étant sous linux je ne connais pas ce que c'est calcul.exe
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Celui de Deedee ? Je ne ne comprends mais c'est pas grave.
Bonne journée
Désolé, c'est le message #46
Je suis Charlie.
J'affirme péremptoirement que toute affirmation péremptoire est fausse
Mouais ok, pas mieux, pas grave.