bonjour, j'ai remarqué ceci:
x=0,9
10x=9,9
10x=9+x
9x=9
X=1
Merci de me donner des explication
-----
bonjour, j'ai remarqué ceci:
x=0,9
10x=9,9
10x=9+x
9x=9
X=1
Merci de me donner des explication
Car 10x0.9 ne font pas 9.9
x=0,9
10x=9
Ce qui casse tout
Bonsoir,
C'est à mon avis une méprise sur la notation. Pour x = 0,9, cette propriété est grossièrement fausse. Cependant, si on prend x = 0,99..., c'est à dire 0 suivi d'une infinité de 9, c'est vrai -et ce n'est pas une approximation.
Je t'invite à lire ce message pour une autre démonstration.
bonjour, désolé pour ma réponse tardive oui c'est sa. Une infinnité de . Je l'avzait lu dans un livre est je voulais savoir pourquoi cela est possible merci
Bonjour,
il faut cliquer sur le lien ''ce message'' du post n°#4 d'Elwir pour avoir une démonstration.
En fait ce n'est pas possible. C'est juste que 0,999... ça ne veut rien dire. Les pointillés ce n'est pas un symbole mathématique. C'est simplement une mauvaise façon d'écrire quelque chose de correctement défini.
Le but est d'en donner une meilleurs visualisation et vu les résultat j'aurai tendance à penser que c'est un échec lamentable. Personne ne visualise pourquoi 1=0,999... et pour cause, c'est simplement la démonstration de la limite des pointillés en tant que symbole mathématique.
Ici on devrait définir la suite (un) par u1=0,9 et un+1=un+9/10n+1 et ce que les gens notes 0,999... c'est en réalité la limite de cette suite (un) lorsque n tend vers l'infini.
Je ne comprendrais jamais pourquoi on s'obstine à utiliser les pointillés pour expliquer des choses. Donner une notation pour aider à la compréhension, je trouve déjà ça limite. Mais alors donner une notation fausse qui ne fait que gêner la compréhension, là, c'est au delà de mon entendement.
S321 a dit : Donner une notation pour aider à la compréhension, je trouve déjà ça limite. Mais alors donner une notation fausse qui ne fait que gêner la compréhension, là, c'est au delà de mon entendement
Il faut reconnaître que la notion de "nombre réel", qui est formellement explicitée en enseignement supérieur (du moins de mon temps ) , échappe au commun des mortels qui raisonnent en termes de nombres entiers ou fractionnaires, et notamment en représentation des nombres décimaux. En informatique, la définition (fausse) de variables "réelles" n'arrange rien.
On trouve des chercheurs qui cherchent ; on cherche des chercheurs qui trouvent !
En maths c'est encore pire pour définir les nombres réels. C'est l'ensemble des classes d'équivalences des suites de Cauchy à valeurs dans Q pour la relation u~v <=> lim |un-vn|=0.
C'est à dire que formellement un nombre réel c'est un ensemble de suites de rationnels. Étonnant non ?
C'est une façon de les définir, il y en a d'autres comme les coupes de Dedekind. Qu'on prenne l'une ou l'autre, t'es mal parti pour enseigner ça en secondaire sans rentrer dans de la topologie et des définitions infectes à base d'epsilon (sauf si ton but est de tous les envoyer en psycho ). La notation "..." a l'avantage d'être suffisamment explicite et d'utiliser l'intuition qui reste le passage obligé avant la formalisation abstraite.
Dernière modification par Bruno ; 24/11/2011 à 13h15.
Hello,
Il me semble qu'une notation décimale ne peut par définition de terminer par une infinité de 9 car si c'était autorisé il n'y aurait plus une notation unique ?