Bonjour,
Je cherche depuis un moment déjà la solution à un problème d'un de mes livres, mais dont la "correction" ne m'aide pas tellement...
En voici l'énoncé:
Soit f: R+ -> R+ une application strictement croissante telle que f(x+1)-f(x) tend vers 0 quand x tend vers + l'infini
Montrer que {f(n)-E(f(n))} est dense dans R
où E désigne bien entendu la partie entière.
Après avoir tourné en rond un bon moment, j'ai regardé les réponses qui ne m'ont pas aidés à comprendre vraiment la méthode à appliquer ici...
Voici les indications données:
On considère bêta et alpha dans [0,1] avec alpha < bêta
On pose epsilon= bêta - alpha.
Il existe x1 tel que pour x>=x1 on ait: 0< f(x+1)-f(x)<epsilon
Jusque là tout va bien, j'avais fait quelque chose du même genre. Toutefois je ne comprends pas pourquoi on s'embête ici à considérer alpha et bêta alors
qu'on ne s'en sert plus après... Autant posé epsilon dans [0,1] tout de suite, non?
La dernière indication de donnée est:
Il existe N1 entier naturel tel que N1 > f(x1)
Considérer les x tels que N1<f(x)<N1+1.
Je ne vois pas en quoi on peut affirmer que de tels x existent... On peut très bien imaginer que [N1,N1+1] ne contiennent aucun f(x)...
A moins qu'on le choisisse délibérément de sorte qu'il en contiennent... Ce qui semble envisageable.
Et pire, je ne vois pas malgré cette indication comment finir l'exercice, et ça m'agace de
tourner autour de cette indication sans trouver le chemin vers la fin....
Quelqu’un pourrait-il m'aider s'il vous plaît?
-----