Bonjour à tous
Voilà mon problème :
f est une fonction continue sur R, a et b sont deux réels tels que 0 < a < b < 1, f(a) = 0 et f(b) = 1
g est la fonction définie sur R par g(x) = f(x) - x
On nous demande de montrer que g(a) < 0 et g(b) > 1, ce que j'ai fait, puis on nous demande d'en déduire que f(x)=x admet au moins une solution dans l'intervalle ]0;1[ et c'est là que je bloque :/
Pourriez m'indiquer des pistes de début sur lesquelles m'appuyer ? (Je suis en terminale S)
Merci d'avance
-----