Bonjour, un problème vient d'apparaître dans ma petite tête. Depuis toujours, on nous dit que pour déterminer si une fonction est croissante sur I, nous pouvons utiliser deux inconnues x et x' appartenant à l'intervalle I tel que x<x' . Et si f(x)<f(x') alors la fonction est strictement croissante sur I. Mais imaginons la fonction x² sur l'intervalle [-10;10] et x=1 x'=3, on trouve f(x)<f(x') mais la fonction n'est pas strictement croissante sur I (ou même croissante)... J'ai dû oublier quelque chose... Merci à quiconque pourra m'aider
-----