Bonjour à tous
Je viens poser ici ma requête car je suis depuis un certain temps sur un problème que je n'arrive pas à résoudre , en maths.
Voici l'énonce:
pour les racines, je sais que si Delta (déterminant)>0 on a deux racines x1 et x2 distinctes :soit f(x)=ax^2+bx+c , a != 0 et un nombre alpha.
1/
a/ démontrer que f(x) admet deux racines distinctes x1,x2.
Démontrer que Alpha Appartient à [x1,x2] ssi af(alpha) < 0.
b/ Démontrer que si Delta (déterminant) > 0, et aF(alpha) >0, alors f(x) admet 2 racines x1,x2 et alpha n'appartient pas à [x1,x2].
Montrer alors que alpha < x1 et x2 si (S/2)-alpha >0 et alpha > x1 et x2 si (S/2)-alpha <0
S=x1+x2
2/
On donne racine_carrée(x^2+x-2) = mx-1
Question : 2tudier suivant les valeurs de m, m appartenant à |R, le nombre de solutions de l'équation.
(se servir des résultats de 1/ )
x1= [-b-racine_carée(delta)] /2
x1= [-b+racine_carée(delta)] /2
si Delta=0 une solution unique x1=x2=-b/2a
si delta<0 ensemble vide.
Mais après .. je suis carrément perdu j'ai l'impression qu'il manque des variables ou alors il y a quelque chose que je n'ai pas compris.
Bien évidemment, notre prof n'a rien expliqué de plus que cela....
cordialement.
-----