Bonjour!
J'ai un petit souci sur une question de problème.
Il s'agit d'algèbre linéaire.
Pour situer:
Pour un réel k, on note Ak l'ensemble des endomorphismes u de E vérifiant:
u^2=ku.
On suppose que E est de dimension finie
Il faut montrer que lorsque k est différent de 0, on peut choisir une base de E pour que la matrice associée à u dans cette base soit diagonale.
Et que si k=0, en général (à préciser) il n'existe pas de base de E pour laquelle la matrice de u soit diagonale.
Dans les questions précédentes, j'ai déja montré que Im(u) et Ker(u) étaient des sous espaces supplémentaires de E. Mais je ne pense pas que ça serve ici
( j'ai: y=(1/k)u(x) et z=x-(1/k)u(x) avec x=y+z, y appartenant à Im(u) et z appartenant à Ker(u))
Si vous pouviez m'aider.... ce serait vraiment pas de refus
-----