Bonjour,
Voici un exercice classique.
Soit un sous-groupe fini de de cardinal. Montrer que .
Indication:
Cliquez pour afficher
-----
Bonjour,
Voici un exercice classique.
Soit un sous-groupe fini de de cardinal. Montrer que .
Indication:
Cliquez pour afficherPour cela calculer .
J'avais la même solution. Pour ton exercice :
Cliquez pour afficherOn a . Ensuite, par concavité de la racine carrée : , d'où en utilisant l'égalité précédente : . D'ailleurs dans le cas général, on ne peut pas trouver mieux : il y a égalité en dimension deux pour une rotation d'angle .
On peut même ajouter que , donc . Et dans le cas général, on ne peut pas trouver mieux : il y a égalité en dimension deux pour une rotation d'angle (sauf erreur de calcul).
Je tente ma chance :
Cliquez pour afficherOn a ; or équivaut à , donc . En notant , est un polynôme annulateur de S, donc S est diagonalisable. La trace de S est donc la somme des valeurs propres de S (comptées avec leur multiplicité). Le polynôme indique également que , donc la diagonalisation de S est une matrice avec des zéros ou des |G| sur sa diagonale. Comme le nombre de valeurs propres non nulles correspond au rang de S, on a , soit .
If your method does not solve the problem, change the problem.
Seirios.
Montrer que deux matrices de semblables dans , sont semblables dans .
Montrer que est connexe.
Trouver les points isolés de .
Pour connexe, il faut une indication.
Cliquez pour afficherMontrer que peut s'écrire , étant une matrice orthogonale, et qui s'écrit avec des blocs de matrice de rotation sur la diagonale et en dehors de la diagonale.
J'ai eu une autre idée qui peut marcher:
Cliquez pour afficherÉcrire la matrice comme produits de matrices de transvections puis relier cette matrice à l'identité en utilisant par exemple les applications , on conclut donc qu'il est connexe par arcs et donc connexe.
Je rédigerai ça des que possible. (Le temps que je finisse un petit travail )
Cliquez pour afficherSoit . Soit un espace vectoriel euclidien E muni d'une base orthonormée et f un endomorphisme ayant M pour matrice dans cette base.
Soit . Montrons que G est stable par f. Soit x dans l'orthogonal de G. Alors pour tout , , donc l'orthogonal de G est stable par f, d'où G stable par f.
On considère une base orthonormée de G, que l'on complète en une base orthonormée de E. On recommence alors le procédé précédent avec un vecteur de base n'appartenant pas à G, jusqu'à obtenir une base orthonormée telle que . Ainsi, M s'écrit dans cette base comme une matrice diagonale par bloc , avec des matrices 1x1 (si est un vecteur propre) ou 2x2 (sinon). De plus, , donc on peut ajuster les pour se ramener au cas où .
Ensuite, comme , on en déduit que . Donc d'après ce qui précède, . Ainsi, les sont des matrices de rotations. Passant d'une base orthonormée à une autre, la matrice de passage est orthogonale, donc au final on peut écrire : avec P une matrice orthogonale et une matrice de rotation d'angle .
Soit . Alors , et pour tout , . De plus, est continue comme composition des applications (qui est continue puisque linéaire) et (dont les applications coordonnées sont soit une application identiquement nulle, soit l'identité, soit une application sinusoïdale, d'où la continuité).
Finalement, est connexe par arc et donc notamment connexe. On doit d'ailleurs pouvoir faire un raisonnement très similaire (il suffit de faire en sorte que les soient réflexions) pour montrer que est également connexe, et donc que a deux composantes connexes : et .
Je ne sais pas si cela peut marcher, l'application risque de ne pas être à valeur dans .J'ai eu une autre idée qui peut marcher:
Cliquez pour afficherÉcrire la matrice comme produits de matrices de transvections puis relier cette matrice à l'identité en utilisant par exemple les applications , on conclut donc qu'il est connexe par arcs et donc connexe.
Je rédigerai ça des que possible. (Le temps que je finisse un petit travail )
If your method does not solve the problem, change the problem.
Cliquez pour afficherSoit . Soit un espace vectoriel euclidien E muni d'une base orthonormée et f un endomorphisme ayant M pour matrice dans cette base.
Soit . Montrons que G est stable par f. Soit x dans l'orthogonal de G. Alors pour tout , , donc l'orthogonal de G est stable par f, d'où G stable par f.Cliquez pour afficherIl me semble que si x est dans l'orthogonal de G, alors . On peut prendre un vecteur propre de M dans
En fait, il vaudrai mieux suivre la méthode classique :
Si le spectre réel de est non vide, c'est fini.
Sinon, la matrice étant à coefficients réels, on peut toujours trouver un plan stable, en effet:
tel que divise , après il est clair que est non vide d'où l'existence d'une vecteur non nul tel que et la stabilité est, dès lors, immédiate.
Bonjour,
Je reviens à des exos proposés il y a un petit moment.
Je me lance. Pour l'implication =>
Cliquez pour afficherSupposons que le polynôme caractéristique P de f est irréductible et montrons par l'absurde que E et {0} sont les seuls sev de E stables par f.
Supposons donc qu'il existe un sev G de E, différent de E et de {0}, stable par f. Notons fG l'endomorphisme de G induit par f sur G et Q le polynôme caractéristique de fG. On a que Q divise P, donc il existe R dans K[X] tel que P=QR.
Comme G est différent de E et {0}, on a 0<deg(Q)=dim(G)<dim(E)=deg(P) , donc Q et R sont de degré non nuls et donc non inversibles : P est donc réductible.
On aboutit ainsi à une contradiction, ce qui montre que les seuls sev de E stables par f sont E et {0}. CQFD.
Pour l'implication <=, j'ai conscience de faire un truc sans doute très compliqué, mais pour le moment, je n'ai pas trouvé plus simple.
Cliquez pour afficherSupposons que E et {0} sont les seuls sev de E stables par f et démontrons par l'absurde que le polynôme caractéristique P de f est irréductible.
Supposons que P est réductible : par le théorème fondamental de l'arithmétique, on peut écrire P sous la forme P=P1n1x...xPqnq, où les Pi sont irréductibles et donc premiers entre eux.
P annulant f, d'après le lemme des noyaux, si Fi désigne Ker(Pini(f)), on a E=F1+...+Fq (la somme étant directe).
Les Fi étant les noyaux de polynômes de f, ils sont stables par f. De plus, les Pi divisant le polynôme caractéristique P, les Fi sont non nuls.
Si q est différent de 1, alors E étant une somme directe de plusieurs sous-espace non nuls, chacun de ces sous-espaces est différent de E, et les Fi sont donc des espaces stables par f et différents de E et {0}.
Si q=1, on peut alors ré-écrire P sous la forme P=Qp avec Q=P1 irréductible et p=n1 supérieur ou égal à 2 (sinon P est irréductible).
Soit π le polynôme minimal de f. π est à coefficient dans K et divise P, donc est de la forme π=Qp' avec p'<p.
Distinguons alors deux cas :
1) si p' est différent de 1, alors G=Ker(Q(u)) est différent de E, non nul et stable par f.
2) si p'=1, comme p est strictement supérieur à 1, P a un degré strictement supérieur à π, donc si on note d le degré de π, alors d<n=dim(E).
Soit x un vecteur non nul de E, posons G=Vect(x,f(x),...,fd-1(x)).
Pour tout i<d-1, f(fi(x)) est clairement dans G.
Comme π annule f, π(f)(x)=0, or π est de degré d donc (fd(x),fd-1(x),...,f(x),x) est liée, d'où fd(x) appartient à G.
L'image par f d'une famille génératrice de G appartient à G donc G est stable par f.
Or G est engendré par une famille de cardinal d, donc dim(G)<=d d'où dim(G)<n=dim(E).
Donc G est un sev de E stable par f et différent de E et {0}.
Dans tous les cas, on obtient donc l'existence d'un sev G stable par E et différent de E et {0}, ce qui est en contradiction avec l'hypothèse de départ.
Par l'absurde, P est donc irréductible. CQFD.
Je propose :
Cliquez pour afficher1) Montrons que :
Soit . Pour tout entier naturel k, posons Mk=M+In/k. On a clairement Mk->M.
étant un espace vectoriel et M et In étant symétriques, on a Mk symétrique.
De plus Sp(Mk)={λ+1/k, λ appartenant à Sp(M)}. Comme toute valeur propre de M est positive ou nulle, toute valeur propre de Mk est donc strictement positive.
On a donc .
Donc pour toute matrice M de Sn+(R), il existe une suite d'élément de Sn++(R) qui tend vers M.
On a donc .
2) Montrons que :
Soit . Il existe une suite (Mk) d'éléments de Sn++(R) qui tend vers M.
Soit x un vecteur de Rn. Considérons l'application Φx de Sn++(R) dans R qui à A associe <Ax,x>, où <.,.> désigne le produit scalaire canonique sur Rn.
Φx est linéaire sur un espace vectoriel de dimension finie et donc continue. Donc <Mkx,x> -> <Mx,x> lorsque k tend vers + l'infini.
Or pour tout k, <Mkx,x> est strictement positif, donc par passage à la limite <Mx,x> est positif ou nul.
L'application t, qui à A dans Mn(R) associe tA la transposée de A est linéaire sur un espace de dimension finie et donc continue. Donc tMk -> tM. Or Mk appartient à Sn++(R), donc tMk=Mk donc tMk -> M.
Par unicité de la limite, tM=M.
M est donc symétrique et pour tout x dans Rn, <Mx,x> est positif ou nul donc M appartient à Sn+(R).
On a donc .
Conclusion :
Par double inclusion, . CQFD.
Je tente :
Cliquez pour afficherNotons <,> le produit scalaire canonique sur Rn et S la sphère unité de (Rn,<,>).
Comme est un espace vectoriel de dimension finie, toute les normes dans sont équivalentes.
Je propose donc de travailler avec la norme d'opérateur, définie pour tout par .
Soient et R=inf{<Mx,x>, x appartenant à S}.
M -> <Mx,x> est linéaire donc continue, or S est compact donc R est atteint. Comme M appartient à Sn++(R), R est strictement positif.
Soit A appartenant à la boule fermée B de centre M et de rayon R'=R²/4.
Pour tout x dans S, on a :
|<Ax,x>-<Mx,x>|=|<(A-M)x,x>|
...<= racine de (<(A-M)x,(A-M)x>.<x,x>) par Cauchy-Schwartz
... <= racine de (||A-M||.<x,x>) par définition de ||A-M||
... <= R/2 car A appartient à B et x à S
On a donc |<Ax,x>-<Mx,x>|<=R/2 avec <Mx,x> supérieur ou égal à R donc <Ax,x> est supérieur ou égal à R/2 donc est strictement positif.
Donc pour tout x dans S, <Ax,x> est strictement positif, donc A appartient à Sn++(R).
Conclusion :
Pour tout M dans Sn++(R) considéré comme sous-espace de Sn(R), il existe R'>0 tel que la boule de centre M et de rayon R' soit incluse dans Sn++(R).
Donc Sn++(R) est un ouvert de Sn(R).
Voilà, merci à ceux qui vérifieront,
Silk
hiBonjour,
Quelqu'un aurait-il en tête (ou en pdf ) quelques exos ou liens vers des exos d'algèbre linéaire qui vous paraissent intéressants et pas trop faciles, au niveau L2 (enfin quand même faisable hein ^^) ? Ça peut-être assez théorique, voire en fait plus la démonstration d'un théorème qu'un vrai exo, ça ne me dérange pas. Je suis aussi preneur pour les exercices qui deviennent tout simple avec une petite astuce alors qu'il demanderait de gros calculs autrement.
Merci d'avance,
Silk
PS : J'ai conscience que ce genre de sujets doit sans doute revenir souvent sur FS, mais une recherche sur le forum ne m'a pas permis de trouver mon bonheur. Si je suis vraiment aveugle et qu'il existe déjà un topic assez complet là dessus, si une âme charitable pouvait me l'indiquer, ça serait sympa
http://jellevy.yellis.net/
http://mpsiddl.free.fr/
http://www.bibmath.net/exercices/ind...he&quoi=alglin
si tu veux silk j'en ai un faisable avec des outils de L1 sur les matrices
le voici:
soit A =(alk) dans Mn(C) une matrice carrée complexe
on suppose que A est "diagodominante" ie pour tout (l,k) dans {1,...,n}² avec l différent de k on a |alk| et |akl|>n-1
montrer que A est inversible
Je pense que j'ai trouvé la bonne méthode mais je le cherche toujours car au bout d'un moment je ne vois plus comment progresser
Je reviens enfin sur ce sujet ... après tout c'est moi qui ai demandé les exos, faudrait peut-être que je les fasse quand même Là c'est les vacances alors j'ai un peu de temps pour les faire.
Je reviens sur les exos que j'avais pas traité, si certains veulent bien vérifier ce que je dis ce serait sympa.
Pour les inégalités sur A matrice orthogonale, j'ai vu vos démonstrations donc ça sert à rien que je réécrive un truc quasiment identique.
1) Somme des éléments d'un sous-groupe fini de GLn(R), proposé par G13
Il est marrant celui-là (mais pas facile, je ne suis pas sur que j'aurais pensé à l'indication). Je propose :
Cliquez pour afficher
Remarquons tout d'abord que pour tout g dans G, on a par les propriétés des groupes G={g-1g'', g'' £ G}.
Donc pour tout g dans G, on a :
.
On a donc :
G est non vide et fini donc |G| est une entier non nul, posons alors
On a :
Donc p²=p, d'où p est un projecteur. On a alors rg(p)=tr(p) (identité évidente dans une base adaptée à E=Ker(p)+Ker(p-Id)).
Or et par linéarité de la trace. On obtient donc :
, CQFD.
2) Deux matrices de Mn(R) semblables dans Mn(C) sont semblables dans Mn(R), proposé par G13
Cliquez pour afficherSoient donc A et B des matrices de Mn(R), semblables dans Mn(C). Il existe P dans GLn(C) telle que A=PBP-1, soit encore AP=PB.
Décomposons P sous la forme : P=Q+iR avec Q et R dans Mn(R).
On a donc : AQ+iAR=QB+iRB. En identifiant parties réelle et imaginaire dans l'égalité, il vient : AQ=QB et AR=RB.
D'où : pour tout λ complexe, (Q+λR)A=B(Q+λR).
Soit f la fonction de C dans C définie par f : λ -> det(Q+λR).
En développant le déterminant, Q et R étant à coefficients réels, on a f fonction polynomiale à coefficients réels. Deux cas se présente alors :
- si deg(f)>0 alors f ne peut pas s'annuler sur tout R (sinon elle serait constante et donc de degré 0)
- si deg(f)=0 alors f est constante sur C. Or f(i) est non nul (car P est inversible) donc pour tout λ complexe et à fortiori réel, f(λ) est non nul.
Dans tous les cas, il existe donc λ réel tel que det(Q+λR) soit différent de 0 : on a donc S=Q+λR dans GLn(R).
On a ainsi construit une matrice S de GLn(R) telle que AS=SB : A et B sont donc semblables dans Mn(R). CQFD
3) Points isolés de l'ensemble des racines carrées de l'identité, proposé par G13
Voilà ce que j'ai fait :
Cliquez pour afficher
Notons . Remarquons tout d'abord que :
En effet le sens <= est évident en diagonalisant la matrice et en l'élevant au carré. Le sens => vient du fait que si A est dans R alors le polynôme P(X)=(X-1)(X+1) annule A : les valeurs propres de A sont donc racines de P donc incluses dans {-1;1} et P étant scindé à racine simple, A est diagonalisable.
Montrons maintenant que les points isolés de R sont In et -In. Munissons Mn(R) d'une norme d'opérateur N, qui est donc une norme d'algèbre.
1) Supposons tout d'abord que A est une matrice de R telle que Sp(A)={-1,1}. A étant diagonalisable, il existe P inversible telle que :
avec p et q entiers naturels non nuls.
Notons K la matrice de Mp,q(R) :
Pour tout ε>0, posons ε'=ε/[N(P)*N(P-1)*N(K)], ce qui est possible car ces trois matrices sont non nulles et donc de normes non nulles.
On pose alors Bε=B+ε'*K. On a :
où les blancs sont à interprétés comme des (0).
Or la matrice a un polynôme carac scindé à racine simple donc est diagonalisable d'où Bε diagonalisable. Or Sp(Bε)={-1,1} donc Bε est dans R.
Posons Aε=P-1BεP. On a Bε²=In donc Aε²=In : Aε est dans R. De plus on a Aε différent de A car Bε différent de B.
Calculons N(Aε-A) en utilisant le fait que N est une norme d'algèbre :
N(Aε-A) = N(P-1(Bε-B)P) <= N(P-1)*N(P)*N(Bε-B)
Or N(Bε-B)=N(ε'*K)=|ε'|*N(K)=ε/[N(P-1)*N(P)] donc N(Aε-A)<=ε.
Conclusion : Si A est un élément de R possédant à la fois 1 et -1 comme valeur propres, alors pour tout ε>0, il existe Aε différent de A, telle que Aε soit dans R et dans la boule de centre A et de rayon ε. A n'est donc pas un point isolé de R.
2) Soit A un élément de R ne possédant pas à la fois 1 et -1 comme valeur propres : A étant diagonalisable, on a A=In ou A=-In.
Montrons que le seul point de la boule B de centre In et de rayon 1 qui appartient à R est In lui même (ce qui implique que In est isolé dans R).
Soit donc A appartenant à la boule B et à R. On a donc N(A-In)<=1. Posons ρ le rayon spectral de A-In et étudions le spectre de A.
Soit λ une valeur propre de A. λ-1 est valeur propre de A-In donc |λ-1|<=ρ. Or N est une norme d'opérateur donc le rayon spectral d'une matrice est inférieur à sa norme d'où :
|λ-1|<=ρ<=N(A-In)<=1.
On a donc -1<=λ-1<=1 d'où 0<=λ<=2.
Or A est dans R donc Sp(A) est inclus dans {-1,1} : la seule valeur possible de λ est donc 1, d'où Sp(A)={1}.
Or A appartient à R, donc A est diagonalisable : on a donc A semblable à In, d'où A=In, ce qui achève la démonstration.
In est donc un point isolé de R. On montre de la même façon que -In est un point isolé de R.
3) Conclusion : Les points isolés de sont In et -In.
Remarque : à vu de pif le principe de la démonstration tient toujours pour pour tout p naturel non nul : si p est pair alors les points isolés sont encore In et -In et si p est impair alors le seul point isolé est In.
@369 : il me semble qu'il y a une erreur dans ton énoncé (c'est peut-être pour ça que t'arrivais plus à progresser d'ailleurs ).
Si tu considère la matrice dont tous les coefficients sont égaux à n, elle est non inversible et pourtant |alk|>n-1 si l différent de k.
Reste la preuve que SOn(R) est connexe. Je m'arrête là pour ce message, je ferais sans doute cet exo une prochaine fois. Au vu de l'indication (réduction des matrices spéciales orthogonales), j'avais bien une idée de démonstration mais par flemme j'ai vérifié, Serios a proposé la même.
Par contre, je propose un autre moyen de le prouver (en démontrant en fait un autre résultat qui va impliquer la convexité). La démonstration est un peu plus longue mais à partir du théorème de réduction c'est quand même assez rapide :
Cliquez pour afficherMontrer que SOn(R)=exp(An(R)) où An(R) est le sev de Mn(R) formé des matrices anti-symétriques.
Sinon merci dalida1111 pour les liens, même si je connaissais déjà les sites
Voilà, merci d'avance à ceux qui reliront ce que j'ai fait. Si quelq'un a d'autre énoncé en tête ...
Silk
Pour moi ce que tu as écrit est correct.
Pour d'autres exercices, tu peux regarder ici.
If your method does not solve the problem, change the problem.
Merci, je vais y jeter un œil