matrice de damier
Répondre à la discussion
Affichage des résultats 1 à 18 sur 18

matrice de damier



  1. #1
    invite131799f6

    matrice de damier


    ------

    Bonjour à tous,
    je me permets de poster ici car je bloque sur un xo :

    ON a :
    D = {A appartenant à mn(R) ; a(ij) =0 pour i+j impair }
    J'ai montré que D est une sous algèbre de Mn(R).

    Je n'arrive pas à determiner sa dimension (à vue de nez, je dirai dim = n)

    Enfin, je dois montrer que M-> AM où A est une matrice en damier inversible est un automorphisme de D (ca ca va) , mais comment j'en déduis que A^-1 est en damiers ?

    Merci d'avance pour votre aide

    -----

  2. #2
    invite6b1e2c2e

    Re : matrice de damier

    Salut,

    Bon, ici, la dimension, c'est le nombre de paramètres que tu peux choisir, donc je m'attends en un truc en n^2.
    Ensuite, pour prouver que A^-1 est en damier, je te conseille de relire un thread précédent qui disait que A^-1 est un polynôme en A. Cf Cayley Hamilton et det(A) non nul. Ensuite, le fait que ce soit une algèbre te permet de conclure.

    __
    rvz

  3. #3
    invitedef78796

    Re : matrice de damier

    Salut,

    Pour la dimension il te suffit de trouver une base et manifestement la famille (Eij) avec i+j pair convient (j'appelle Eij la matrice toute nulle sauf au coefficient d'ordre (i,j) où elle vaut1).

    En effet cette famille est libre comme sous famille d'une famille libre et génératrice également. La dimension est donc donnée par le dénombrement des couples (i,j) entiers de [1,n]² tels que i+j soit pair.

    En espérant que ça peut aider...
    @+

  4. #4
    invitedef78796

    Re : matrice de damier

    Allez, un dernier petit coup de pouce pour montrer que A^-1 est en damier :

    Il s'agit d'utiliser de manière judicieuse la surjectivité de ton automorphisme.

    Voilà @+

  5. A voir en vidéo sur Futura
  6. #5
    invite6b1e2c2e

    Re : matrice de damier

    Ca c'est marrant comme approche ! Je me souviens effectivement avoir vu des trucs comme ça quand j'étais en prépa. C'est effectivement assez joli aussi.

    __
    rvz

  7. #6
    GuYem

    Re : matrice de damier

    C'est vrai que l'automorphisme cité fait le café, bravo à lui.

    Cependant j'aime aussi beaucoup la technique de rvz qui consiste à littéralement exploser le problème à coup de marteau-pilon Cayley Hamilton !
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  8. #7
    invite6b1e2c2e

    Re : matrice de damier

    Dois je prendre ça pour un compliment ?
    Après tout, Cayley Hamilton est au programme, alors faut s'en servir...
    __
    rvz

  9. #8
    invitedef78796

    Re : matrice de damier

    Citation Envoyé par rvz
    Salut,

    A^-1 est un polynôme en A. Cf Cayley Hamilton et det(A) non nul. Ensuite, le fait que ce soit une algèbre te permet de conclure.

    rvz
    J'en profites pour poser une autre question analogue. Est-ce qu'avec le même style de raisonnement (Cayley-Hamilton) on peut prouver que pour une matrice A disons réelle ou complexe, exp(A) est un polynôme en A.

    En fait, le résultat m'arrangerait beaucoup parce que après ça permet toujours de faire de l'interpolation de Lagrange et de prouver l'injectivité de exp(matrice) dans certains cas précis...

    Si ça tente quelqu'un...
    @+

  10. #9
    GuYem

    Re : matrice de damier

    Salut

    Exp(A) n'est certainement pas un polynome en A en général, il suffit de regarder la définition de exp.

    Sauf bien sur dans le cas où A est nilpotente
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  11. #10
    invite6b1e2c2e

    Re : matrice de damier

    Citation Envoyé par IceDL
    J'en profites pour poser une autre question analogue. Est-ce qu'avec le même style de raisonnement (Cayley-Hamilton) on peut prouver que pour une matrice A disons réelle ou complexe, exp(A) est un polynôme en A.
    Bonjour,

    Oui, évidemment, et c'est très facile.

    par définition.
    Donc cette somme est dans l'espace engendré par I, A, A^2,... . Et Cayley Hamilton te dit que cet espace est de dimension <= N, et comme c'est un sous ev d'un ev de dimension finie (les matrices de taille N*N), exp(A) peut s'écrire comme une combinaison linéaire de I,A,..., A^{N-1}. Mais évidemment, commme pour A^{-1}, les coefficients dépendent de A.

    Pour des histoires sur les exponentielles de matrice, je ne sais pas ce que tu veux prouver, mais en cas de problème, tu peux toujours te référer au Gourdon d'analyse ou au Mneismé Teistard, plus complet, mais bien plus difficile.

    __
    rvz

    Edit pour Guyem : Effectivement, en dimension infinie, ça va être faux, hein, on est d'accord. Et puis le polynôme, je sais juste qu'il existe pour chaque A. Donc, au lieu de parler de polynôme, il faudrait parler de combinaison linéaire en puissance de A...

  12. #11
    GuYem

    Re : matrice de damier

    Ohlala oui, mais j'ai dit une bétise quand même !

    J'étais persuadé que c'était pas vrai. Ca fait quand même super bizarre de voir un truc défini comme la somme d'une série entière qui s'avère au final être un polynôme ... Ici c'est bien sur la dimension finie qui fait le travail.

    Dans le cas où A est nilpotente, les coefficients qu'on va trouver par ta méthode ne vont dépendre que de l'ordre de nilpotence de A si j'ai bien compris ?
    Bravo jolie Ln, tu as trouvé : l'armée de l'air c'est là où on peut te tenir par la main.

  13. #12
    invitedef78796

    Re : matrice de damier

    Citation Envoyé par GuYem
    Salut

    Exp(A) n'est certainement pas un polynome en A en général, il suffit de regarder la définition de exp.

    Sauf bien sur dans le cas où A est nilpotente
    Oui, je suis tout à fait d'accord, je n'ai pas été très précis cela ne fonctionne pas dans le cas général. Mais on peut le montrer dans le cas diagonalisable (mais sans Cayley-Hamilton finalement...).

    Dans le cas diagonalisable, ça marche aussi à l'envers A est un polynôme en exp(A) ce qui permet de prouver que

    exp : Sn(R)-->Sn(R)++ réalise une bijection.

    Ce qui est un joli résultat
    @+

    EDIT : ah ben non, ça marche tout le temps en dim finie ! En voilà une bonne chose à savoir...

  14. #13
    invitedef78796

    Re : matrice de damier

    Citation Envoyé par rvz
    Bonjour,

    Oui, évidemment, et c'est très facile.

    par définition.
    Donc cette somme est dans l'espace engendré par I, A, A^2,... . Et Cayley Hamilton te dit que cet espace est de dimension <= N, et comme c'est un sous ev d'un ev de dimension finie (les matrices de taille N*N), exp(A) peut s'écrire comme une combinaison linéaire de I,A,..., A^{N-1}. Mais évidemment, commme pour A^{-1}, les coefficients dépendent de A.
    Maintenant que tu le dis ça a l'air très simple...

    Ceci dit, cela ne nécéssite pas nécéssairement Cayley-Hamilton, parce que si on considère la famille (A^k) pour k entier, elle engendre un sous-espace espace vectoriel V de Mn(C) qui est donc de dimension finie.

    Mais l'argument de dimension finie intervient en fait une deuxième fois car exp(A) s'écrit comme limite de suite de points de V. Et V est bien sûr fermé en dimension finie et donc le tour est joué.

    Avec Cayley Hamilton on a un majorant de dim V qui est assez intéressant.

    Si on récapitule, on a donc les résultats suivants :
    - en dimension finie n, exp(A) est toujours un polynôme de degré au plus n en A.
    - en dimension finie si A est diagonalisable, A est un polynôme en exp(A) (de degré au plus n d'ailleurs).

  15. #14
    invitedef78796

    Re : matrice de damier

    Oups finalement re-bêtise de ma part,

    Pour justifier que Vect( (A^k) ) est bien engendré par une famille finie de puissance de A, il faut quand même préciser que {k tels que ( In, A, A²,...,A^(k-1) ) est libre} est une partie de grand N* non vide et majorée donc possède un plus grand élément r (dont on sait par Cayley Hamilton qu'il est plus petit que n-1). Que (In,..., A^(r-1)) soit génératrice se vérifie par récurrence et on obtient le bout manquant de la démonstration.

    A mon avis Cayley Hamilton n'assure pas à lui tout seul l'existence d'une base des Vect ( A^k ), qu'en pensez-vous ?

  16. #15
    invite6b1e2c2e

    Re : matrice de damier

    Citation Envoyé par IceDL
    Si on récapitule, on a donc les résultats suivants :
    - en dimension finie n, exp(A) est toujours un polynôme de degré au plus n en A.
    - en dimension finie si A est diagonalisable, A est un polynôme en exp(A) (de degré au plus n d'ailleurs).
    Je suis d'accord avec tes précédentes remarques, mais je ne comprends pas la dernière. Le fait que A soit diagonaliable simplifie juste le calcule de l'exponentielle de la matrice, mais ne te donne en aucun cas un meilleur résultat.
    Et effectivement, comme je l'ai dit tout à l'heure, il faudrait éviter de dire polynôme, parce que les coefficients dépendent de la matrice A. Il faudrait dire que exp(A) et toute série entière convergente en A est une combinaison linéaire de I, A, ..., A^{N-1}.

    Au fait, pour répondre à Guyem : Effectivement, si tu te restreins à des matrices nilpotentes de taille N, tu vas trouver un polynôme en les matrices, puisqu'il suffit d'interrompre la série entière à un grand coefficient k. Par exemple, k = N!. Sinon, je pense qu'on peut borner l'ordre de nilpotence par N avec Cayley Hamilton, et donc k = N-1 devrait suffire.

    __
    rvz

  17. #16
    invite6b1e2c2e

    Re : matrice de damier

    Citation Envoyé par IceDL
    A mon avis Cayley Hamilton n'assure pas à lui tout seul l'existence d'une base des Vect ( A^k ), qu'en pensez-vous ?
    En fait, la base est donnée par I,A, ..., A^{j-1} où j est le degré du polynôme minimal de A. Il suffit de l'écrire...

    __
    rvz

  18. #17
    invitedef78796

    Re : matrice de damier

    Citation Envoyé par rvz
    Je suis d'accord avec tes précédentes remarques, mais je ne comprends pas la dernière. Le fait que A soit diagonaliable simplifie juste le calcule de l'exponentielle de la matrice, mais ne te donne en aucun cas un meilleur résultat.
    La première remarque signifie que comme tu l'as montré on peut toujours écrire exp(A) comme combinaison linéaire de I,A,... A^(n-1).

    Ma seconde remarque dit que si A est diagonalisable, on peut écrire A comme combinaison linéaire de I, exp(A),..., exp(A)^(n-1). Ceci s'effectue en trouvant un polynôme Q tel que pour tout i Q(exp(xi))=xi où les xi désignent les valeurs propres de A. Ceci permet de montrer que toute restriction de l'exponentielle à un ensemble de matrices diagonalisables de Mn(C) (par exemple les matrices symétriques réelles) est injective.

    Citation Envoyé par rvz
    Et effectivement, comme je l'ai dit tout à l'heure, il faudrait éviter de dire polynôme, parce que les coefficients dépendent de la matrice A. Il faudrait dire que exp(A) et toute série entière convergente en A est une combinaison linéaire de I, A, ..., A^{N-1}.
    Tout à fait d'accord sur ce point, le polynôme en question dépend de A mais c'est déjà pas mal.

    Citation Envoyé par rvz
    Au fait, pour répondre à Guyem : Effectivement, si tu te restreins à des matrices nilpotentes de taille N, tu vas trouver un polynôme en les matrices, puisqu'il suffit d'interrompre la série entière à un grand coefficient k. Par exemple, k = N!. Sinon, je pense qu'on peut borner l'ordre de nilpotence par N avec Cayley Hamilton, et donc k = N-1 devrait suffire.
    Oui car il existe un entier p tel que N^p = 0, X^p est donc un polynôme annulateur de N, et donc le minimal de N est de la forme X^k avec k plus petit que n la dimension de l'espace.

    Citation Envoyé par rvz
    En fait, la base est donnée par I,A, ..., A^{j-1} où j est le degré du polynôme minimal de A. Il suffit de l'écrire...
    Exact, ça marche tout seul et c'est plus direct.

    Merci pour ces réponses

  19. #18
    invite6b1e2c2e

    Re : matrice de damier

    Citation Envoyé par IceDL
    Ma seconde remarque dit que si A est diagonalisable, on peut écrire A comme combinaison linéaire de I, exp(A),..., exp(A)^(n-1). Ceci s'effectue en trouvant un polynôme Q tel que pour tout i Q(exp(xi))=xi où les xi désignent les valeurs propres de A. Ceci permet de montrer que toute restriction de l'exponentielle à un ensemble de matrices diagonalisables de Mn(C) (par exemple les matrices symétriques réelles) est injective.
    D'accord, j'avais pas compris ce que tu voulais dire. Mais effectivement, ça marche.

    Attention toutefois, tu pourrais dire qu'après tout, si tu te restreins aux matrices diagonalisables, tu pourrais regarder leur expo-1 en définissant un logarithme.
    Pourquoi pas n'est ce pas ?
    Bon, je pense que ça va marcher sur les matrices diagonales à coefficients positifs strict, mais dans ce cas, ce n'est que considérer N copies de R+* qui n'interagissent pas, et donc c'est trivial.
    Si tu prends des matrices tel que le rayon spectral de A-I soit inférieur strict à 1, tu vas pouvoir définir log(A) = log(I+ (A-I)) par la série entière de log en 1 (qui est de rayon de convergence 1), et ça va effectivement te donner une matrice B telle que exp(B)=A. Et bien sûr, B sera une combinaison linéaire de I, A, ..., A^{N-1}.

    Hé, mine de rien, on commence à avoir fait le tour du sujet, non ?

    __
    rvz

Discussions similaires

  1. matrice de passage et matrice dans base canonique
    Par invite7b559047 dans le forum Mathématiques du supérieur
    Réponses: 6
    Dernier message: 01/05/2007, 21h14
  2. une matrice de matrice...(?!)
    Par invite4ffe6e57 dans le forum Mathématiques du supérieur
    Réponses: 8
    Dernier message: 27/03/2007, 18h59
  3. Matrice
    Par hterrolle dans le forum Mathématiques du supérieur
    Réponses: 6
    Dernier message: 28/11/2006, 13h45
  4. matrice
    Par invitef2472a71 dans le forum Mathématiques du supérieur
    Réponses: 15
    Dernier message: 27/03/2006, 12h20
  5. Matrice
    Par invite8be57c24 dans le forum Mathématiques du supérieur
    Réponses: 9
    Dernier message: 05/02/2005, 19h48