Bonjour
J'ai déjà rencontré des chaines d'applications linéatres notées:
0 -> A -> B -> C -> 0
ou il était dit que la chaine y est exacte. Ca signifie quoi? j'ai peut etre mal cherché mais rien sur google.
-----
Bonjour
J'ai déjà rencontré des chaines d'applications linéatres notées:
0 -> A -> B -> C -> 0
ou il était dit que la chaine y est exacte. Ca signifie quoi? j'ai peut etre mal cherché mais rien sur google.
En français, on parle plutôt de "suites exactes". Je te laisse voir sur le web.
Cordialement.
Bonjour,
Une suite exacte c'est un gadget pour rassembler en une ecriture commode des informations sur des objets (typiquement des groupes ou des R-modules) dont il ne serait pas tres eclairant de les ecrire de manière individuelles.
Une suite exacte courte 0->A->B->C->0 c'est un raccourci pour ecrire que B/A=C. En tout rigueur d'ailleurs ca ne signifie simplement que B/i(A) est isomorphe à C, où i est l'injection de A dans B donnée par la première fleche et l'isomorphisme est donné par la seconde.
C'est deja un probleme interessant de se demander par exemple, si A et C sont fixés quels sont les B qu'on peut loger au milieu d'une suite exacte 0->A->B->C->0.
L'examen de A=Z/2, C=Z/2 devrait te convaincre qu'il y a plusieurs manière de le faire.
Plus interessant encore, certaines informations apparaissent naturellement sous forme de suite exacte (et ce fut veritablement un progres d'arriver à cette presentation synthétique). Et il n'y a pas vraiment moyen de les presenter de façon plus parlante. Le cas basique est celui sans doute de la cohomologie (ordinaire).
Bref, en résumer c'est une ecriture commode qui devient vite si naturelle, qu'on y fait meme plus attention.
Note au passage que tu peux toujours devisser une suite exacte longue, en suites exacte courtes A0->A_1->A2->A3->A4->A5 te donne une suite exacte 0->ker(A_1->A_2)->A_2->A3->coker(A2->A3)->0.
avec 0 -> A -> B
le noyau de A->B devrait etre égal à l'image de 0 -> A?
Oui, c'est a dire 0.
Et donc l'application de deux elements successifs donne zéro. (ce qui aurait été vrai d'ailleurs si l'image du 1er etait dans le noyau de la suivante)
Oui, d'ailleurs si on a une suite d'objets et de morphismes satifaisant que la composition de deux consécutifs donne 0, alors on parle simplement de complexe. Une suite exacte est un cas particulier de complexe.
Les deux notions ont leur importance. Et sont centrales partout en geometrie (a des degrés plus ou moins sophistiqués).
Si ca t'interesse je peux donner plus de details, ca fait quelques temps que j'ai envie d'organiser un peu ce que je connais sur le sujet.
Ce serait évidemment bienvenu/
J'apprecierais entre autre des exemples dans le domaine de la physique. (voir page 12)
Je suis aussi intéressé. Je ne trouve pas le message #3 très éclairant. Il y a, me semble-t-il, quelques points ambigus ("première flèche", disparation de A0 et A5, ...).
Pour toute question, il y a une réponse simple, évidente, et fausse.
Une suite exacte peut s'appliquer à des groupes, des anneaux, des espaces vectoriels etc ... L'exemple le plus simple de suite exacte c'est la somme directe . (c'est un petit exercice très facile de voir que c'est bien une suite exacte). C'est le "meilleur" cas possible en général car on comprends parfaitement ce qui se passe ! Appellons de tel suites des suites scindées. Une suite exacte n'est pas toujours scindé, elle l'est si et seulement si il existe une section de l'application B -> C (i.e une application C -> B tel que la composition C -> B -> C soit l'identité). Toutefois si A,B,C sont des espaces vectoriels on a toujours des sections (exercice). Mais la suite exacte continue d'être utile, en fait elle nous dit que dim(A) + dim(C) = dim(B) (exercice). Dans le cas général si on a une suite exacte d'espace vectoriels on a
Quel est l'utilité des suites exactes ? En général si on a un objet A, un bon moyen de le comprendre c'est d'avoir une suite exacte 0 -> X -> A -> Y -> 0. On sait déjà que X est un sous-groupe/espace vectoriel de A et que le quotient de A par X est isomorphe à Y. On "dévisse" A en faisant des morceaux plus petits. En général un tel procédé s'arrête avec les objets "simples". Donc tout objet peut être décomposé, parfois en nombre fini, juste avec des objet "simple" (donc qu'on comprends parfaitement). Par exemple tout k-espace vectoriel est somme direct de copies de k.
Une dernière application. Si on a une suite exacte 0 -> A -> B -> 0 alors A est isomorphe à B. Donc si on a des suites exactes A -> B -> C -> D les cas ou A = D = 0 sont très intéressants car ils nous disent que B est isomorphe à C ! C'est une des méthodes possibles pour calculer la dimension de certains espaces vectoriels.
Je pense MiPaMa peut expliquer tout ça mieux que moi mais voilà l'idée générale que j'ai des suites exactes. Je pense le mieux pour comprendre c'est de travailler soi même sur des petits exemples. Encore un dernier pour la route : disons qu'on a une suite exacte 0 -> A -> B -> C de modules. Si Hom(X,Y) désigne les applications linéaires de X vers Y montrer que la suite induit une suite exacte 0 -> Hom(D,A) -> Hom(D,B) -> Hom(D,C)
Et une suite inversée pour les duaux.
Ca me replonge dans une autre vie. J'avais acccompagné je ne sais plus qui(e) dans un cours où je n'étais pas inscrit, et on y parlait du lemme du serpent. Le monde mathématique est décidemment un monde exotique.
Quand on a l'habitude, sûrement. Le problème que cela me pose est qu'il faut "deviner" les applications, et cela se fait en utilisant l'information préalable que c'est une suite exacte, et un peu plus ("applications canoniques" ?). Il n'y a pas qu'une seule application linéaire de A vers la somme directe A + B !
Pour toute question, il y a une réponse simple, évidente, et fausse.
Dans la suite exacte 0->A->B->C->0 de mon message, la premiere fleche désigne celle de A dans B, et la seconde celle de B dans C (effectivement ce sont plutot les 2nde et 3eme). Ce que je voulais dire, c'est qu'une suite exacte de la forme donne les informations suivantes, on a une injection i de A dans B, une surjection p de B dans C, et que p induit un isomorphisme de B/i(A) sur C.
L'exemple typique est 0-> ker(f)->E->im(f)->0, en fait toutes les suites exactes courtes sont isomorphes à cette suite là, ainsi qu'a celles là 0-> im(f)->E->coker(f)->0. Cette propriété est une propriété cruciale des catégories dites abéliennes. Plus generalement si f:E->F est une fleche quelconque, on a une suite exacte 0->ker(f)->E->F->coker(f)->0.
Toutes ces suites exactes permettent de devisser une suite exacte plus longue.
Si ...->A_0->A_1->A_2->A_3->A_4->... est exacte, alors on a par exemple une suite exacte 0->ker(A_1->A_2)->A_2->A3->coker(A2->A3)->0, mais aussi bien sur ...->A_0->ker(A_1->A_2)->0 est aussi exacte et 0->coker(A2->A3)->A_4->... aussi. On a donc devisser la longe suite exacte en plusieurs suites exactes plus petites.
Pour le reste, je comptais plutot parler du rapport entre l'algèbre homologique (qui est essentiellement l'etude des complexes et des suites exactes et de tout cet abstract non-sense, qui finalement en soi, n'a pas grand interet) et d'autre branches des maths (qui lui ont donné naissance en fait, et qui font que c'est interessant). Je vais faire ca dans un second message.
C'est vrai qu'on a souvent tendance a ne pas mentionner explicitement les fleches sur les suites exactes. Soit parce que ce sont les fleches "evidentes dans le contexte" soit par ce qu'elles n'ont pas plus d'importance que ca pour ce qu'on veut en faire, l'important etant que les suites soient exactes.Quand on a l'habitude, sûrement. Le problème que cela me pose est qu'il faut "deviner" les applications, et cela se fait en utilisant l'information préalable que c'est une suite exacte, et un peu plus ("applications canoniques" ?). Il n'y a pas qu'une seule application linéaire de A vers la somme directe A + B !
Dans le cas d'une suite exacte scindée, les fleches sont celles auxquelles on pensent, linjection de A dans A\oplus B donnée par la propriété universelle, et la projection de A\oplus B sur C, si l'on oublie pas que l'on travaille dans une catgéorie ou produit et somme coincident. En terme d'espaces vectoriels (ou de groupes abéliens ou de R-modules), c'est a->(a,0) et (a,c)->c.
En fait, il n'est pas idiot d'introduire la notion de (iso)morphisme de suite exacte cest un diagramme commutatif
ou les lignes sont exactes, la composition etant définie de manière evidente. C'est un isomorphisme si c'est un morphisme inversible, ce qui revient à dire que les fleches verticales induisent des isomorphismes.
On peut démontrer, c'est facile, que si une suite exacte 0->A->B->C->0 est scindée (ou retractée, cela signifie que la fleches A->B est inversible à gauche) alors elle est isomorphe à une suite exacte de la forme 0->A->A\oplus C->C->0.
Ptetr du coup je peux aussi detailler mon exemple plus haut sur des suites exactes non isomorphes (bien que leurs extremités le soient). Dans la catégorie des groupes abliens
on a les deux suites exactes suivantes 0->Z/2->Z/4->Z/2->0 ou la première fleche est la multiplication par 2 la seconde étant le quotient par 2Z/4 et une autre 0->Z/2->Z/2 x Z/2->Z/2->0, qui est elle scindée.
La premier n'est evidement pas scindé car les seules fleches de Z/2 dans Z/4 envoient 1 sur 0 ou 2. Les deux suites exactes sont non isomorphes. C'est un probleme en general difficile et important que de comprendre comment reconstruire le groupe G a partir de la donné d'un devissage de G en 0->A->G->B->0 et c'est un probleme qui se pose en pratique.
De meme (et pour boucler avec ce que dit Petrifié) si on se donne une foncteur F (d'une catégorie abélienne dans une catégorie abélienne qui sont simplement des catégories qui ont les memes propriétés que celle des groupes abélien, les plus importantes etant celles des groupes abéliens, celle des R-modules, et celle des faisceaux de groupes abéliens sur un espace topologique), alors il est facile de voir que F transforme suite exacte en complexe. Si F transforme suite exacte en suite exacte, alors il est dit exact.
Les exemple les plus simple de foncteurs sont bien sur les foncteurs Hom. Et comme la dit Pétrifié, ni Hom(A,.), ni Hom(.,A) ne sont exacts. Ils sont par contre exact à gauche. Ce qui signifie que si 0->T->S->R->0 est exacte, alors 0->Hom(A,T)->Hom(A,S)->Hom(A,R) est exacte et 0->Hom(R,A)->Hom(S,A)->Hom(T,A) est exactes. Les objets A pour lesquels Hom(A,.) est exact sont dit projectifs, et dualement, ceux pour qui Hom(.,A) est exact sont dit injectifs. Ce sont ces derniers, qui permettent d'un point de vue moderne de calculer la cohomologie (pas de bol, ils sont beaucoup moins facile à comprendre que les projectifs :-/)
C'est vrai, je n'ai pas mis les applications. L'application A-> A+B est l'application (a,0) et l'application A+B -> B est l'application (a,b) -> b.Quand on a l'habitude, sûrement. Le problème que cela me pose est qu'il faut "deviner" les applications, et cela se fait en utilisant l'information préalable que c'est une suite exacte, et un peu plus ("applications canoniques" ?). Il n'y a pas qu'une seule application linéaire de A vers la somme directe A + B !
Edit : et si tu décide de rédiger un truc sur le sujet MiPaMa je suis intéressé aussi !
En fait, ce dont je voulais parler est probablement (beaucoup) trop ambitieux, mais bon je vais quand meme essayer.
En fait, ce qu'il faut comprendre, c'est que les notions d'algèbre homologique (et d'algèbre homotopique, plus moderne, plus delicate aussi) ont emergé pour encoder des propriétés géométrico-topologique en langage catégorique/algébrique.
En general on part d'un objet géométrique ou topologique, et on peut lui associer un complexe d'objet et on extraie de l'information de ce complexe sour forme homologique.
L'exemple basique est les suivant. Si on se donne un espace topologique X, on a deux catégories naturelles associée à X, sa catégorie des faisceaux ensemblistes ShEns(X) et sa catégorie des faisceaux de groupes abéliens Sh(X), on a deux foncteurs qui les relient et qui sont adjoints, les foncteurs d'oubli et celui de la formation des (faisceaux de) groupes abéliens libres. Ces deux catégories sont essentielles parce que la première encapsule totalement X, c'est le "site" associé à X il determine X à homeomorphisme prés, alors que la seconde est abélienne.
Dans la catégorie Sh(X), on a la notion de complexe et d'objet d'injectifs, et cela permet de calculer la cohomologie de X à valeur dans un faiceau de groupes abéliens qui generalise vastement la cohomologie ordinaire, mais aussi à valeur dans les systemes locaux. La première etant la cohomologie à valeur dans un faisceau constant, alors que la seconde est la cohomologie à valeur dans un faisceau localement constant.
Mais le passage à la cohomologie est tres "brutal", il fait perdre beaucoup de structure, du coup on est un peu coincé entre deux choses, la catégorie des complexes des faisceaux de groupes abéliens, et la catégorie des groupes abéliens, auxquels on accede via la cohomologie.
Un grand progres de ces 50 dernières années et dû à Grothendieck est de découvrir un intermédiaire entre la catégorie des complexes, franchement trop grosse, et cette des groupes franchement trop petite. C'est celle de catégorie dérivée. L'idée est de conserver les complexes, mais de s'autoriser à inverser les morphismes qui induisent un isomorphisme en cohomologie, les quasi-isomorphismes. Dans ce contexte, les foncteurs dérivés qui permettent de définir la cohomologie se factorise en foncteurs dérivés qui atterissent dans la catégorie dérivée.
D'un point de vue tres basique, voila ce qu'on peut faire dans le cas par exemple des CW-complexes et comment s'articulent topologie et algèbre homologique
Si on a un CW-complexe, X, on peut lui associer deux complexes l'un combinatoire et l'autre topologique.
Le premier le complexe cellulaire, est donné par A_n=groupe abélien libre bati sur cellules ouvertes de dimension n. Les differentielles (i.e les applications A_n->A_{n-1}) sont un peu compliqués à expliciter.
Le second, le complexe singulier est donné par B_n=groupe abélien libre bati sur toutes les applications continues du n-simplexe dans X. Il est facile de construire les differentielles, on prend pour chaque simplexe la somme alternée des restriction de l'application s aux face du simplexe (qui sont des n-1 simplexes).
De tels complexes ont des groupes d'homologie, définis par ker(d)/im(d) (d est la differentielle). S'ils sont nuls, alors le complexe est une suite exacte.
A partir de là, tout la theorie devient algébrique et on a besoin uniquement d'un simple "input" géométrique, une application continue induit un morphisme entre les complexes correspondant (un morphisme de complexe est une famille d'applications C_n->D_n qui commutent avec les differentielles) et deux applications homotopes induisent les memes morphismes entre l'homologie des complexes. Et on peut developper toute la theorie (i.e prouver les axiomes d'Eilenberg-Steenrod) uniquement d'un point de vue algébrique (bon j'exagère sans doute un peu, il doit y avoir d'autre moment ou la topologie intervient).
A partir de là on peut montrer que dans la catégorie dérivée des groupes abéliens, alors les deux complexes A_. et B_. sont isomorphes.
Ainsi, si tu veux etudier topologiquement un espace, tu est naturellement amené étudié "l'algèbre homologique" qui lui est associé, et l'information que tu en extrais se presentera souvent sous forme de suite exacte.
Par exemple, un fait basique à établir est la "suite exacte de Mayer Veitoris". Si tu possède un espace topologique, recouvert par deux ouverts U et V, alors tu as une suite exacte
Ceci te permet facile de calculer la cohomologie de la sphere de dimension n car tu peux la recouvrir par deux ouverts U et V qui ont touts leurs H^i=0 pour i>0 et telles que U\cap V a les memes groupes de cohomologie que la sphère de dimension n-1. A partir de là en raisonnant directement sur la suite exacte (sans savoir ce que sont les applications) tu peux directement calculer tous les groupes (en connaissant ceux du point aussi, qui sont triviaux).
Alors tu vas me dire, ok, on peut calculer des groupes d'homologies, mais en quoi est ce important? Et bien ils te fournissent des invariants relativement fins associés à un espace. Mais surtout ils te donnent de la structure supplementaire sur un espace qu'on peut utiliser pour prouver des "vrais choses". Par exemple, le theoreme de Jordan resulte facilement du calcul des groupes de cohomologie des boules et des spheres (et le theoreme de jordan est un theoreme difficile s'il en est!).
Ce formalisme est si puissant que tout un tas de construction classique se sont trouvés encapsulé par lui, c'est le cas des Tor, ou des Ext, mais aussi de la cohomologie des groupes qui avant etait construit de manière ad hoc (e.g le groupe de Brauer).
Bon j'ai relu... c'est nul en fait , et je parle pas assez de l'algèbre homologique en tant que tel. Tant pis, je poste quand meme.
MiPaMa : Merci pour les précisions, est ce que tu aurais une référence pour le côté "site" ? Je suis assez intéressé
Pour les sites... SGA 4?
OU SGA 4 et demi sans doute moins lourd?
Sinon, y a aussi un bouquin du genre "sheaves in logic, introduction to topos theory". Pour ma part, j'ai essentiellement """appris""" ca en "discutant" avec les gens en GNC.
D'accord, merci !